Пятница, 22 ноября 2024 года

Почему в КНР сравнили ИИ с пандемией и ядерной войной

Профессор Института автоматизации Академии наук Китая Цзэн И, являющийся членом Специальной группы экспертов ЮНЕСКО по этике искусственного интеллекта (ИИ), высказал свои опасения в отношении безопасности человечества в будущем. В своей колонке для издания Global Times он подчеркнул важность необходимости ограничения развития машинного обучения. Это мнение разделяют многие другие эксперты в области ИИ, включая Илона Маска, сооснователя Apple Стива Возняка, а также более тысячи других экспертов, которые подписали открытое письмо, в котором призывают приостановить все разработки в этой области из-за возможной угрозы, которую они несут для человечества. Рассказываем подробнее, почему ИИ сравнили с пандемией или ядерной войной.

Почему в КНР сравнили ИИ со смертельной пандемией и ядерной войной

Цзэн И также отметил, что ИИ может привести к потере рабочих мест и сокращению деятельности человека во многих сферах жизни, что может привести к социальным и экономическим проблемам. Опасность эффекта можно сравнить только с пандемией или ядерной войной, передает сайт Rsute.ru. Кроме того, необходимо учитывать потенциальные риски, связанные с развитием автономных систем, которые могут привести к авариям в таких областях, как автомобильное и воздушное передвижение. Хотя ИИ может принести огромную пользу обществу, необходимо учитывать его потенциальные риски и принимать меры для обеспечения безопасности человечества. Возможно, ограничение развития машинного обучения и использование его только в определенных сферах может стать одним из решений данной проблемы.

По мнению эксперта, развитие технологий в области ИИ продолжается в стремительном темпе, но в то же время сопутствующие этические проблемы и риски игнорируются. Цзэн И утверждает, что инженеры, которые занимаются разработкой искусственного интеллекта, а также многочисленные инвесторы и пользователи сервисов, использующих ИИ, должны понимать, что они несут ответственность за обеспечение устойчивого и здорового развития этой технологии. Эксперт подчеркивает, что при разработке ИИ необходимо учитывать этические принципы, которые могут защитить человечество от возможных угроз и рисков.

Например, ИИ должен быть разработан с учетом социальных и культурных особенностей каждой страны, чтобы избежать использования его для манипуляции и контроля за людьми. Кроме того, необходимо учитывать вопросы конфиденциальности и защиты данных при использовании ИИ. Цзэн И призывает инженеров, инвесторов и пользователей ИИ принять свою долю ответственности за обеспечение безопасности и этичности развития искусственного интеллекта. Только таким образом можно обеспечить устойчивое и здоровое развитие этой технологии и избежать потенциальных угроз для человечества.


Выбор редакции


Еда