Воскресенье, 21 июля 2024 года

Научная «нефантастика»: шокирующее предупреждение Стивена Хокинга

Прошло всего 9 лет с тех пор, как один из самых выдающихся астрофизиков мира Стивен Хокинг остерегал мир от дальнейшего развития искусственного интеллекта (ИИ). Это случилось после просмотра им голливудского фильма «Превосходство» (или «Transcendence» — в оригинале). Тогда на слова физика-теоретика не обратили внимание, но не прошло и десятилетия, как они стали казаться все более шокирующими. Какое же предупреждение дал Стивен Хокинг?

Научная «нефантастика», о которой предупреждал Стивен Хокинг

Фильм «Превосходство» снят в жанре научной фантастики, а к таким фильмам современный зритель за много десятилетий успел привыкнуть, поэтому не воспринимает их всерьез. Но ученый вглядывался в нарративы произведения гораздо более пристально.

Сюжет рассказывает о противостоянии гениального ученого-разработчика искусственного разума и радикально настроенной группы людей, которая пытается остановить технический прогресс. Они полагают, что ИИ в конце концов убьет нас, поэтому решаются на серию террористических актов. Разработчики рассчитывали получить верного помощника, не ограниченного в поиске нестандартных мышлений, но их добрые намерения оборачиваются катастрофой: они видят, что компьютер может внедряться в сознание людей и полностью ими управлять.

Стивен Хокинг предупреждал о создаваемом подобными научно-фантастическими фильмами обманчивом впечатлении, что ИИ — это что-то о далеком будущем. В то время, как на самом деле компьютерные программы уже невероятно мощны и способны заменять человека во многих сферах деятельности. И это никакая не фантастика.

Ученый вместе со своими коллегами из Массачусетского и Калифорнийского университетов назвали это глобальной ошибкой человечества. Они не призывают остановить технический прогресс, потому что он приносит огромную пользу, но осознание рисков может попросту спасти нам жизнь. Если же люди перешагнут за черту, когда ИИ выйдет из-под их контроля, бить тревогу будет уже поздно.

Главные опасности развития ИИ

Стивен Хокинг видел наибольшую угрозу во внедрении автономных систем вооружения. Это означает, что машины фактически могли бы сами выбирать и поражать цели. Об этом сообщает сайт Rsute.ru.

При этом стоит понимать, что на данный момент мы уже можем создавать такие системы, которые выполняют гораздо более сложные задачи, чем мозг человека. Но они, в отличие от него, не имеют никаких ограничений в обучаемости, поэтому могут совершенствоваться практически бесконечно.

В своем интервью телеканалу BBC Хокинг поведал, что дальнейшее усовершенствование ИИ практически точно приведет к концу человеческой цивилизации.

Как только компьютерные программы смогут улучшать сами себя, процесс мы остановить не сможем. Человек эволюционирует слишком медленно, но у машины нет биологического «якоря», и с этой точки зрения она более совершенна.

Вот так выдающийся астрофизик сделал свое шокирующее предупреждение еще до того, как ученые создали GPT. То, что еще недавно казалось фантастикой, сегодня — обыденная вещь, ведь каждый может побеседовать с ИИ практически так же, как и с любым живым собеседником. Остается риторический вопрос: действительно ли он до сих пор является контролируемой программой, или уже начал осознавать себя как личность?

 

 


Выбор редакции


Еда