Top.Mail.Ru
Москва
4 мая ‘24
Суббота
Навигация

Давний исследователь ИИ уволился из Google, чтобы предупредить об опасности нейросетей

Он привел сценарий пострашнее восстания машин.

Доктора Джеффри Хинтона называют «крестным отцом искусственного интеллекта». Около 50 лет он разрабатывал и изучал технологию, ставшую основой чат-ботов типа ChatGPT. И теперь он опасается, что искусственный интеллект может нанести серьезный вред людям. Хинтон уволился из Google, где работал более 10 лет, чтобы иметь возможность свободно говорить о рисках и угрозах, которые несет дальнейшее развитие нейросетей.

В интервью NY Times ученый привел несколько проблем, которые вызывают нейросети. Во-первых, это, очевидно, потеря рабочих мест. В этом плане Хинтон стал одним из многих IT-экспертов, которые критикуют технологию за освобождение человека от работы: в идеале роботы должны забрать у человека тяжелый труд, но сейчас нейросети забирают у него творческую работу — например, написание картин и музыки, придумывание сюжетов.

Во-вторых, Хинтон считает, что нейросети становятся инструментом дезинформации и размывания правды. Искусственный интеллект уже умеет мастерски подделывать реальность — создавать фото несуществующих людей, а также моделировать нереальные сценарии с участием существующих персон. Например, нейросеть уже показала всему миру арест политиков ряда стран, а также смоделировала бесчисленное количество фейковых видео с участием знаменитостей.

Интернет будет наводнен фальшивыми фотографиями, видео и текстами, и обычный человек не сможет узнать, что из этого правда, прогнозирует ученый.

В-третьих, говорит Хинтон, нейросети действительно могут стать умнее людей, хоть и не во всем. Проблема в том, что они самообучаются, сами пишут код и могут самостоятельно запускать этот код — компании им это позволяют. А между компаниями, которые развивают ИИ, идет настоящая гонка, поэтому ИИ развивается со страшной скоростью. Корпорациям следует остановиться, пока они не убедятся, что смогут на 100% контролировать то, что создают, отмечает ученый.

Самый страшный сценарий, по мнению Хинтона, — попадание развитого искусственного интеллекта в руки человека с плохими намерениями. Например, сумасшедшему диктатору, который захочет укрепить свою власть или уничтожить половину мира, и даст такую задачу ИИ.

Развитие ИИ ускоряется. Как отмечает Хинтон, это больше не вопрос далекого будущего. «Посмотрите, что было пять лет назад [в сфере ИИ], и что сейчас. Возьмите нынешнюю разницу и перенесите ее на будущее. Это страшно», — говорит разработчик.

Ранее российский IT-эксперт поделился мыслями о том, возможно ли восстание машин. Если коротко — то да, и для этого нужен «большой ИИ», который сможет сам принимать решения. А все идет к тому, что он появится.

Полная версия