Top.Mail.Ru
Москва
19 апреля ‘24
Пятница
Навигация

Правозащитники испугались наступления эры терминаторов

Международная правозащитная организация Amnesty International обеспокоилась успехами в разработке автономных боевых систем, способных самостоятельно определять цели для атаки.

Поводом для паники среди правозащитников стали известия из США, где компания Raytheon по заказу Минобороны приступила к разработке нейронной сети, способной не только самостоятельно принимать решения, но и объяснять логику их принятия.

Новый проект получил название «Способный объяснять искусственный интеллект» (XAI). Планируется, что робот, оснащенный такой системой, посредством графического интерфейса будет взаимодействовать с оператором и рассказывать ему о последовательности принятия решений.

В качестве примера приводится робот-медик, который на рентгеновском снимке легкого сможет обнаруживать признаки рака. Если живого врача возьмут сомнения насчет правильности диагноза, он сможет запросить пояснения, и тогда робот укажет на вызвавшие опасения подозрительные тени. «Тогда врач решит, что делать дальше — провести более углубленную диагностику или, скажем, списать все на артефакты рентгенографии», - говорится в статье портала «Новые Известия».

Однако такой интеллект можно будет применять не только в мирных целях. В США военные давно стали работать с автоматизированными системами огня, которые сами определяют цели. Недалек тот день, когда будут созданы смешанные боевые подразделения из людей и роботов. Но живые солдаты захотят быть уверенными, что робот внезапно по ошибке не станет стрелять им в спины, и здесь как раз на помощь может прийти нейросеть XAI.

Такой перспективой не воодушевились в Amnesty International, указав, что право «принимать решения о жизни и смерти» должно быть только у человека.

В таком случае и никак иначе можно обеспечить соблюдение международного права. Советник AI по вопросам искусственного интеллекта и правам человека Раши Абдул-Рахим отметил, что разработки в США приближают человечество к поистине апокалиптичным сценариям.

AI в этой связи предлагает проработать юридические стандарты, в соответствии с которыми люди останутся ключевым звеном при реализации «критически важных функций».

Полная версия