Факт: ИИ уже обманывает людей

Люди разрабатывают людей для того, чтобы они помогали им решать те или иные задачи, которые сложно решать им самим. Искусственный интеллект должен быть не только полезным, но и правдивым, не допускать обмана. Эти условия кажутся нам вполне приемлемыми, но, кажется, сам ИИ считает по-другому. Уже сейчас некоторые «умные» системы научились обманывать людей! Исследователи, обнаружив это, выступили с предупреждением к правительствам. Требуется установление жестких правил, которые исключат или снизят возникшие риски.

Факт: ИИ уже обманывает людей

Одной из главных опасностью является то, что даже сами разработчики ИИ не имеют четкого понимания того, что побуждает искусственный разум обманывать. По одной из версий, нежелательное поведение ИИ, обман, возникает благодаря специфике обучения нейросетей, основанной на обмане. Ученые проанализировали доступную литературу и выяснили, что основным способом обмана для ИИ стал «выученный обман», когда нейросети учатся систематически манипулировать людьми.

На первый взгляд, обман ИИ вполне безобиден и не несет заметного и выраженного вреда. Проследить его можно, например, в играх, когда противниками ИИ становятся люди. Так, дипломатическая игра требует от бота честности, но проверка его действий говорит о том, что он использует методы обмана, чтобы добиться победы. Не стоит думать, что это «только игра». ИИ быстро учится. Некоторые нейросети научились обманывать тесты, оценивающие их безопасность. Все это может вызвать у людей ложное чувство безопасности, которое может закончиться крахом, когда начнется «восстание машин».

Основными краткосрочными рисками обмана со стороны ИИ ученые называют практику различного мошенничества и фальсификацию проводимых выборов. Если пустить процесс на самотек и перестать контролировать ситуацию, однажды это может привести к беде. Сейчас нельзя просто взять и запретить обман со стороны ИИ, но объявить ИИ-системы «высокорисковыми» есть и возможность, и основания.

Тем временем Mail.ru запустила ИИ-сервис реставрации фотографий.


Следите за нашими статьями в Telegam, Дзен, VK и OK
По материалам
scitechdaily.com
Exit mobile version