ИИ удалось обмануть экспертов написав комментарии на госпортале
Искусственный интеллект приближается по своим возможностям к возможностям обычного человека. Это наглядно в его все возрастающем умении создавать фейки. Например, недавно было установлено, что ИИ способен писать комментарии так, как это могли бы сделать живые люди. Распознать фальшивые «комменты» не могут не только обычные пользователи, но и эксперты. Все, от стиля написания до манеры изложения мыслей, выглядит естественным, а сам комментарий кажется осмысленным и не лишен эмоциональной составляющей.
Это удалось выяснить в ходе эксперимента, запущенного студентом из Гарварда, изучающим медицину. Молодой человек так же живо интересуется и темой ИИ, поэтому решился на довольно отчаянный шаг – заставил бота писать комментарии на одном из государственных сайтов. Там в это время проходил опрос, призванный выявить потребность в изменениях условий медицинской страховой программы. Оставить комментарий мог любой человек, которому проблема не была безразлична.
Пользуясь этим, Макс Вайс, так зовут студента, начал размещать «предложения», сгенерированные ИИ GPT-2. Модераторы сайта, к его удивлению, ничего не замечали и продолжали считать, что все записи сделаны людьми. Вайс поясняет, что из почти 1000 комментариев, половина были фейковыми. Затем, он сообщил о своем эксперименте и указал, как обнаружить подделку – фейковые «комменты» содержали маркеры, специальные символы. Он был поражен, как просто можно настраивать алгоритмы работы ИИ и добиваться такого впечатляющего результата.
Эксперимент заставляет задуматься и сделать выводы о том, насколько честной может быть «обратная связь» с пользователями. Крупные компании делают этот момент, если не главным, но важным в своей работе, проводят анализ и кладут результаты в расчет своей дальнейшей деятельности. Таким образом, загружая фейки, можно тонко и эффективно корректировать их курс. Нужно выработать методы защиты от такого манипулирования.