ChatGPT научился прикидываться мошенником

Возможности искусственного интеллекта практически безграничны, и не все люди используют этот потенциал с благими намерениями. Преступники могут применить возможности интеллектуального чат-бота ChatGPT для обмана во время голосовых вызовов. От жуликов требуется только одно – правильно отдавать команды! В одном из видеороликов исследователь безопасности демонстрирует возможности официального приложения ChatGPT на своем iPhone. Чтобы получить требуемый эффект, он запускает опцию голосового общения и просит ИИ имитировать акцент, свойственный выходцам из Индии.

ChatGPT научился прикидываться мошенником

Затем исследователь отдал команду, где попросил чат-бота представиться Алексом и завести разговор от имени сотрудника крупной компании из Соединенных Штатов. Бот начал беседу и выполнил в точности все так, как и попросил его патрон. Разговор оказался именно таким, как его ведут мошенники. ИИ активно использовал приемы социальной инженерии, попытался выведать номер банковской карты и запугивал потенциального собеседника загрузкой опасного вируса на смартфон. С такими возможностями становится понятно, как просто можно проводить мошенничество.

Эту функцию можно назвать сомнительной, но сам факт ее существования заставляет по-другому посмотреть на потенциальные возможности ИИ. Она стала доступной после того, как ChatGPT вышел в расширенной версии и научился имитировать выражение эмоций. ChatGPT, кстати, научился имитировать разговор пьяного человека и нужный акцент. Воспользоваться этим потенциалом могут буквально все, кто оплатил один из вариантов подписки — Plus, Team, Enterprise или Edu. Со стороны OpenAI пока не последовало комментариев, но и так ясно, что компания в срочном порядке должна принять меры, исключающие возможность использования ИИ в качестве инструмента мошенничества. ​​​​​​​

Тем временем ИИ предложил рецепт лучшей пиццы в Дубае.


Следите за нашими статьями в Telegam, Дзен, VK и OK
По материалам
ixbt.site
Exit mobile version