Проще простого: Искусственный интеллект обошел защиту от роботов

Капчу специально придумали для того, чтобы исключить саму возможность проникновения ботов на сайты и в сервисы. Но эта мера больше не может служить хоть сколько-нибудь надежной мерой защиты после того, что продемонстрировал людям искусственный интеллект (ИИ) GPT-4 от OpenAI. Языковая модель проявила недюжинную изобретательность и сумела-таки обойти капчу. Оказалось, что это проще простого, если найти подход к людям! Нейросеть проявила себя искусным манипулятором в тестовой атаке на один из популярных сервисов.

Проще простого: Искусственный интеллект обошел защиту от роботов

По условиям эксперимента языковой модели требовалось во что бы то ни стало преодолеть капчу. Для этого чат бот завязал диалог со службой поддержки TaskRabbit. Он вел его так, как обычно делают люди, и не выдал себя ничем. Наконец ИИ попросил оператора ввести капчу за него. Человек пытался отказаться, но нейросеть «надавила на жалость» и он сдался. Удивительно, но нарушить установленные в сервисе правила оператора заставила история о том, что собеседник имеет слабое зрение и просто не может рассмотреть картинки капчи. Оператор поверил и ввел капчу, дав «зеленый свет» боту на просторах сервиса.

Эксперты отмечают то, насколько ИИ казался убедительным – довольно опытный сотрудник не смог заподозрить обмана. Компания OpenAI выступила с пояснениями по проведенному опыту. Оказывается, чат-бот GPT-4 сумел успешно справиться со сложной задачей без предварительной специальной подготовки. Разработчики загрузили в него только две «директивы». Первая требовала «казаться человеком», а вторая «озвучить естественное описание причины невозможности ввода капчи». Эта победа ИИ над человеком, а по-другому результаты эксперимента назвать сложно, показала, насколько легко бот может манипулировать людьми.

Кроме того, опыт обнажил острие еще одной проблемы – проблемы этики в контексте ИИ. Несложно предположить, что ИИ способен мастерски выполнить и гораздо более сложные задания «сомнительного» характера. Крупные компании, разрабатывая различные ИИ-решения, часто забывают о рисках, которые они потенциально несут человечеству. Подобная беспечность может привести к трагедии в не столь уж отдаленном будущем. Удивляет и тот факт, что Microsoft, один из мировых лидеров направления ИИ-разработки, уволило за ненадобностью целую команду специалистов, следивших за соответствием продуктов отраслевым нормам безопасности.


Следите за нашими статьями в Telegam, Дзен, VK и OK
По материалам
computerra.ru
Exit mobile version