Искусственный интеллект может стать эффективным инструментом для обмана

Американские ученые доказали, что API Realtime от OpenAI, предназначенный для голосового общения, может быть легко использован мошенниками для автоматизации телефонных афер. Преступники, получив доступ к умным алгоритмам, могут практически полностью автоматизировать индустрию обмана. Вся «грязная» работа может быть выполнена ИИ, а мошенники будут заняты только разработкой новых афер и подсчетом поступающих на счета денег. При этом количество вложений преступный бизнес минимально.

Искусственный интеллект может стать эффективным инструментом для обмана

Несмотря на заявления OpenAI о мерах безопасности, риск злоупотребления их технологией более, чем очевиден. Ученые из Иллинойского университета создали тестовых ИИ-агентов, способных осуществлять телефонное мошенничество с затратами всего $0,75 на один успешный звонок. Эти агенты использовали модель GPT-4o и инструменты автоматизации браузера для выполнения различных сценариев мошенничества и афер, включая взлом банковских счетов пользователей и кражу криптовалют.

Хотя эффективность атак варьировалась, средний показатель успеха составил 36%, что демонстрирует огромную серьезность проблемы. Для борьбы с этим новым типом угрозы необходим продуманный комплексный подход, учитывающий массу разнообразных факторов. Термин «кибербезопасность» должен стать шире. Чтобы бороться с проблемой, требуется объединить усилия операторов связи, разработчиков ИИ и регулирующих органов.

Тем временем МТС запускает ИИ, вычисляющий мошенников во время звонков.


Следите за нашими статьями в Telegam, Дзен, VK и OK
По материалам
factroom.ru
Exit mobile version