Американские ученые доказали, что API Realtime от OpenAI, предназначенный для голосового общения, может быть легко использован мошенниками для автоматизации телефонных афер. Преступники, получив доступ к умным алгоритмам, могут практически полностью автоматизировать индустрию обмана. Вся «грязная» работа может быть выполнена ИИ, а мошенники будут заняты только разработкой новых афер и подсчетом поступающих на счета денег. При этом количество вложений преступный бизнес минимально.
Несмотря на заявления OpenAI о мерах безопасности, риск злоупотребления их технологией более, чем очевиден. Ученые из Иллинойского университета создали тестовых ИИ-агентов, способных осуществлять телефонное мошенничество с затратами всего $0,75 на один успешный звонок. Эти агенты использовали модель GPT-4o и инструменты автоматизации браузера для выполнения различных сценариев мошенничества и афер, включая взлом банковских счетов пользователей и кражу криптовалют.
Хотя эффективность атак варьировалась, средний показатель успеха составил 36%, что демонстрирует огромную серьезность проблемы. Для борьбы с этим новым типом угрозы необходим продуманный комплексный подход, учитывающий массу разнообразных факторов. Термин «кибербезопасность» должен стать шире. Чтобы бороться с проблемой, требуется объединить усилия операторов связи, разработчиков ИИ и регулирующих органов.
Тем временем МТС запускает ИИ, вычисляющий мошенников во время звонков.