Сэм Альтман, глава OpenAI, выразил неподдельную обеспокоенность грядущей волной высокотехнологичного мошенничества. По его словам, нейросетевые технологии вскоре позволят злоумышленникам создавать практически неотличимые подделки чужой внешности и голоса. То есть уже скоро любой человек при желании может скопировать любого другого. Альтман во время диалога с вице-председателем ФРС США Мишель Боуман подчеркнул необходимость срочной модернизации банковских систем безопасности. «Меня тревожит, что некоторые финансовые организации до сих пор используют аутентификацию по голосу для подтверждения крупных транзакций», — отметил он.
Технологический прогресс уже сегодня делает возможным точное воспроизведение человеческого голоса с помощью простых приложений. В ближайшем будущем аналогичная судьба ожидает и видеоконтент — искусственно созданные видеозвонки станут неотличимы от реальных. Подобные опасения подтверждаются реальными случаями. Преступники уже используют ИИ-синтезированные голоса для вымогательства денег, выдавая себя за родственников жертв. ФБР официально предупредило о возрастающей угрозе фишинговых атак с применением технологий клонирования голоса и видео.
Альтман настаивает, что OpenAI не разрабатывает инструменты для создания цифровых двойников. Однако его компания инвестирует в спорные биометрические технологии, а их видеогенератор Sora потенциально может быть использован для подобных целей. «Наша отрасль пытается донести важный сигнал: отсутствие публичных разработок не означает, что таких технологий не существует», — заявил Альтман. По его прогнозам, появление в открытом доступе инструментов для создания реалистичных подделок — лишь вопрос ближайшего будущего.
Ранее мы писали, как отличить фейк от правды?
