В США осудят женщину, пытавшуюся обвинить в изнасиловании при помощи фейкового фото
Жительница Флориды оказалась под судом после того, как криминалистическая экспертиза установила, что представленное ею фото с места предполагаемого преступления было создано искусственным интеллектом за несколько дней до заявленных событий. Фигурантка обратилась в полицию с сообщением о сексуальном насилии, предоставив в качестве доказательства фотографию человека на своём диване. Однако цифровая экспертиза выявила, что изображение было сгенерировано алгоритмом ChatGPT, причем файл сохранился в удалённой папке телефона с датировкой, предшествующей инциденту.
Женщина провела сутки под стражей и была отпущена под залог в 1000 долларов после предъявления обвинения в заведомо ложном доносе. Этот случай демонстрирует растущий разрыв между возможностями общедоступных нейросетей и способностью правоохранительных органов противостоять тенденции. Пока дипфейки знаменитостей привлекают основное внимание, реальная опасность кроется в повседневном злоупотреблении технологиями обычными людьми. Современные инструменты позволяют создавать фотореалистичные изображения быстрее, чем специалисты успевают их верифицировать.
Традиционные методы цифровой криминалистики, ориентированные на контент человеческого происхождения, оказываются неэффективными против материалов, созданных алгоритмами. Для выявления таких подделок требуются специализированные протоколы и подготовка, которые большинство полицейских управлений ещё не внедрили. Ситуацию усугубляет стремительное развитие потребительских нейросетей, тогда как криминалистические методики обновляются значительно медленнее. Случай во Флориде стал предупреждением для правоохранительных органов по всему миру — следователям приходится осваивать методы работы с контентом.
Тем временем OpenAI запускает генератор дипфейков.




