ИИ учится распознавать поддельные видео
В условиях, когда поддельные видеоролики используются для манипуляций, запугивания и дезинформации, исследователи из Риверсайда представили систему, способную выявлять даже самые изощрённые фальшивки. Ранние системы детекции фейков фокусировались преимущественно на анализе лиц, однако современные технологии позволяют генерировать «полностью синтетические ролики» — с изменённым фоном, движениями и даже несуществующими персонажами. Команда разработала ИИ-модель, способную обнаруживать не только замену лиц, но и любые другие манипуляции с видео, включая полную генерацию контента с помощью ИИ.
Дипфейки больше не ограничиваются подменой лиц, а генеративные модели могут создавать видео с нуля. Этот инструмент, способный отслеживать любые признаки фальсификации. В отличие от узкоспециализированных детекторов, новая система использует «трансформерную архитектуру» глубокого обучения, которая анализирует неестественные детали в кадре, нарушения плавности движений и нестыковки между объектами и фоном. Модель построена на базе SigLIP — технологии, выявляющей общие признаки подделок без привязки к конкретным объектам. Алгоритм заставляет ИИ одновременно отслеживать несколько областей видео, предотвращая избыточную концентрацию на лицах.
Разработка уже была представлена на конференции CVPR 2025 — одном из самых авторитетных мероприятий в области компьютерного зрения. Потенциальными пользователями системы могут стать социальные сети и СМИ, которые могут пользоваться ей для автоматической маркировки фейков, быстрой проверки вирусного контента и защиты от дезинформации. «Люди должны знать, реально ли то, что они видят, — считают ученые.»
Тем временем новая нейросеть OpenAI отлично справляется с генерацией фейковых документов.




