В публикациях на сайте уже не раз мы касались темы дипфейков. Тема эта, действительно, интересная и заслуживает самого пристального внимания. Людям нравятся всякие «приколы», когда появляются забавные видео, где те, или иные люди начинают делать то, что в реальной жизни никогда сделать не согласились бы.
Тем не менее, хорошего в таком новшестве не так уж и много. Его могут использовать в своих грязных целях самые разные люди – шантаж, провоцирование конфликтов, запугивание, намеренное искажение информации. Примеры такого использования нейросетей уже есть. Эксперты уже видят в этом большую угрозу глобального масштаба, которая может уже в течение нескольких ближайших лет захлестнуть весь мир.
Однако, «если есть меч, то должен быть и щит»! Человечеству необходимо мощное средство борьбы с фальшивками. Это становится все более актуальным на фоне того, что фейки становятся все более реалистичными, а распознать их не всегда могут даже эксперты-люди. Не имея в своем распоряжении такого эффективного инструмента, мир может скатиться в пропасть лжи и буквально утонуть в ней!
Проблема начала решаться в американской Калифорнии. Ученые из местного университета создали уникальную нейросеть, которую научили практически безошибочно распознавать фальшивки. Обучение было долгим, но результат их радует. В нейросеть были загружены сотни тысяч реальных фото и фейковых. Таким образом, одна нейросеть детально разбирает работу другой нейросети.
ИИ начал понимать, как отличить подделку и продемонстрировал впечатляющие результаты – подавляющее число подделок было распознано верно. Сейчас данная нейросеть работает исключительно с фотографиями. Но в планы исследователей входит провести аналогичное обучение на видеороликах.
Но в этом случае достичь таких же хороших результатов будет гораздо сложнее. Предполагается, что ИИ будет выполнять анализ не всего видео сразу, а его отдельных кадров. Затем, видео будут дополнительно отсматриваться профессионалами, знающими все тонкости видеомонтажа.