Какая-то женщина хотела продать участок земли, но не могла доказать, что он ей принадлежит. Компания, которая занималась оформлением документов, попросила её пообщаться по видеосвязи. Она согласилась, но риэлторы заподозрили обман. Картинка на экране была весьма странной, а сама женщина вела себя подозрительно! Проведенная проверка позволила выяснить, что оформление документов невозможно.
Оказалось, что в реальности эта женщина пропала без вести много лет назад! Мошенники использовали изощренный дипфейк, чтобы обмануть фирму, получить права на участок и захватить землю. Скорее всего, участок был бы перепродан сразу после оформления. Только бдительность сотрудников компании не дала преступникам провернуть эту аферу. Будь они чуточку убедительней, права на участок достались бы жуликам.
Страшно представить, но таких случаев будет всё больше. Ведь информация о владельцах недвижимости доступна всем, а ИИ сравнительно легко может создать фальшивую личность, используя данные из соцсетей! Представь, что кто-то выдает себя за любого из нас, чтобы получить что-то ценное! Срочно нужны новые способы защиты от таких атак. Ведь ИИ уже может подделать голос человека, чтобы обмануть его близких! А во время выборов в Америке люди жаловались, что им звонил лично сам Байден и просил саботировать голосование! Оказалось, что это был тоже ИИ!
Тем временем МТС запустил ИИ, вычисляющий мошенников во время звонков.