Компания Apple объявила, что будет сканировать пользовательские устройства в поисках изображений сексуального насилия над детьми с целью предотвращения подобных случаев и распространения материалов. Технология найдёт применение в новых версиях систем iOS и iPadOS на смартфонах и планшетах.
Прежде чем снимки будут загружаться в облачное хранилище iCloud, средство распознавания neuralMatch будет производить сравнение изображений со снимками из базы данных Национального центра пропавших без вести и эксплуатируемых детей. Обещана конфиденциальность пользователей. Якобы фото не будут просматриваться, а вместо этого создаётся цифровой отпечатков снимков для проверки совпадений.
Если совпадения найдут, сведения отправятся в правоохранительные органы. Аккаунт Apple у этого пользователя будет деактивирован.
В приложении Apple Messages специальный алгоритм будет сообщать родителям и детям о получении или отправке фотографий откровенного характера. Siri и поиск будут информировать о поисковых запросах по теме связанного с детьми сексуального насилия.
Пока одни приветствуют это новшество, другие опасаются очередного механизма слежки за пользователями. Специалист по криптографии Мэтью Грин полагает, что системой могут воспользоваться злоумышленники. Apple говоря о высоком уровне точности, обещает свести к минимуму ошибки в работе системы. Помеченные ею подозрительные изображения всегда просматривает человек, прежде чем принять решение. При возможных ошибках пользователи смогут подавать апелляции для восстановления аккаунта.
Ещё есть опасения, что в странах с авторитарными режимами государство сможет использовать систему для слежки за оппозиционерами.