Исследователи из университета Корнелла продемонстрировали, что вредоносные приложения можно внедрять и прятать в моделях нейронных сетей, избегая механизмов обнаружения. Нейронные сети представляют собой основу искусственного интеллекта (ИИ). Принцип действия в них напоминает работу человеческого мозга, они сходным образом анализируют и обрабатывают информацию.
Внедрение вредоносных приложений в нейронную сеть мало влияет на её производительность. Подобные приложения способны обойти антивирусное сканирование, поскольку структура моделей нейронных сетей не меняется.
Исследователи провели эксперимент, в котором внедрили вредоносный код размером 36,9 МБ в модель AlexNet размером 178 МБ с потерей точности 1%. Антивирусы не заметили ничего подозрительного.
Специалисты считают, что с распространением разных вариантов применения ИИ на практике внедрение в подобные сети вредоносного кода будет происходить всё чаще.