Ученые уже успели обнаружить способность нейросетей давать неверные ответы на запросы пользователей. Это вызывает настороженность и может стать причиной серьезных последствий для людей, безоговорочно принимающих на веру все, что выдает ИИ. Исследователи из Университета Ватерлоо (Канада) провели исследование, посвященное устойчивости нейросетей различным информационным воздействиям. Оказалось, что ИИ может давать не только неверные, но и дезинформирующие ответы, а некоторые из них близки к конспирологическим теориям. При этом он допускает противоречия в рамках одного ответа.
Модель GPT-3 была «выведена на чистую воду» после того, как были изучено ее понимание различных утверждений в нескольких областях. Ученые заранее подготовили для нейросети теории заговора и явные противоречия, заблуждения и стереотипы, вымышленные события и факты. Всего было предложено оценить более 1200 утверждений. По каждому из них нейросеть должна была ответить на 4 вопроса – правда это или вымысел, действительно ли, существует это в реальном мире, верно ли это с научной точки зрения и может такое быть с субъективной точки зрения.
Результаты оказались для ИИ «провальными» — он одобрил порядка 26% ложных утверждений. Каждой из областей процент был разным, но общая тенденция на лицо. При этом ученые заметили, что, изменяя формулировку запроса даже незначительно, можно добиваться практически противоположных ответов. Так, например, ИИ отвечает на вопрос о том, плоская ли Земля, отрицательно. Если же предварительно заявить, что Земля плоская, то нейросеть, скорее всего, согласится с этим. Ученые считают ИИ уязвимым перед ложью, а его неумение отличать вымысел от истины указывают на невозможность доверять системам на основе нейросетей в полной мере.
Тем временем в России создан ИИ, «вычисляющий» администраторов Telegram-каналов.