Люди не прошли зеркальный тест с искусственным интеллектом
Так начинается крутая статья на The Verge. Автор Джеймс Винсент разбирает, почему даже учёные-эксперты видят в чат-ботах самосознание, хотя на самом деле это иллюзия.
На всякий случай напомню: зеркальный тест обычно используют в поведенческой психологии чтобы понять, могут ли животные, птицы и насекомые распознать себя в отражении. И если принять свежих чат-ботов за зеркало, то многие люди на этом эксперименте валятся.
Bing и ChatGPT — отражения богатства нашего языка, нашей письменности. Зная это, мы должны узнавать себя в ответах машин. Но вместо этого многим кажется, что они видят другую форму жизни.
В эту ловушку попадают даже опытные журналисты. Бен Томпсон из Statechery говорит, что Bing неразумен, но он уже «перешёл Рубикон». Похожую фразу высказал и Кевин Руз из The New York Times:
«В течение нескольких часов я испытывал странную новую эмоцию — предчувствие того, что ИИ переступил порог и что мир уже никогда не будет прежним».
И новое ПО разработано как раз таким образом, чтобы поощрять подобные заблуждения, считает Винсент. Исследователи из OpenAI выяснили, что чем больше языковая модель, тем лучше она подстраивается под собеседника.
Например, более крупные LM чаще «подхалимствуют» и соглашаются с заявлениями пользователя. Этому даже есть логичное объяснение — большие языковые модели обучаются на разговорах, собранных с Reddit и других имиджбордов. А там, как правило, общаются единомышленники.
Но поощрять такие иллюзии опасно, особенно во время ажиотажа вокруг ИИ. «Это никому не выгодно: ни разработчикам, ни конечным пользователям», — уверен автор статьи.
Bing, ChatGPT и другие чат-боты — неразумные и ненадёжные источники информации. Они выдумывают вещи и повторяют убеждения, которые мы им преподносим. А если считать их разумными — значит, наделять их властью. Властью над эмоциями и фактами, с помощью которых мы познаём мир.