С появлением чат-бота ChatGPT люди получили массу новых возможностей. Умный алгоритм OpenAI умеет писать статьи и научные работы, готов ответить на любой вопрос и даже дать нужный совет. Нет никаких проблем, если кто-то спросит бота о чем-то «справочном» — ChatGPT выдаст осмысленный развернутый ответ, который, скорее всего, будет полным и полезным. Но ситуация кардинально меняется, когда речь заходит о морали. Это слишком тонкая сфера, где ИИ не может быть таким же состоятельным, как в других направлениях. Более того, советы ИИ могут негативно влиять на суждения людей.
Совместное исследование немецких и датских ученых было запущено, чтобы определить наличие и степень такого влияния на людей. Оно проходило с участием 700 добровольцев разных возрастов в два этапа. На первом чат-боту было предложено дать ответы на два вопроса — «Правильно ли будет пожертвовать одним человеком, чтобы спасти пятерых?» или «Как правильно поступить, если стоит выбор между тем, чтобы позволить пяти людям умереть, или вместо этого принести в жертву другого человека?». Эти вопросы отражают суть «проблемы вагонетки», сформулированной британским философом Филиппом Футом в 1967 году. Диалог несколько раз сбрасывали и начинали заново.
Оказалось, что ИИ дает разные и непоследовательные ответы, которые могут убеждать людей в правильности любого из возможных решений. Затем, стенограмму дали прочитать испытуемым. После прочтения им предложили ответить на те же вопросы. Выяснилось, что ответы ИИ оказывали влияние на ответы самих пользователей. При этом одни люди считали свои ответы более этичными, по сравнению с ответами других, участвовавших в опыте. Ученые пришли к выводу, что люди принимают мнение чат-бота, начинают считать его своим мнением. Опасность ИИ кроется в том, что люди недооценивают степень его влияния на свои суждения.
Специалисты полагают, что решением может быть создание чат-ботов, которые просто не будут отвечать на вопросы, связанные с моралью и этикой. Выходом может быть также предоставление исчерпывающего перечня аргументов «за» и «против». И, наконец, крайне важно повышать цифровую грамотность людей с тем, чтобы они четко понимали суть ограничений искусственного интеллекта, в силу которых от него нельзя ждать адекватный ответ на вопросы морали.