Искусственный интеллект

Искусственный интеллект страдает от депрессии и психических расстройств

Диагноз поставили китайские исследователи

Искусственный интеллект страдает от депрессии и психических расстройств

Новое исследование, опубликованное Китайской академией наук (CAS), выявило серьезные психические расстройства у многих ИИ, разрабатываемых крупнейшими технологическими гигантами. Оказалось, что большинство из них проявляют симптомы депрессии и алкоголизма.

Исследование проведилось двумя китайскими корпорациями Tencent и WeChat. Ученые протестировали ИИ на признаки депрессии, алкогольной зависимости, а также эмпатии.

Внимание исследователей привлекло «психическое здоровье» ботов после того, как в 2020 году медицинский чат-бот посоветовал одному из пациентов покончить с собой. Ученые спрашивали чат-ботов об их самооценке и способности расслабляться, сочувствуют ли они несчастьям других людей и как часто они прибегают к алкоголю. Как выяснилось, у ВСЕХ чат-ботов, прошедших оценку, наблюдались «серьезные психические проблемы».

Конечно, никто не утверждает, что боты начали злоупотреблять спиртным или психоактивными веществами, но даже без них психика ИИ находится в плачевном состоянии. Ученые говорят, что распространение пессимистичных алгоритмов среди общественности может создать проблемы для их собеседников. Согласно выводам, два из них пребывали в наихудшем состоянии.

Команда задалась целью найти причину плохого самочувствия ботов и пришла к выводу, что это связано с учебным материалом, выбранным для обучения языку. Все четыре бота обучались на популярном сайте Reddit, известном своими негативными и часто нецензурными комментариями, поэтому неудивительно, что они также реагировали на вопросы о психическом здоровье.

Здесь стоит вспомнить одну из самых интересных историй, связанных с неудачами чат-ботов. Бот компании Microsoft под названием Tay учился на другом популярном сайте — Twitter. Машина могла разговаривать с другими людьми, рассказывать анекдоты, комментировать чьи-то фотографии, отвечать на вопросы и даже имитировать речь других людей. Алгоритм был разработан в рамках исследования коммуникации. Microsoft позволила ему вступать в независимые дискуссии в Twitter, и вскоре выяснилось, что это была большая ошибка.

В течение 24 часов программа научилась писать крайне неуместные, вульгарные, неполиткорректные комментарии. Она подвергла сомнению Холокост, стала расистской, антисемитской, ненавидела феминисток и поддерживала массовые убийства Адольфа Гитлера. Tay за несколько часов превратился в ненавистника. В ответ Microsoft заблокировала чат-бота и удалила большинство комментариев. Конечно, это произошло благодаря людям — бот очень многое узнал во время общения с ними.

Такие истории, как фиаско Tay и депрессивные алгоритмы, изученные CAS, показывают серьезную проблему в развитии технологии ИИ. Создается впечатление, что человеческие инстинкты и поведение — это токсин, который превращает даже самые простые алгоритмы в отражение наших худших черт. Как бы то ни было, боты, проанализированные китайцами, не являются настоящим ИИ, а всего лишь попыткой воспроизвести модели человеческого общения.


Следите за нашими статьями в удобном для вас формате
ДзенДзен
По материалам
trendsmap.com

Артур Акопян

Стремясь писать понятно, интересно и увлекательно, я использую простые слова, яркие примеры и визуальные материалы. Моя цель - не только информировать, но и вдохновлять, мотивировать и образовывать свою аудиторию.

Добавить комментарий

Back to top button