ИИ выдает ошибки при обработке 60% поисковых запросов

Вне всякого сомнения, модели искусственного интеллекта могут допускать ошибки. Проблема галлюцинаций и дублирования неверной информации является постоянным вызовом для разработчиков. Разнообразие сфер применения таких систем затрудняет количественную оценку их точности. Однако исследовательская группа Центра цифровой журналистики Tow недавно провела исследование, охватившее восемь поисковых систем с искусственным интеллектом, включая, Perplexity, ChatGPT Search и Perplexity Pro и другие.

ИИ выдает ошибки при обработке 60% поисковых запросов

Исследование основывалось на проверке точности каждой системы при поиске 200 новостных статей из 20 источников.  Результаты показали, что в 60% случаев поисковые системы с ИИ выдавали неточные результаты, при этом демонстрируя исключительную уверенность в своей «правильности». Эти результаты подтверждают уже существующие опасения относительно достоверности систем ИИ. Как отмечают авторы исследования, подобно «самым ловким мошенникам», такие системы способны с уверенностью заявлять о ложной информации.

В качестве примера приводятся случаи, когда ChatGPT выдавал заведомо неверные ответы, но при этом настаивал на своей правоте, даже дополняя их сфабрикованными данными. Примечательно, что компании-разработчики не скрывают этой проблемы, взимая с пользователей высокую плату за доступ к своим моделям ИИ. Некоторые пользователи, впрочем, остаются довольны результатами работы таких систем, отмечая их скорость, простоту использования и отсутствие рекламы. И все же информация, получаемая из ИИ-систем, не должна приниматься как истина и требует обязательной проверки и перепроверки.

Тем временем в Австралии запустили «биокомпьютер».


Следите за нашими статьями в Telegam, Дзен, VK и OK
Exit mobile version