Судья, принимавший решения на основе ChatGPT, оказался под следствием
Совершенно невероятный случай зафиксирован в Бразилии. Там, местный судья вынес решение по одному из дел, полагаясь на помощь чат-бота ChatGPT. Последний охотно снабжал работника судебной системы сведениями, которые оказались ложными при проверке. На работу судьи обратил внимание инспектор юстиции страны, решивший разобраться, почему судья проявил столь явную некомпетентность, ведь ранее он был на хорошем счету и не допускал в работе халатности. Начав вникать в происходящее, инспектор был вынужден завести в отношении судьи расследование.
Как оказалось, судья Родригес предал гласности постановление, в котором содержались выдержки, которые были сформулированы приложением искусственного интеллекта ChatGPT. Анализ этих фрагментов показал, что в них приводится ложная информация и указываются факты, которых не было никогда в действительности. В частности, судья ссылался на несколько резолюций Верховного суда страны. Однако, указанных в постановлении резолюций никогда не было. Судья настолько полно доверял ИИ, что не удосужится проверить. Именно они были использованы для вынесения постановления.
Эксперты рассказали, почему судья так «подставил» себя. Они отмечают, что люди доверяют ИИ благодаря тому, что информация предоставляется в максимально развернутом виде с огромным количеством правдоподобных деталей. Кроме того, все данные, сообщаемые ChatGPT пользователю, носят, как правило, позитивный эмоциональный окрас. Также с толку сбивает и «непробиваемая» вежливость, которая стала характерной чертой ИИ. Четвёртый фактор – та уверенность, с которой ИИ выдает информацию для формирования решений.
Тем временем крупная польская компания приняла на должность директора ИИ-робота.