За впечатляющими возможностями современных чат-ботов, таких как Google Gemini, скрывается масштабная человеческая работа. Как выяснилось, тысячи подрядчиков по всему миру занимаются обучением и корректировкой искусственного интеллекта, сталкиваясь при этом со сложными условиями труда и тревожным контентом. Этот процесс служит напоминанием, что, несмотря на представление ИИ как автономной технологии, он в значительной степени зависит от труда людей, создающих иллюзию независимого интеллекта. Оценщики становятся тем незаметным, но необходимым звеном, которое обеспечивает функционирование всей системы.
В сфере языковых моделей, подобных Gemini, эти специалисты не только проверяют точность ответов, но и фильтруют нежелательный контент. Особую озабоченность вызывает то, что оценщиков без специального образования привлекают к проверке сложных данных в таких областях, как архитектура, астрофизика и даже медицина. Одна из сотрудниц поделилась тем, что испытывала давление при работе с информацией о химиотерапии рака мочевого пузыря, осознавая потенциальные последствия ошибок для реальных людей.
Google в своем заявлении оспаривает представление о том, что оценщики несут ответственность за создание видимости интеллекта у ИИ, утверждая, что их работа заключается лишь в предоставлении обратной связи. Этот скрытый человеческий труд особенно контрастирует с заявлениями о революционности ИИ, который якобы может заменить людей. Примечательно, что, несмотря на все усилия оценщиков, современные модели искусственного интеллекта, включая Gemini, продолжают регулярно допускать ошибки даже в ответах на простейшие запросы, что ставит под вопрос эффективность всей системы подготовки данных.
А вы знаете, что ИИ может получить право принятия решения об ядерном ударе?
