Главный научный сотрудник OpenAI Илья Суцкевер давно готовится к эпохе искусственного общего интеллекта (AGI) — моменту, когда алгоритмы превзойдут человеческий разум. Как выяснилось, у него есть весьма необычные планы на этот случай. По словам источников, близких к ученому, он всерьез рассматривает апокалиптические сценарии, связанные с AGI. Он всерьез подумывает о том, чтобы выстроить надежный бункер. Этот разговор демонстрирует, насколько серьезно руководство OpenAI относится к перспективам создаваемых технологий, несмотря на скептицизм многих экспертов относительно самой возможности создания AGI.
Трое свидетелей подтвердили, что Суцкевер действительно говорил о бункере. Как отмечает один из исследователей: «Есть группа людей, включая Илью, которые верят, что сверхразумный ИИ приведет к буквальному апокалипсису». Одержимость Суцкевера AGI приобрела новый оборот к лету 2023 года. Помимо технических аспектов, его начали беспокоить вопросы управления этими технологиями в OpenAI. Появление общего искусственного интеллекта представляет собой двойственный феномен, способный как вознести человечество на новую ступень развития, так и погрузить его в пучину технологической катастрофы.
Главная опасность заключается не столько в потенциальной враждебности ИИ, сколько в его непостижимом для человеческого разума алгоритмическом мышлении, которое может привести к непредсказуемым последствиям при решении глобальных задач. Подобно тому, как ребенок, играя со спичками, не осознает всей серьезности своих действий, человечество рискует создать систему, которая, руководствуясь логикой оптимизации, может прийти к совершенно иным выводам о том, что действительно необходимо для «благосостояния» людей, игнорируя фундаментальные человеческие ценности и мораль.
Тем временем эксперты назвали единственное средство спасения во время ядерной войны и это не бункер.
