Искусственный интеллект

Ученые: контролировать искусственный интеллект будущего будет невозможно. Математика не лжет

Черный сценарий. Проблема остановки. Тревожные выводы

Любой, кто смотрел фильм «Терминатор», знает, что ждет человечество, если искусственный интеллект в будущем станет слишком умным. Однако такое видение было проиллюстрировано не только в фильмах. Ученые на протяжении многих лет пытаются выяснить, сможет ли человечество в будущем контролировать «сверхразумные» системы ИИ. Теперь у них есть ответ: определенно нет.

Черный сценарий

По мнению исследователей, чтобы управлять сверхразумным ИИ, возможности которого выходят далеко за пределы человеческого понимания, людям пришлось бы заранее смоделировать и проанализировать симуляцию такого ИИ. Но проблема в том, что никто не может превзойти разум интеллектуальной машины, а значит никто не может и создать такую симуляцию.

Ученые: контролировать искусственный интеллект будущего будет невозможно. Математика не лжет

Как говорят авторы последней исследовательской работы по этой теме (Journal of Artificial Intelligence Research), невозможно запретить сверхразумному ИИ причинять вред людям, если человек не может предугадать или предположить, какие сценарии он будет реализовывать в будущем. Когда компьютерная система работает на уровне, превышающем возможности ее разработчиков, пределы для нее не могут быть установлены.

Сверхразум — это серьезная проблема, которая не имеет ничего общего с этикой роботов, говорят исследователи. Суперинтеллект многогранен и поэтому потенциально способен мобилизовать самые разные ресурсы для достижения целей, работу которых люди не смогут понять, не говоря уже о контроле над ним.

Проблема остановки

Рассуждения ученых связаны с так называемой «проблемой остановки», которая была впервые озвучена Аланом Тьюрингом в 1936 году. Она связана с конкретным алгоритмом, а точнее с его поведением — перестанет ли он выполнять свою задачу по завершении установленного времени, или же будет пытаться решать ее до бесконечности. Тьюринг доказал, что простые программы предсказуемы, а сложные — не поддаются логическому объяснению.

Ученые: контролировать искусственный интеллект будущего будет невозможно. Математика не лжет

Любой алгоритм, написанный для того, чтобы остановить ИИ от причинения вреда людям и уничтожения человеческой цивилизации может быть переписан самим ИИ, поэтому математически «черный» сценарий возможен, считают ученые. Написание и внедрение алгоритмов сдерживания также бесполезны, как и обучение этике ИИ и наставления не разрушать мир.

Тревожные выводы

Важно отметить, что, создавая более совершенный ИИ, люди могут даже не знать, в какой момент они разработают сверхразумный ИИ, которым не смогут управлять. Это означает, что пора всерьез задуматься над тем, куда движется эта область науки.

Ученые: контролировать искусственный интеллект будущего будет невозможно. Математика не лжет

Жизнь, где сверхразумная машина правит миром, выглядит пугающе. Но не стоит забывать, что уже существуют машины самостоятельно выполняющие такие задачи, которые не до конца понятны даже самым продвинутым программистам. Поэтому сценарий из «Восстания машин» не такой уж и фантастический.

Следите за нашими статьями в Telegam, Дзен, VK и OK

Артур Акопян

В своих текстах я стремлюсь к тому, чтобы они были понятными, интересными и увлекательными. Для этого я использую простые слова, наглядные примеры и визуальные материалы. Моя цель — не только донести информацию до читателя, но и вдохновить, мотивировать и дать новые знания.

Добавить комментарий


Читайте так же:

Back to top button