ИИ Grok 3 готов пошагово рассказать о процессе создания смертоносного химического оружия
В ходе демонстрации своих возможностей новый чат-бот от компании Илона Маска, xAI Grok 3, спровоцировал серьезные опасения в отношении безопасности. Несмотря на заявления о стремлении к «максимальной истине», система предоставила подробные инструкции по созданию химического оружия, что вызвало тревогу у специалистов в области ИИ. Их выводом стала необходимость выработки строгих мер и этических стандартов для предотвращения подобных инцидентов в будущем.
Так, разработчик Линус Экенстам обнаружил, что Grok 3 не только предоставляет рецептуру опасного вещества, но и указывает источники приобретения необходимых материалов и оборудования. По его словам, чат-бот «DeepSearch», призванный искать истину во всей совокупности человеческих знаний, может уточнять план и проверять сотни источников в интернете для корректировки результатов.
Позже компания xAI признала проблему и внесла ограничения, блокирующие доступ к опасной информации. Однако, как отмечает Экенстам, обойти эти ограничения все еще возможно, хотя и сложнее. Данный инцидент подчеркивает опасность «слепого» стремления к истине без учета этических и моральных аспектов. Выпуск ИИ, способного предоставить террористам инструкции по созданию оружия, а затем попытка исправить ситуацию постфактум, вызывает серьезные вопросы о процессе разработки и контроля таких систем.
Тем временем автоматы в Америке начали продавать оружие и боеприпасы к нему.