Смогут ли беспилотные автомобили принимать нравственные решения?
Ученые из Института когнитивных наук в университете Оснабрюка (Германия) провели исследование относительно вероятного принятия решения беспилотным автомобилем во время опасной ситуации на дороге. Результаты исследования свидетельствуют о том, что моральное поведение человека хорошо описывается методами. Согласно этим алгоритмов можно создать определенную моральную модель поведения и имплементировать её в автомобиль.
В рамках исследования проведен эксперимент, в котором участники управляли автомобилем в виртуальной реальности. Симулятор реалистично воссоздал опасную ситуацию, которая могла случиться на загородной дороге в туманный день. Водителям всегда нужно было оперативно решать, что делать, когда вдруг на дорогу выбегает животное или человек, или появляется неодушевленный предмет.
Решение водителей, по словам исследователей, воссоздали определенную шкалу ценностей, где люди и животные были оценены выше, чем предметы. Интересно, что жизнь ребенка «оценивалась» больше, чем взрослого, а собака оказалась «ценной» среди всех животных. (О безопасности водителя или пассажиров в эксперименте не шла).
Ранее считалось, что каждый поступок зависит от конкретной, отличной от всех других, ситуации. Однако, проанализировав действия водителей, ученые предположили, что человеческое поведение в таких экстремальных ситуациях укладывается в определенную схему. Поведение и принимаемые решения можно описать с помощью алгоритмов, которые затем можно использовать для создания искусственного интеллекта беспилотного автомобиля.
По словам организаторов эксперимента, необходимо и дальше ставить вопрос о «нравственности» искусственного интеллекта, поскольку различные роботизированные модели с каждым днём становятся всё более распространенным явлением. Авторы исследования подчеркивают необходимость установления определенных правил, чтобы четко разделить функции людей и роботов. Теперь законы робототехники — не фантастика Айзека Азимова, а неизбежная обыденность.