Моральные принципы искусственного интеллекта – это один из наиболее острых вопросов, ставших актуальными с наступлением эпохи беспилотных автомобилей. Пока разработчики роботизированных систем определяются со своими моральными приоритетами, некоторые эксперты не уверены, стоит ли вообще включать нравственные ценности в «поведение» машин.
Тема морального выбора у автопилота стоит сегодня остро, при этом достичь консенсуса в этом вопросе пока нереально. Известный психолог Бонефон и его коллеги по цеху утверждают, что человечество в целом готово поддержать идею, когда в экстремальной ситуации автомобиль должен жертвовать водителем, чтобы спасти большее количество пешеходов.
Но в то же время люди хотят купить машину, которая будет защищать их любой ценой, даже ценой жизни других людей. Поэтому если будет выбор: автомобиль, в приоритете которого самозащита пассажиров, или машина, которая пожертвует пассажирами на благо большинства, покупатель отдаст предпочтение первому.
Научить интеллектуальные машины принимать правильные с точки зрения этики и морали решения – фундаментальная задача, которая стоит перед разработчиками программного обеспечения для беспилотников. Сотрудники технологического института Массачусетса провели исследование, в котором решили выяснить – как робомобиль должен выбирать между жизнью и смертью, и при этом основываться на принципах человечности.
Чтобы понять модель поведения людей в экстренной ситуации, ученые разработали специальный тест, в котором пользователям предложили ответить на 13 вопросов. Например:
Возраст, пол, статус пассажиров и пешеходов в каждом тесте различаются. При этом в некоторых тестовых заданиях присутствуют животные, которые тоже приравниваются к потенциальным жертвам. Также участникам опроса предлагалось оценить «ценность» каждого персонажа в тестах: мужчина – женщина, старый – молодой, преступник – врач, нарушитель правил ДД – примерный участник движения и т.д.
Респонденты могут предлагать собственные этические задачи такого же плана, как в тесте, и просматривать вопросы, которые задавали другие пользователи. Ответы реальных людей позволят понять этическую оценку того или иного действия беспилотного авто. В будущем это поможет смоделировать адекватное поведение искусственного интеллекта, который будет управлять транспортным средством.
Многие эксперты уверены в том, что дилемму «бабушка или ребенок» должны решать не автопроизводители, а законодатели. Сегодня действуют строгие правила по длине тормозного пути, управлению рулем и т.д., такие же правила должны разрабатываться и для беспилотных технологий. Идеальный вариант – ПДД должны стать универсальными для каждой страны мира.
Сегодня в алгоритм управления автопилота закладываются действующие ПДД. В случае опасности машина должна тормозить – это запрограммировано в современных системах автопилота. Например, запрещено выезжать на встречку при любых обстоятельствах. А значит объезжать выбежавшую на дорогу собаку беспилотник не будет, ведь так существует большая вероятность, что он врежется в автобус и убьет десятки людей.
Сегодня если водитель сойдет со своей полосы и собьет одного старика, чтобы спасти двоих детей, по закону он будет виноват на 100%. Хотя с точки зрения человеческой морали он прав. В будущем все может измениться, ведь в начале ХХ века, когда появились первые автомобили, не было никаких ПДД. И только когда количество машин выросло, законникам пришлось регламентировать их движение. В эру беспилотного транспорта, когда в авариях ежегодно будет гибнуть не 50 тысяч, а только 10, люди придумают, как избежать и этих жертв.
Сегодня активисты и юристы требуют от производителей полной прозрачности – покупатели должны знать, кого будет «убивать» искусственный интеллект в случае критической ситуации. Некоторые автокомпании, например, Audi и Volvo, уже приняли на себя всю ответственность за трагические ДТП на дорогах с участием их беспилотников. Однако при этом они не спешат разглашать, какой алгоритм действий заложен в программу робомобиля и кого он защитит в первую очередь – своих пассажиров или пешеходов.
Решение моральной дилеммы должно выйти на уровень гос регулирования. Правительства стран обязаны определить правила и этические нормы для производителей беспилотных систем. А автоконцерны в свою очередь должны проинформировать покупателей, чья жизнь будет в приоритете у автопилота.
Нравственную дилемму: кого определять в жертвы - пешеходов или пассажиров, разработчики беспилотных автомобилей Mercedes для себя уже решили. В случае критической ситуации робомобиль будет спасать тех, кто находится у него в салоне. Автоконцерн на первое место поставил пассажиров.
«Если принести в жертву автомобиль и пассажиров, это не гарантирует 100% безопасность пешеходов» - заявили в руководстве компании. Например, если беспилотник в попытке объехать человека, выбежавшего на дорогу, в итоге врежется в дерево, никто не дает гарантию, что упавшее дерево не убьет другого пешехода. Или если при попытке избежать наезда на ребенка робокар врежется в школьный автобус.
Поскольку искусственный интеллект не может самостоятельно принимать решения по обстоятельствам, все его действия определяются программой. А она в будущих беспилотниках-Мерседесах 4-го и 5-го уровней автоматизации будет направлена на максимальную защиту пассажиров. С позиции производителя все логично – пользователи гораздо охотнее купят роботизированный автомобиль, если в приоритете у компьютера будет их личная безопасность. Как говорится, своя рубашка ближе к телу.
Принятие такого решения многие эксперты считают по-настоящему отважным шагом, ведь сегодня мораль и этика в области беспилотных транспортных средств находится на стадии начального развития. Осенью 2017 года в США был принят первый в истории закон, в котором прописываются 15 требований к беспилотникам. Одним из них является способность робота определять этические последствия своих действий. Производители могут самостоятельно решать, кого будет защищать робомобиль в первую очередь, однако это решение должно быть проконтролировано соответствующими органами.