Резонансный инцидент в Румынии вновь поднял вопрос об этических дилеммах, стоящих перед создателями беспилотных автомобилей. Tesla Model S, уходя от наезда на упавшего пешехода, выехала на встречную полосу и столкнулась с другим автомобилем. Эта ситуация наглядно продемонстрировала, как искусственный интеллект вынужден делать моральный выбор: спасать жизнь одного человека ценой потенциальной опасности для других.
Беспилотные автомобили за последние годы стали участниками ряда резонансных происшествий. В 2018 году автономный автомобиль Uber насмерть сбил пешехода в США, в 2023 году беспилотное такси Cruise столкнулось с пожарной машиной в Сан-Франциско, а беспилотник Waymo стал причиной гибели собаки. Известны случаи, когда автопилот Tesla неверно интерпретировал дорожные знаки, что приводило к авариям.
«Большинство аварий с участием беспилотников происходят из-за технических сбоев или неправильного использования, а не из-за сложного этического выбора», — отмечают эксперты. Однако именно такие дилеммы вызывают наибольший общественный резонанс.
Философская дилемма на дороге
Румынский случай с Tesla иллюстрирует классическую «проблему вагонетки», сформулированную философом Филиппой Фут 57 лет назад. Этот мысленный эксперимент ставит вопрос: как поступить, если жертвы неизбежны? В автомобильной индустрии эту дилемму пытаются решить на практическом уровне.
С 2017 года целевая группа по этике Еврокомиссии разработала 20 этических рекомендаций для автопрома. Ученые из ассоциации IEEE Standards преобразуют эти принципы в программный код. Их подход основан на оценке и разделении рисков.
Исследователи из Технического университета Мюнхена создали открытый код для автопилотов, протестированный на 2000 возможных сценариях. Алгоритм взвешивает риски для каждого участника дорожного движения на основе коэффициента защищенности: при неизбежном столкновении больший удар должен приходиться на того, кто лучше защищен.
В румынском инциденте пешеход был самым уязвимым участником, поэтому автопилот принял решение спасти его, даже рискуя столкновением с другим автомобилем. Это указывает на то, что такие алгоритмы уже действуют на практике.
Вопрос ответственности
Не менее сложный вопрос — кто несет ответственность за аварии с участием беспилотников. Великобритания, планирующая с 2026 года интегрировать автономные автомобили в дорожное движение, возлагает ответственность за аварии в режиме автопилота на разработчиков программного обеспечения, а не на водителя.
Францию, Германию и Японию объединяет принцип презумпции невиновности водителя беспилотника, находившегося в момент ДТП в режиме автопилота. Причем, чем выше степень автоматизации транспорта, тем меньше ответственность водителя.
«Всеобъемлющее законодательство для автономных транспортных средств пока не разработано ни в одной стране мира», — подчеркивают эксперты. В некоторых случаях ответственность может возлагаться на производителей автомобилей, поставщиков оборудования или даже третьи стороны, например, дорожные службы.
В России виновным могут признать водителя, оператора ПО, владельца машины или специалиста по безопасности со стороны разработчика. Автопромышленное сообщество склоняется к тому, что каждая авария должна разбираться индивидуально с учетом страховых норм и законодательства страны.
Угрозы кибербезопасности
Отдельную проблему представляют риски взлома автономных систем. В 2019 году эксперты Regulus Cyber продемонстрировали, как можно взломать GPS-навигацию Tesla Model 3 и перенаправить автомобиль вопреки воле водителя. В начале 2024 года профессор из Университета Дьюка разработал технологию Mad Radar, способную манипулировать действиями беспилотника.
Исследователи Мичиганского университета на полигоне Mcity UM доказали, что 86% проведенных ими взломов в реальных условиях могли бы привести к столкновению автомобилей. Особое внимание специалисты уделяют риску утечки данных о владельцах беспилотников.
«Девять камер Tesla ведут съемку даже при выключенном двигателе и передают материалы сотрудникам корпорации», — отмечают исследователи. Хотя компания заявляет об анонимности этих данных, практика показывает обратное.
Автопроизводители сейчас стоят перед выбором: использовать автономные вычислители на борту, как в Tesla, или подключать все автомобили к единым базам данных через облачную инфраструктуру. Первый подход подвергает риску только отдельные автомобили, второй делает уязвимой всю систему, но позволяет быстрее устранять обнаруженные проблемы.
Рациональный подход вместо этических споров
Несмотря на множество сложных вопросов, включая взаимодействие с животными на дороге, экологические аспекты и социальные последствия для профессиональных водителей, автопроизводители подходят к проблемам рационально.
Статистика показывает, что беспилотные автомобили повышают безопасность дорожного движения. По данным Tesla, в третьем квартале 2024 года на 11,3 млн километров с функцией обновленного автопилота пришлась всего одна авария — это в 5,5 раза меньше, чем у водителей без компьютерных ассистентов.
Производители сходятся во мнении, что положительный эффект от распространения автономного транспорта существенно превышает возможные негативные последствия, а этические дилеммы решаются через прагматичный финансовый механизм и рациональную оценку рисков.