Правило роботехники №1, разработанное американским писателем фантастом Айзеком Азимовым, гласит: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред». Но реализация этого правила беспилотными автомобилями сталкивается в настоящее время с существенными сложностями.
Массачусетский технологический институт (Massachusetts Institute of Technology, MIT) провёл исследование Moral Machine, результаты которого были опубликованы в авторитетном научном журнале Nature. В рамках исследования, 2,3 млн человек из 233 стран, в том числе из России, должны были ответить на вопрос: чью жизнь должен спасать искусственный интеллект беспилотного автомобиля — пассажира или пешехода, переходящего дорогу? По условиям эксперимента, беспилотник мог оставить в живых только одного — пассажира или пешехода. При этом опрашиваемые выбирали за робота «жертв» из женщин и мужчин, детей и взрослых, стройных и полных, а также между людьми и животными. Жители южных стран Центральной, Южной Америки и Франции пожалели женщин, детей, спортивных людей и людей состоятельных. Жители большинства европейских стран не видели особой разницы между категориями жертв.
Жители большинства азиатских стран больше жалели пешеходов, чем пассажиров. При этом японцы и жители Финляндии предпочитали задавить пешехода. Колумбийцы ценили жизнь богатых больше, чем бедных. Жители Финляндии не видели разницы между бедным и богатым. Таким образом, исследователи выяснили, что моральные и этические принципы, которые можно было бы запрограммировать для беспилотных автомобилей, зависят от национальности, что в общем можно было предположить и до эксперимента. Но также можно предположить, что какими бы ни были результаты эксперимента, можно точно сказать, что ни одна из категорий людей не согласится быть «приоритетной жертвой» для беспилотного автомобиля. В Германии, где от экспериментов перешли к практике, специальная комиссия по этике беспилотного вождения министерства транспорта Германии представила отчёт, в котором говорится о недопустимости выбора потенциальной жертвы ни по каким особенностям. В этом русле наверняка будет развиваться «беспилотная этика» во всех странах мира.
Программисты-убийцы
В ДТП с участием искусственного интеллекта пострадавших людей будет в любом случае меньше, чем в ДТП, спровоцированных людьми. В этом контексте комментаторы и исследователи ошибаются, когда говорят, что искусственный интеллект решает ту же задачу, что и водитель, который выбирает погибнуть самому, убить пешехода или выбрать, кого из пешеходов убить.
Водитель-человек в критической ситуации, особенно на высокой скорости, ничего не выбирает, не анализирует, а действует рефлекторно в буквальном смысле, это доказано многочисленными исследованиями. Искусственный интеллект, который оснащён высокочувствительными сенсорами, обладает гораздо более быстрой реакцией и аналитическими возможностями, чем человек.
Но более важная причина, почему при использовании беспилотников будет меньше жертв, заключается в том, что разработчики не выпустят беспилотные автомобили на дороги до тех пор, пока не будут уверены в том, что, им, разработчикам, не грозит ответственность за то, что натворит беспилотный автомобиль. Так что на самом деле, драйвером формулировки этических принципов беспилотников является не вопрос о том, кого может или не может убить робот, а именно вопрос юридической ответственности за последствия ДТП. И в конечном итоге параметры реакции беспилотника на дорожные ситуации разрабатывает специалист-человек или коллектив специалистов. Они и несут ответственность за все последствия ДТП.
Техника вместо этики
Законы роботехники, разработанные Айзеком Азимовым, многими были восприняты как идеал этики роботов. Но почти сразу же появились сомнения, что их удастся реализовать на практике.
Против этого будут, например, военные, которые инвестируют огромные средства в разработку боевых роботов и искусственного интеллекта, нацеленного на военные цели.
Терминатор, как мы помним, не был отягощен проблемой допустимостиилинедопустимостиубийства человека, его могли запрограммировать на убийство Джона Конора, а могли и на защиту Джона Конора. И хотя Терминатор вымышленный кибернетический организм, но суть проблемы «этики роботов» он показывает очень хорошо. Именно для беспилотного автомобиля Закон №1 будет актуален. Никакого выбора жертв у автомобиля не будет. Наносить ущерб людям ему будет просто запрещено, в любом случае. Эксперимент «кого давить роботу» скорее всего останется в истории научным курьёзом, как и вопрос об этике беспилотных автомобилей.
Вместо этики будет разработана — и уже разрабатывается — инфраструктура, в которой люди будут полностью защищены от беспилотных автомобилей. Это касается не только технического оснащения беспилотных машин, но и систем коммуникации автомобилей между собой в потоке, систем, связывающих автомобиль и дорожные объекты — все то, что делает среду «обитания» автомобиля полностью предсказуемой и регулируемой. Пока такой инфраструктуры нет, и этика ее не заменит, потому что обычные дороги представляют собой такую систему, в которой случайности неизбежны, и никакой самый развитый робот не сможет предотвратить ДТП или вовремя отреагировать на поведение людей, никакая программа не сможет полностью просчитать поведение людей. Некоторые люди и сами не знают, как они себя будут вести в следующую секунду.
Что делает их потенциальными жертвами слишком самостоятельных машин. Но случайностей не избежать и в самой запрограммированной дорожной инфраструктуре, поэтому появление законов сосуществования человека и беспилотных автомобилей неизбежно. Сейчас этим активно занимаются в США. Здесь принят законопроект «Safely Ensuring Lives Future Deployment and Research In Vehicle Evolution Act», который будет утверждаться Сенатом. В документе как раз идёт речь об ответственности всех участников дорожного движения — и гуманоидов и киборгов.