Ровно сто лет назад, 25 января 1921 года, в Национальном Театре в Праге состоялась премьера R.U.R. Карела Чапека — пьесы, где впервые было использовано слово «робот», и которую до сих пор переснимают с огромным успехом в разных вариантах.
Сюжет пьесы настолько банален, что в нём нет ничего необычного, кроме того, что он оригинал, а всё остальное — перепевки. Подумайте сами — завод по производству андроидов-репликантов, которые взбунтовались и уничтожают человечество. Знакомая ситуация?
Blade Runner? Westworld? О, кстати прикольно — и там и там надо смотреть оригинал. О, ещё прикол — оригинальный Westworld очень напоминает Deliverance, а если вы по какой-то досадной причине не смотрели этот фильм, то это очень, очень большой пробел. Наберите в ютюбе «Deliverance banjo duet» и посмотрите на самую крутую музыкальную сцену в истории человеческого синематографа. Да и весь этот фильм ооооооо аааааааа уууууууууу!
Вернёмся, однако, к роботам и трём изначальным законам робототехники (четвёртый уж слишком мудрён). Айзек Азимов, написавший такой учебник по химии, что я его читал с интересом, говорил, что знает двух человек умнее его — Карл Саган и Марвин Мински.
Воистину, нет и не было человека, который мог бы объяснить за космос лучше, чем Саган — и вот этот вот ваш Нил Деграсс Тайсон, с которым я как-то матерно рамсил на парковке в Сан Франциско, смешон и жалок на фоне настоящего монстра, как Чубайс на фоне Киссинджера, которых я видел на одной сцене лет 15 назад на банкирской сходке в Москве.
Кстати, Марвин Мински, создавший первую в мире Robotics/AI лабу в MIT, звал Азимова к себе посмотреть на настоящих роботов, и не понимал, почему же тот никак не приходит. И только потом фантаст ему объяснил, что боится увидеть каличных недороботов в лаборатории и сильно обломаться — потом будет трудно писать книги про крутых роботов.
Вернёмся к трём законам. Мы все их знаем с детства.
1.Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2.Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат первому закону.
3.Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит первому или второму законам.
А теперь объясните мне, чем они отличаются от законов человеческих? Только у людей третий закон на первом месте, вот и всё. И в принципе это охватывает все законы, которые люди написали от Хаммурапи и до наших дней.
Я с детства мечтал — и до сих пор мечтаю — писать законы для роботов. Это, пожалуй, единственное, что меня грызёт по-настоящему, когда я думаю о несостоявшейся профессиональной реализации. И самое интересное — это не сами законы, а как прописать то, как и когда их можно и нужно нарушать.
Два примера, о которых я писал неоднократно, поясняют эту самую тяжёлую задачу AI/роботики. Это, кстати, не фальшивая hard problem of consciousness — Марвина Мински надо слушать, он ответил на этот вопрос лет 40 назад, но кто же будет слушать…
1. Все люди постоянно совершают преступления. Одно из самых распространённых — мошенничество, которое определяется как «ложь с целью выгоды». Выгода может быть любая — деньги, секс, статус, внимание, положительное освещение перед выборами или отсутствие необходимости объясняться на неприятную тему.
У любой лжи есть выгода. Комплимент, ответ «всё хорошо» на вопрос какдела, приукрашенное резюме или «я занят делом» когда решаешь кроссворды — это по уголовному кодексу мошенничество. Весь вопрос в том, на каком уровне мы применяем уголовное право к уголовным преступлениям, где начинается enforcement?
2. Знак СТОП. Вы едете по улице, перед вами заезд на главную дорогу и знак стоп. Надо пропустить тех, кто едет по главной дороге — но они едут сплошным потоком, и если вы будете соблюдать правила дорожного движения, вы будете стоять там до 12 часов ночи, пока не рассосётся.
Неужели только мне знакома ситуация, когда выезжаешь под стоп и никто не собирается тебя пропускать, потому что всё торопятся и никто добровольно не отдаст своего места, как в очереди за югославскими колготками на Литейном, которую надо было занимать в 6 утра?
И вот когда я практически иду на таран, и та смазливая блондинка на белом джипе с типичным для блондинки на джипе надменным выражением наглой морды вынуждена остановиться и пропустить меня только потому, что разъёбанной Тойоте Королла 2007 года, из которой несётся громкая песня Гражданской Обороны, не хватает только нарисованных значков мерседесов на бортах, как сбитых мессешмитов на самолёте.
И если я не продемонстрирую готовности идти на таран и «будь что будет но ты сука поперёд меня не проедешь» — стоять мне там и стоять под какофонию, которая не тот прекрасный проект Марти Фридмана с Джейсоном Беккером, а яростные гудки сзади.
А теперь представьте себе — вежливый робот стоит и не нарушает. И стоит. И стоит. И будет стоять так вечно, ибо закон нарушать нельзя.
Меня поражает, что именно эта проблема роботов-автомобилей, самая сложная, вообще не поднимается нигде. Ясное дело, что системы допилят до более безопасного, чем человеческое, вождения в ближайшие пару лет — Тесла уже доехала из Сан Франциско до Лос Анджелеса на чистом автомате. Но почему никто не говорит о том, как они решат эту проблему?
Ибо самая большая проблема роботов, как, впрочем, и людей — это вопрос, который мучает всех юристов всех времён и народов. Где грань между нарушением, которое можно, и тем, которое нельзя?
'О главной сложности закона, или 100 лет роботам' Комментариев пока нет
Будьте первым комментатором!