Гаспар Кёниг – Конец индивидуума. Путешествие философа в страну искусственного интеллекта (страница 57)
– Эффективен ли, несмотря ни на что, такой полицейский надзор? – имел несчастье спросить я.
Я не добился встречи в самом LAPD – департамент коммуникации (неудачное название) принудил к молчанию офицера, который был готов со мной пообщаться. Поэтому мне пришлось стать адвокатом дьявола. Это не понравилось Дженни. Она строго напомнила мне, что их проект ставит «аболиционистскую» цель, а именно уничтожение полиции. Воспользовавшись этим напряженным моментом, Акил взялся излагать планетарные перспективы деятельности Коалиции, втирая мне про французский Алжир и судьбу Палестины. Я потерялся в этом концептуальном винегрете из борьбы со структурным расизмом, господством белой расы, неоколониализмом, эхом 11 сентября и пособничеством академиков. Питер, молодой компьютерщик, бросивший профессию, чтобы стать активистом по борьбе со слежкой, заявил, что ИИ – угнетатель по самой своей природе, потому что сбор данных вводит асимметрию в отношения со властью. А кстати, разве не военные придумали ИИ?
Я почти три часа просидел в этой тесной комнате, где кипели умы. Эти туманные теории заговора в конце концов привели к неразличимости между американским правовым государством со всеми его недостатками и худшими диктатурами. В частности, я сделал вывод, что сопротивление надзору и
Воля к отключению от сети – форма современного отшельничества, привлекающая несогласных самого радикального толка. Сколь бы здравой она ни была с индивидуальной точки зрения, ей никогда не стать моделью общества.
Поэтому нужно искать пути примирения свободного волителя и ИИ, а именно способы усиления первого за счет второго. В теоретическом плане правильный путь мне указала встреча с Матье Рикаром. Буддистский монах, практикующий медитацию, специалист в области молекулярной генетики, хорошо осведомленный о современных нейроисследованиях, Рикар показался мне идеальным собеседником. Я не остался разочарован: наша беседа в осеннем тумане в замке в Бордо, хотя и была очень короткой, дала мне ключ к тому, что я искал вот уже несколько месяцев. Его концепция ответственности близка к представлениям Деннета: главная особенность свободного действия не в том, что оно порывает с порядком вещей, а в том, что к нему приводит непрерывность нашей личной истории. «Мгновенный, автоматический выбор – результат целой жизни с принятыми в ней решениями», – говорит Рикар. Неважно, что, когда мы решаем броситься в море, чтобы спасти тонущего ребенка, на нас воздействуют биохимические механизмы нашего мозга. Неважно, что наше решение оформляется в сознании через доли секунды после его принятия: к такому результату приводит вся совокупность миллионов осознанных решений, принятых в течение нашей жизни. Эти осознанные решения и отражают нашу истинную личность. Именно потому, что однажды я принял сознательное решение помочь слепому в метро, или потому, что ночи напролет ухаживал за больным ребенком, много лет спустя я смог прыгнуть в воду не раздумывая. Как пишет Матье Рикар: «Спонтанная, инстинктивная мораль – проявление самых глубоких наших достоинств или недостатков»[194]. Эта мораль, далекая от простого рационального или эмоционального расчета, вырабатывается и тренируется, как мускул.
Когда речь заходит об ИИ, Матье Рикар не видит никаких проблем в том, чтобы поручить машине принятие решений в повседневной жизни на основе нашего собственного глубокого выбора. Он не против того, чтобы ему в мозг вживили Википедию, если это позволит ему быстрее получать доступ к знаниям. Он принимает
Вот что радикально меняет термины дискуссии. Уже не
Именно на этот вопрос пытается ответить Гарри Клур, появившись в затерянном кафе в пригороде Редвуд-сити, между железнодорожным переездом и шиномонтажом. У него в руках чемоданчик, которым он размахивает. Со своей взлохмаченной кудрявой гривой, широкими плечами и восторженностью энтузиаста Клур похож на золотоискателя, только что набредшего на жилу. Он перепробовал все профессии, которые изобрела Калифорния: предприниматель, изобретатель, сценарист, режиссер… Клур, имеющий хорошие связи как с Фондом X Prize, так и с голливудскими продюсерами, не сидит на месте и носится по всему кафе.
На первый взгляд трудно представить себе персонажа, более непохожего на Матье Рикара. Однако с буддийским монахом его роднит солидное научное образование: он первым в мире одновременно защитил две диссертации – первую по физике, а вторую по химии. Наш разговор меня удивил. Оправившись от шока из-за падения акций Facebook на бирже (заголовок в газете, которую он держит в руках), Гарри заговаривает более спокойным тоном. Речь не о том, чтобы изменить мир или отправить наши аватары на Марс. Наоборот, в его словах я нахожу немало моих собственных выводов об ИИ. Нет, не надо бояться сильного ИИ, или сверхинтеллекта, вслед за Илоном Маском – этим большим ребенком, путающим кино с реальностью. Нет, ИИ по природе неспособен к концептуализации, тогда как дошкольник может перенести идею «мытья» с чайной чашки на машину. Да, ИИ воспроизводит результаты человеческого мышления, но не сам процесс. Да, ИИ создает угрозу для свободы воли, управляя нашим выбором, от маршрута поездки на автомобиле до профессиональной жизни. Гарри Клур опасается последствий, которые будет иметь эта когнитивная лень для всего человечества. Когда я говорю ему о делёзовском принципе ризомы, он тут же отвечает: «Это же сорняки, их нужно выполоть». Только деревья с глубокой корневой системой способны принимать решения.
Я поддакиваю, удивленный подобным родством душ. Мы даже планируем вместе написать статью о свободе воли в век машинного обучения. Но, помимо констатации фактов, Гарри еще предлагает решение, которое он назвал «первой директивой», по мотивам «Стартрека». Нужно заметить, что в конце 1990‐х Гарри написал сценарий шести эпизодов этого культового научно-фантастического сериала, что дает ему некоторое право использовать его язык.
Чтобы вернуть смысл ИИ, каждый должен был бы сформулировать собственную «первую директиву», заранее решив, какие нормы он хочет вменить алгоритмам, которые им управляют. Иначе говоря, надо иметь возможность применить свою моральную прерогативу, заранее определив приемлемый для себя
Тотчас же исчезнет бо́льшая часть этических вопросов, встающих в связи с ИИ, которые казались неразрешимыми: дело в том, что они воспринимались как всеобщие, а их следует ставить перед каждым конкретным индивидом. Вернемся к примеру с беспилотными автомобилями, которые якобы должны «сами» выбирать, кем пожертвовать – водителем или пешеходом. Каждый при помощи персональной «первой директивы» мог бы проинформировать автопроизводителя о своем выборе. Эти фундаментальные параметры, прописанные ясно и добровольно, не смогут модифицироваться в процессе машинного обучения, даже если создают неоптимальные ситуации для самого человека или для всей группы. Общество научится, как всегда и происходило, учитывать ограничивающий фактор, каким является существование различных индивидов, более или менее доброжелательных, более или менее альтруистичных. Тогда человек будет принимать на себя моральные последствия своего выбора, будет жить с сознанием того, что он сбил или может сбить пешехода. В этом случае больше не понадобится признавать роботов юридическим лицом: ответственность за их действия естественным образом будет возлагаться на того, кто составил и подписал «первую директиву».