реклама
Бургер менюБургер меню

Гаспар Кёниг – Конец индивидуума. Путешествие философа в страну искусственного интеллекта (страница 58)

18

Закон же будет черпать легитимность в том, что определяет поле для маневра в моральном выборе. Например, можно будет, если уж на то пошло, выбирать между своей собственной смертью и смертью другого человека, как это происходит в нашем обществе 1.0, где мало кто из водителей добровольно бросится в кювет, чтобы избежать столкновения с пешеходом. Однако нельзя будет требовать от «первой директивы» разрешения умышленно их убивать. Хотя сегодня и кажется, что алгоритмы оставили далеко позади процесс коллективного урегулирования – «систему сдержек и противовесов», как его называет Гарри Клур, – в этом случае он возродится с новой силой. С одной стороны будут находиться ответственные индивиды, с другой – закон, который надо соблюдать, а между ними – свобода для действия в зависимости от моральных правил, которые каждый устанавливает для себя сам.

Та же самая логика может применяться и в случае медиков, которые бы заранее описывали свою концепцию оптимального лечения, позволяя ИИ комбинировать эту инструкцию с его собственным диагнозом. Когда речь идет о рынке труда, я мог бы четко определить свои предпочтения, прежде чем вручить судьбу алгоритмам ZipRecruiter. На сайтах знакомств все старались бы представить характеристики своего идеального партнера, пусть даже им не раз придется ошибаться. Мы бы вернули способность самостоятельно обдумывать свой выбор, взяв на себя всю ответственность и выразив нашу глубокую индивидуальность через концепцию «первой директивы». В этом случае процесс выработки решения, которым так дорожит Деннет, был бы соблюден. А затем мы позволили бы алгоритмам принимать за нас бытовые решения, возможно, менее эффективно, но с большим уважением к многообразию наших представлений о мире. Речь идет не о том, чтобы отказаться от вычислительной мощи ИИ, но о том, чтобы ее контролировать. Как Улисс, привязавший себя к мачте корабля, чтобы не поддаваться пению сирен, мы будем выполнять работу по делиберации, прежде чем пускаться в сотни ежедневных приключений. В какой-то мере речь о том, чтобы «предустановить» свободного волителя[196].

Разумеется, хитрость Улисса имеет смысл только тогда, когда он может себя отвязать. В «первую директиву» в любой момент можно будет внести изменения, но только при помощи подтвержденного действия ее автора, а не автоматически. Возьмем, например, выбор книг. Здесь следует избегать двух ловушек: с одной стороны, не стоит слепо следовать рекомендациям Amazon; с другой – нельзя довольствоваться лишь ограниченным выбором книг. Параметры, который я сам записал в «первой директиве», позволят мне следовать рекомендациям, сохраняя контроль над собственным вкусом. Поэтому их придется регулярно пересматривать, чтобы они не служили тормозом для моего личностного роста. Если однажды я проявил интерес к аналитической философии, у меня должна остаться возможность в любой момент дополнить его интересом к эротическим романам XVIII века. Однако ни в коем случае нельзя позволять машинному обучению Amazon производить эту модификацию за меня – если машина, например, заметит, что я зачастил на порносайты. Потому что я должен сам морально принять свой интерес к этому предмету (кстати, вполне простительный после перебора с философской литературой). Это условие, которое позволит мне избежать разбросанности «дивида», бездумно порхающего от одного наслаждения к другому, и сформироваться в качестве автономного индивида.

Идеал «первой директивы», таким образом, представляет собой триумф личного выбора над «коллективной полезностью», индивидуальной ответственности – над биохимическим фатализмом, Милля – над Бентамом. Это право на заблуждение, которое мы впишем в самое сердце ИИ.

В защиту права владения персональными данными

Остается узнать, какие инструменты нам нужны для введения в действие «первой директивы». Я бы довольствовался здесь простыми гипотезами: главное – утвердить на прочных философских основаниях ясное видение цели, которой нужно достичь. Специалисты по ИИ, вероятно, могут придумать другие решения.

Впрочем, есть вероятность, что технология сама принесет решение созданных ею проблем. Так, мы наблюдаем разработку методов машинного обучения, пытающихся ввести фактор серендипности. Значит, можно надеяться, что ИИ все-таки не обречен на утилитаризм. Это одно из направлений сегодняшних фундаментальных исследований. Кеннет Стенли, ученый, разоблачающий миф о целях и задачах, разработал процедуру «открытия нового», когда роботу дается единственная инструкция – попытаться произвести необычное действие, избегая любого целеполагания. Как ни удивительно, подобная инструкция может привести к появлению более эффективного поведения, чем в случае классического алгоритма, например при поиске выхода из лабиринта. Мало того, двуногий робот, отправленный искать новое, может в итоге сам научиться ходить! Менее радикальные методы «эволюционного обучения» нацелены на то, чтобы сохранить в новых поколениях алгоритмов 99 % самых эффективных черт предшествующих поколений, введя при этом 1 % произвольных характеристик[197]. Таким образом, как в биологической или социальной эволюции, улучшение может родиться из процесса, специально задуманного как неоптимальный.

Настоящим прорывом стало бы предоставление пользователю возможности самостоятельно воздействовать на параметры, управляющие ИИ. Когда я делюсь этой гипотезой с Александром Лебреном, бывшим руководителем исследований ИИ в Facebook Europe, он вспоминает «функцию оптимизации» – поставленную перед алгоритмом зашифрованную задачу по лучшему выполнению его миссии исходя из всех параметров, которые были ему заданы. Эта функция считается конфиденциальной: никто не знает, как регулируется алгоритм Google, чтобы максимизировать количество кликов, минимизируя при этом чувство дискомфорта. В свете «первой директивы» каждый сможет настраивать функцию оптимизации, чтобы персонализировать свой ИИ. Вот что позволило бы избавиться от утилитаристского императива, поскольку каждый пользователь устанавливал бы свои собственные нормы успеха – в логике Милля. Эта так называемая интерактивная форма машинного обучения, при которой человек возвращает себе контроль над установлением параметров машины, сегодня стала предметом многочисленных теоретических разработок[198]. Можно представить, что упрощенные интерфейсы помогут неофитам легко модифицировать функции оптимизации в алгоритмах[199]. Конечно, производительность таких персонализированных ИИ будет поначалу слабовата и они не всегда смогут отвечать всем требованиям пользователя, но со временем эта идея может привлечь сторонников, показав, что прогресс и оптимизация – разные вещи![200]

Поскольку речь идет о массовом применении, такие методы позволяют создавать системы рекомендаций, допускающие отклонения. В Нью-Йорке я встретился с Алексом Элиасом, основателем стартапа Qloo. Он ставит перед собой задачу скрестить индивидуальные предпочтения в разных областях: если вам нравится такая-то музыка или такой-то фильм, вы должны попробовать такой-то ресторан или пойти на свидание с таким-то человеком… Qloo мог бы стать Netflix для жизни, погружающим своих пользователей в тотальные рекомендации, от которых ничто не ускользает. В этом смысле стремление к «культурной персонализации» представляет собой именно то, что пугает меня в ИИ. Но Алекс – интеллектуал с Восточного побережья, любитель джаза, разбирающийся в достоинствах импровизации. Он знает, что поход в магазин пластинок открывает перед ним неожиданные перспективы, тогда как Spotify дает лишь ограниченный опыт. Проанализировав поиск в Qloo, он констатирует, что большинство американцев указывает в качестве любимой книги Библию, а в качестве любимого фильма – последний блокбастер… Оставленные на милость оптимизирующего алгоритма, они, вероятно, пойдут самым традиционным путем. Вот почему Алекс включил в программу Qloo то, что он называет «фактором диверсификации». С одной стороны, элемент случайности вводится в систему рекомендаций, чтобы устраивать сюрпризы и вызывать вопросы[201]. С другой – пользователь контролирует некоторое число критериев: это «первая директива» в действии! Чтобы пробудить задремавшее сознание, нужна случайность, а чтобы переориентировать алгоритм – наличие четко выраженного выбора.

Алекс признаёт, что предоставленная индивиду власть над собственными предпочтениями, как ни странно, делает Qloo менее эффективным и потому менее прибыльным. В конце концов, лаконично замечает он, «большинство людей хочет раствориться в массе». Но он хотя бы предлагает им альтернативу, утешая себя мыслью о том, что новые поколения будут чувствительнее к разнообразию. Кроме того, нужно рассчитывать на свободный рынок алгоритмов, чтобы вызвать к жизни проекты, более внимательные к свободному волителю, и надеяться на то, что они постепенно завоюют пользователей, привлеченных перспективой освобождения. А пока каждый может попытаться перехитрить машину. Например, пользуясь Google Map, я всегда отключаю геолокацию: извлекая пользу из расчета расстояний, я хочу сам определять улицы, чтобы понимать, куда еду, а не слепо следовать за синим шариком. В Deezer я стараюсь выбирать композиции из списка, критерии которого установил сам (например, «сонаты»), не полагаясь на рекомендации. Я сам отмечаю дни рождения своих (настоящих) друзей в ежедневнике и не жду, пока мне напомнит о них LinkedIn. А еще я ухожу с ютуба, когда заканчивается видео, которое я выбрал, хотя сделать это непросто – ведь так легко и приятно отдаваться потоку образов…