реклама
Бургер менюБургер меню

Гаспар Кёниг – Конец индивидуума. Путешествие философа в страну искусственного интеллекта (страница 55)

18

Свобода воли не дается нам от рождения: нет никакой феи, которая склонилась бы над колыбелью человечества. Вопреки неудачной формулировке нашей «Декларации о правах человека», мы не «рождаемся свободными». Зато мы можем взращивать и поддерживать в себе свободного волителя. Это ключ к нашей ответственности, он не дан нам (биологически), не предполагается (интеллектуально), а медленно вырабатывается. Чем сложнее траектории принятия нами решения, тем сильнее мобилизуется способность к рефлексии, тем больше наше действие, даже самое незначительное, отражает то, кем мы являемся. Но чем менее осознанно мы принимаем решения, тем хуже себя контролируем. Деннет справедливо говорит о «моральном образовании», которое помогло бы нам выбирать соображения, участвующие в наших процессах принятия решения. Оно вполне органично вписывается в гуманистическую традицию. Подобно тому как Эразм Роттердамский возражал против «рабства воли» Лютера, сегодняшние гуманисты могут апеллировать к нейронаукам, чтобы доказать возможность личного суждения. Только так мы сможем в итоге разглядеть человека, погребенного под массивами данных, заставив ИИ служить нам.

Такая концепция имеет свои политические последствия. Роль хорошего управления будет заключаться в том, чтобы способствовать этому моральному образованию, развивающему автономию при принятии решения. Именно это особым образом отражается на других теориях политического действия, используемых в этих дебатах. Режим свободы воли предполагает, что мы взрослые и ответственные люди: это свободный рынок, как он понимается Чикагской школой. В теории nudge мы мечемся туда-сюда под воздействием когнитивных предубеждений: это либертарианский патернализм поведенческой экономики. Но в моей гипотезе свободного волителя мы можем постепенно накапливать средства для освобождения, независимо от биохимического детерминизма и даже благодаря ему. Вспомним Лейбница: «Связь причин со следствиями, не будучи причиной суровой необходимости, скорее доставляет средство к ее уничтожению». Именно за счет того, что я пропускаю часть моих предварительных решений через бессознательное нейронных путей, создавая тем самым, если так можно выразиться, собственные когнитивные предубеждения, я могу укрепить свою способность суждения. Можно вообразить целый ряд инструментов публичной политики, которые способствовали бы человеку в его размышлении при принятии решения, не оказывая при этом влияния на его результат и не давая ему оценки[189].

Это не индивид проявляет загадочную свободу воли как суверенный акт (позиция, невозможная с точки зрения современных нейронаук), а свободный волитель, нашедший выражение в делиберации, мало-помалу формирует индивида во всей его оригинальности. Вот почему так важно не передавать эту способность машине! Итак, мы снова вернулись к ИИ. В решении важен не столько результат, сколько процесс, постепенно структурирующий нашу личность. Чтобы не стать «дивидом» в эпоху алгоритмов, чтобы генерировать отклонения, которые являются условием биологической и социальной эволюции, недостаточно совершать «беспричинные поступки», столь эфемерные, сколь и поверхностные. Нужно брать на себя глубинный и сознательный выбор, возможно, не очень эффективный с точки зрения полезности, но без которого невозможно сформировать индивидуальность. При этом мы не идем против себя: мы, наоборот, становимся собой. Деннет говорит о способности противостоять манипуляциям как следствии «моральной ответственности», связанной с делиберацией. Сегодня эта способность играет ключевую роль в сопротивлении комфорту рекомендаций. Я отказываюсь от этой книги, подсказанной мне Amazon, не потому что она мне не нравится или не будет мне полезна, а потому что я – это я. Эта рефлексивная гордость тесным образом связана с волей к автономии. Если Харари объясняет, что ИИ знает нас лучше, чем мы сами, и что за отсутствием свободы воли лучше передоверить решения ему, я, наоборот, считаю, что ИИ мешает нам стать самими собой и сформировать в себе свободного волителя в ходе самого процесса принятия решений. Если Харари кичится тем, что отказывается от индивида и уничтожает «Я» при помощи медитации, то я предлагаю заново утвердить уникальную сущность, каковой мы являемся, или, по крайней мере, дать ей возможность появиться на свет. Если не ради нас самих, то хотя бы ради прогресса нашего биологического вида. Мы видим, как эти почти метафизические соображения могут послужить руководством для наших отношений с технологией.

Вот два примера. Первый – анекдотический: Google Maps. Вы можете принять nudge и позволить вести вас, даже не понимая, где идете, и рискуя тем, что некоторые зоны вашего мозга могут атрофироваться[190]: количество полезности в мире от вашего послушания возрастет. Вы также можете решить свернуть наобум, психанув из-за пробок. Скорее всего, вы окажетесь в еще худшей пробке – и чего вы этим добились, кроме иллюзии свободы воли? Наконец, вы можете предпочесть стать свободным волителем, попытавшись переиграть Google Maps (даже если создадите при этом дополнительные затруднения, но ведь эгоизм, в конце концов, может быть вполне сознательным жизненным выбором) или составив подходящий маршрут при помощи критериев, внеположных алгоритму Google Maps. Эти критерии будут отражать личные предпочтения, накопленные в течение некоторого времени: например, если вас зовут Ван Гог, то вы любите ездить вдоль полей подсолнухов. Конечно, эти критерии тоже могут быть интегрированы в более изощренный навигационный ИИ, который будет вас изучать. Но это означало бы перепутать яд с лекарством: такой ИИ прежде всего помешает вам сформировать эту страсть к полям подсолнухов – она окажется столь редкой, что исчезнет из статистических моделей. Вот и весь Ван Гог…

Такие же рассуждения применимы к более важной области – любви. Читатель, возможно, видел эпизод сериала «Черное зеркало» под названием «Повесить диджея», в котором ИИ при помощи симуляций перебирает все возможные варианты любовных отношений, чтобы свести пользователя с лучшим из возможных партнеров. В мире nudge мы будем блаженно ложиться в постель с родственной душой без каких бы то ни было ухаживаний и соблазнений (это было бы идеалом хозяина Baihe, китайского дейтинг-сервиса). Противник системы откажется от ее предложения и женится на первой встречной, рискуя тут же развестись. Что сделает свободный волитель? Он захочет сам пройти через все этапы, которые так любезно моделирует ИИ. Свободный волитель знает, что процесс важнее результата. Томиться, разрывать отношения, возвращаться… Соблазнять, плакать, играть… Любить не набор данных, а человека из плоти и крови. Не из романтизма, но для того, чтобы построить свои собственные отношения, плод тысяч размышлений и эмоций, постепенно вписывающихся в наши траектории принятия решений.

Современный эквивалент «судьбы по-турецки», над которой иронизировал Лейбниц, – позволить ИИ и рекомендациям полностью управлять нашей жизнью под предлогом того, что, как и Бог когда-то, алгоритмы могут выбрать лучший из возможных миров. Мы должны использовать способность суждения, чтобы быть достойными нашей «монадности» и постепенно прийти к автономии. От механического турка, который в начале этой книги показал нам тот человеческий труд, который скрывается за ИИ, до «судьбы по-турецки», показывающей, что надо бороться с манипуляциями: турки нам очень пригодились!

Что касается политической философии, стремление к автономии лежит в основе критики Джоном Стюартом Миллем Иеремии Бентама, влияние которого на дух Кремниевой долины мы имели случай наблюдать. В своей книге об утилитаризме Милль на первых же страницах предлагает провести качественное различие между удовольствиями, чтобы избавиться от бентамовской модели, в которой польза подсчитывается одинаково для всех. Действительно, к счастью можно стремиться разными способами, ставя перед собой разные цели, – эти стремления, идущие наугад, глубоко частные, их нельзя свести к общей норме. В конечном итоге это личное счастье определяет индивидуальную мораль. Система ценностей возникает не только из обучения в социуме, но и из применения способности суждения. В своем эссе о Джоне Стюарте Милле Исайя Берлин интерпретирует этот вариант утилитаризма как появление «права на заблуждение»[191], следствие способности каждого искать, улучшать и трансформировать себя. Это «право на заблуждение» в контексте ИИ представляет собой право уйти из социальных сетей, право не следовать рекомендациям, отказаться от уведомлений – одним словом, право не подчиняться общим определениям пользы и идти собственным путем, в том числе наперекор самому себе. В этом заключается глубокий смысл так называемой privacy, предмета стольких споров: не защищать индивида от взгляда других (в конце концов, в большинстве случаев данные анонимизированы и обрабатываются слепыми алгоритмами), но позволить ему сформироваться за пределами сети, не подвергаясь воздействию nudge. Надо признать, что право на заблуждение производит негативные эффекты для коллектива в краткосрочной перспективе, хотя и является условием любого будущего прогресса. Никто не знает, к чему приведет отклонение, и никто не может брать на себя риск его искоренения.