Гаспар Кёниг – Конец индивидуума. Путешествие философа в страну искусственного интеллекта (страница 55)
Свобода воли не дается нам от рождения: нет никакой феи, которая склонилась бы над колыбелью человечества. Вопреки неудачной формулировке нашей «Декларации о правах человека», мы не «рождаемся свободными». Зато мы можем взращивать и поддерживать в себе свободного волителя. Это ключ к нашей ответственности, он не дан нам (биологически), не предполагается (интеллектуально), а медленно вырабатывается. Чем сложнее траектории принятия нами решения, тем сильнее мобилизуется способность к рефлексии, тем больше наше действие, даже самое незначительное, отражает то, кем мы являемся. Но чем менее осознанно мы принимаем решения, тем хуже себя контролируем. Деннет справедливо говорит о «моральном образовании», которое помогло бы нам выбирать соображения, участвующие в наших процессах принятия решения. Оно вполне органично вписывается в гуманистическую традицию. Подобно тому как Эразм Роттердамский возражал против «рабства воли» Лютера, сегодняшние гуманисты могут апеллировать к нейронаукам, чтобы доказать возможность личного суждения. Только так мы сможем в итоге разглядеть человека, погребенного под массивами данных, заставив ИИ служить нам.
Такая концепция имеет свои политические последствия. Роль хорошего управления будет заключаться в том, чтобы способствовать этому моральному образованию, развивающему автономию при принятии решения. Именно это особым образом отражается на других теориях политического действия, используемых в этих дебатах. Режим свободы воли предполагает, что мы взрослые и ответственные люди: это свободный рынок, как он понимается Чикагской школой. В теории
Это не индивид проявляет загадочную свободу воли как суверенный акт (позиция, невозможная с точки зрения современных нейронаук), а свободный волитель, нашедший выражение в делиберации, мало-помалу формирует индивида во всей его оригинальности. Вот почему так важно не передавать эту способность машине! Итак, мы снова вернулись к ИИ. В решении важен не столько результат, сколько процесс, постепенно структурирующий нашу личность. Чтобы не стать «дивидом» в эпоху алгоритмов, чтобы генерировать отклонения, которые являются условием биологической и социальной эволюции, недостаточно совершать «беспричинные поступки», столь эфемерные, сколь и поверхностные. Нужно брать на себя глубинный и сознательный выбор, возможно, не очень эффективный с точки зрения полезности, но без которого невозможно сформировать индивидуальность. При этом мы не идем против себя: мы, наоборот, становимся собой. Деннет говорит о способности противостоять манипуляциям как следствии «моральной ответственности», связанной с делиберацией. Сегодня эта способность играет ключевую роль в сопротивлении комфорту рекомендаций. Я отказываюсь от этой книги, подсказанной мне Amazon, не потому что она мне не нравится или не будет мне полезна, а потому что я – это я. Эта рефлексивная гордость тесным образом связана с волей к автономии. Если Харари объясняет, что ИИ знает нас лучше, чем мы сами, и что за отсутствием свободы воли лучше передоверить решения ему, я, наоборот, считаю, что ИИ мешает нам стать самими собой и сформировать в себе свободного волителя в ходе самого процесса принятия решений. Если Харари кичится тем, что отказывается от индивида и уничтожает «Я» при помощи медитации, то я предлагаю заново утвердить уникальную сущность, каковой мы являемся, или, по крайней мере, дать ей возможность появиться на свет. Если не ради нас самих, то хотя бы ради прогресса нашего биологического вида. Мы видим, как эти почти метафизические соображения могут послужить руководством для наших отношений с технологией.
Вот два примера. Первый – анекдотический: Google Maps. Вы можете принять
Такие же рассуждения применимы к более важной области – любви. Читатель, возможно, видел эпизод сериала «Черное зеркало» под названием «Повесить диджея», в котором ИИ при помощи симуляций перебирает все возможные варианты любовных отношений, чтобы свести пользователя с лучшим из возможных партнеров. В мире
Современный эквивалент «судьбы по-турецки», над которой иронизировал Лейбниц, – позволить ИИ и рекомендациям полностью управлять нашей жизнью под предлогом того, что, как и Бог когда-то, алгоритмы могут выбрать лучший из возможных миров. Мы должны использовать способность суждения, чтобы быть достойными нашей «монадности» и постепенно прийти к автономии. От механического турка, который в начале этой книги показал нам тот человеческий труд, который скрывается за ИИ, до «судьбы по-турецки», показывающей, что надо бороться с манипуляциями: турки нам очень пригодились!
Что касается политической философии, стремление к автономии лежит в основе критики Джоном Стюартом Миллем Иеремии Бентама, влияние которого на дух Кремниевой долины мы имели случай наблюдать. В своей книге об утилитаризме Милль на первых же страницах предлагает провести качественное различие между удовольствиями, чтобы избавиться от бентамовской модели, в которой польза подсчитывается одинаково для всех. Действительно, к счастью можно стремиться разными способами, ставя перед собой разные цели, – эти стремления, идущие наугад, глубоко частные, их нельзя свести к общей норме. В конечном итоге это личное счастье определяет индивидуальную мораль. Система ценностей возникает не только из обучения в социуме, но и из применения способности суждения. В своем эссе о Джоне Стюарте Милле Исайя Берлин интерпретирует этот вариант утилитаризма как появление «права на заблуждение»[191], следствие способности каждого искать, улучшать и трансформировать себя. Это «право на заблуждение» в контексте ИИ представляет собой право уйти из социальных сетей, право не следовать рекомендациям, отказаться от уведомлений – одним словом, право не подчиняться общим определениям пользы и идти собственным путем, в том числе наперекор самому себе. В этом заключается глубокий смысл так называемой