Гаспар Кёниг – Конец индивидуума. Путешествие философа в страну искусственного интеллекта (страница 23)
Но какое отношение все это имеет к ИИ? Канеман сам указывает на это отношение, комментируя опыты Пола Мила. Этот психолог в 1950‐х годах решил доказать превосходство «статистического предсказания» над «клиническим предсказанием». Мил изучил, как профессиональные работники образования предсказывают будущие оценки студентов первого года, основываясь на сданных экзаменах, на тестах способностей, а также на личной беседе. Затем он сравнил эти прогнозы с результатом строгой математической формулы, основанной на некоторых простейших данных. Выяснилось, что формула регулярно давала лучший результат, чем человеческое суждение. Это, по мнению Мила, доказывало, что эксперт всегда находится под влиянием слишком большого числа неточных критериев и субъективных мнений, будь они сознательными или нет. И наоборот, простые правила и анкеты, не зависящие от «системы 1», обладают доказанными преимуществами, которые хорошо известны летчикам и альпинистам: в случае паники лучше полагаться на учебник, чем на интуицию. Отсюда важность приобретения определенных «автоматизмов», которые превращают нас, по сути, в автоматы. Канеман полностью разделяет эти выводы: «Эксперты уступают алгоритмам». Из этого он выводит определенные следствия, имеющие значение для мира ИИ, в котором алгоритмы производят все больше и больше статистических вычислений: надо преодолеть наше естественное предпочтение человеческого суждения (например, врача или адвоката) и научиться доверять машине, чистой «системе 2», свободной от любых предубеждений. «К счастью, – заключает Канеман, – враждебное отношение к алгоритмам, вероятно, будет ослабевать по мере возрастания их роли в повседневной жизни».
Теперь мы лучше понимаем, почему Канеман важен для столь многих поборников ИИ. Иррациональность наших повседневных суждений оправдывает помощь машины, способной определить наши личные потребности и при этом избежать наших когнитивных иллюзий. Поскольку мы сами не смогли бы обрабатывать постоянно поставляемую машиной информацию, почему бы не попросить ее упростить и сам процесс принятия решения, ненавязчиво руководя нами и нашим поведением? А поскольку наша «система 2» дает нам лишь весьма несовершенное представление о самих себе, не могли бы мы возложить на ИИ также и задачу определения наших истинных желаний, чтобы машина помогала в совершенствовании не только эффективности наших решений, но и самой их природы? Таким образом, ИИ мог бы действовать в качестве своего рода универсального
Канеман не отрицает существования свободы воли. Он довольствуется тем, что связывает ее с «системой 2», которая относительно слаба, поскольку не имеет возможности справляться с постоянным потоком информации и может мобилизоваться только в исключительных обстоятельствах и ценой заметных усилий. Будучи психологом, Канеман сосредотачивает свои исследования на ошибках «системы 1», оставляя другим вопросы сознания и свободного выбора, помещенные в черный ящик «системы 2». Множество современных ученых, занимающихся нейронауками, ответили на этот вызов, постаравшись доказать, что само понятие свободы воли является наследием средневековой метафизики. По мере расшифровки работы мозга мы сможем свести способность принимать решения к химическим процессам, которые могут быть раскодированы и подсчитаны. Станислас Деан, один из ведущих ученых в этой области, решил реабилитировать картезианское представление о чисто механическом устройстве мозга[81]. Он хочет раз и навсегда покончить с идеей души, духа или сознания, которое якобы способно абстрагироваться от законов молекулярной биологии и делать «свободный» выбор (то есть выбор в определенном смысле случайный и даже произвольный). То, что философ Дэвид Чалмерс назвал «сложной проблемой» сознания, для Деана сложным не является. Шестьдесят миллиардов нейронов нашего мозга обрабатывают полученную информацию в зависимости от генетической предрасположенности и нашего прошлого опыта. В тот день, когда нейроны будут полностью картографированы, мы сможем предсказывать наши психические процессы с той же точностью, что и рикошет бильярдных шаров. Деан не отвергает, однако, «автономной способности к решению», он только проводит четкое различие между нею и темной непредсказуемостью «свободы воли». «Система 2» может, конечно, принимать сложные решения, разумно взвешивая все «за» и «против», однако в конечном счете эти решения определяются нашей биологической конституцией. Тот факт, что наши действия являются результатом исключительно сцепления причин и следствий, не означает их иррациональности, скорее наоборот. Вполне логично, что Деан не видит никакой причины, по которой ИИ не мог бы обладать такой же «автономной способностью к решению», искусственно воспроизводя нашу способность к внутреннему рассуждению. У машины свободы воли не больше и не меньше, чем у нас, людей. То есть она могла бы с полным основанием поддержать нас в применении нашей собственной рациональности.
Итак, мы видим несколько обескураживающее слияние психологии, поведенческой экономики и нейронаук, которые все в равной мере отвергают свободу воли. Это представление популяризируется такими эссеистами, как Сэм Харрис, который крайне упрощает детерминистское рассуждение, полагая, что наши мысли – плод одних лишь физических законов и что, следовательно, «моя психическая жизнь дана мне в силу специфического устройства космоса»[82]. Столь радикальный тезис влечет весьма значимые следствия для нашего представления о праве, экономике или любви. Если действия людей детерминированы, значит, к ним в целом не применима никакая моральная ответственность. А как же тогда наказывать преступников, вознаграждать достижения или требовать верности? И наоборот, не становится ли каждый ответственным за общее благо, если всякое действие может изменить поведение другого? Сэм Харрис охотно признаёт, что наши общества по-прежнему основаны на постулате автономного индивида, и боится «культурной войны», разворачивающейся вокруг свободы воли. Споры на эту тему наверняка выйдут за пределы здравомыслящих кругов научного сообщества, что приведет к расшатыванию всех наших институтов. Разве уже сегодня мы не требуем от социальных сетей следить за пагубным влиянием, которое способен оказывать на их пользователей определенный контент, и не признаём ли тем самым, что сами пользователи не располагают никакой свободой психического маневра, позволившей бы им избежать своей цифровой судьбы? Ян Лекун подтвердил мне высокую прогнозируемость поведения пользователей Facebook, которые едва ли не систематически поступают в соответствии с предсказаниями данных. В детерминистском мире нужно контролировать поведение гражданина на первых этапах, а не наказывать его за результаты.
Эти теории свободы воли сегодня в моде, они предоставляют сильные аргументы, оправдывающие современное применение ИИ, когда машина все больше заменяет индивидуальное суждение. Модные критики «надзорного капитализма»[83], даже если они правы в констатации общей манипуляции поведением, с моей точки зрения, упускают эпистемологическое основание этих практик. Задача не только в получении прибыли, но и в том, чтобы принести людям добро вопреки их сознательным предпочтениям. Как верно пишет социолог Доминик Кардон, изучающий большие данные, «опираясь в значительной мере на работы по психологии и экспериментальной экономике, архитекторы новых алгоритмов больших данных уверяют, что следует доверять только реальному поведению людей, а не тому, что они, по их собственному мнению, делают, когда рассказывают о себе»[84]. Цель этой работы по сбору данных, позволяющей определить наше реальное поведение, скрытое за явными намерениями, – получить возможность тонкой настройки наших будущих действий и мыслей. Как только индивиды освобождаются от категорий и усредненных величин, они, поскольку их обрабатывают, учитывая их индивидуальность, становятся «механическими мышами в лапах вычислителей»[85]. Мышами, которые не могут выбраться из своего лабиринта, поскольку игра корреляций стремится стабилизировать наши собственные характеристики. Как указывает мне Эммануэль Кандес, статистик из Стэнфорда, корреляция становится нормативной. Невозможно убежать от самого себя.
Было бы слишком просто не принимать всерьез благие намерения технологической сферы. Общество турникетов – это прямое следствие отказа от свободы воли. А раз свобода воли – фикция, почему бы не положиться на сеть хорошо продуманных стимулов? Если наши решения все равно страдают от предвзятости, почему бы не делегировать управление нашими интересами системам, которые знают их лучше нас самих? Не является ли
Универсальный nudge
ИИ в той форме, в какой он ныне понимается цифровой индустрией, в полной мере задействован в этом универсальном