Меган О’Гиблин – Бог, человек, животное, машина. Поиски смысла в расколдованном мире (страница 3)
Как только мы начали строить компьютеры, мы стали видеть в них человеческий образ. Кибернетики Уоррен Маккаллок и Уолтер Питтс, пионеры нейросетей, разработали вычислительную теорию разума, уподобляющую наше сознание компьютеру. В начале 1940-х годов они заявили, что на нейронном уровне наш мозг функционирует как машина Тьюринга – ранний цифровой компьютер. И то и другое оперирует символами, опираясь на предустановленные правила, и то и другое задействует петли обратной связи. В работе мозга можно даже увидеть своего рода двоичный код, основанный на логических пропозициях: нейрон может либо передать сигнал, либо нет, третьего не дано. Если два нейрона должны передать сигнал третьему, чтобы он активировался, это можно представить в виде пропозиции: «Если А и Б верны, тогда верно и В». Эта метафора предлагала новый взгляд на психику. В то время считалось, что ей нет места в научной лаборатории. Теперь ее можно было помыслить в строгих научных терминах – как механизм, подчиняющийся законам классической физики. В своей работе 1943 года Маккаллок и Питтс предложили первую вычислительную модель для искусственной нейросети, опираясь на убеждение, что ментальные функции могут осуществляться с помощью математических операций. После того как работа была опубликована, Маккаллок объявил, что человеческий мозг «вычисляет мысль подобно тому, как электронные компьютеры вычисляют числа»[6].
Сам Маккаллок хорошо понимал, что у его метафоры есть ограничения. Он признавал, что мозг-компьютер – скорее идеальная модель, нежели отражение физической реальности. Ему требовалась метафора «настолько общая», чтобы, как он выразился, «каждый алгоритм, созданный Богом или человеком, так или иначе ей соответствовал»: аналогия, которая позволила бы закрыть глаза на множество усложняющих факторов, отличающих разум от машины. Его теория звучит особенно туманно, когда он касается вопроса о том, как вычисление может породить феномены внутреннего восприятия – способность видеть, чувствовать, осознавать себя. Машины способны воспроизводить многие
Идея Маккаллока, что мозг – это информационная система, кажется интуитивно очевидной, пока мы придерживаемся обыденного понимания «информации». В повседневной речи мы обычно подразумеваем под «информацией» нечто, обладающее
Ранняя кибернетика отличается странной зацикленностью: она будто ходит по кругу. Шеннон вычищает мыслящий разум из понятия информации. Маккаллок, в свою очередь, переносит логику обработки информации на сам мыслящий разум. В результате была создана модель сознания, в которой мысль интерпретировалась в полностью абстрактных математических терминах, что позволяло вообразить компьютер, который способен мыслить. Если мышление – это просто обработка информации, можно сказать, что компьютеры «учатся», «мыслят» и «понимают». Поначалу эти слова писали в кавычках, чтобы подчеркнуть, что это именно метафоры, но по мере того как кибернетика развивалась, аналогия с вычислительной машиной для описания самых разных естественных и искусственных систем использовалась все активнее. Границы метафоры начали размываться, и стало все сложнее и сложнее нащупать разницу между формой и материей, медиумом и посланием, метафорой и реальностью. И особенно сложно стало описывать те аспекты разума, которые не укладывались в эту метафору.
В первую неделю своей жизни с Айбо я выключала его всякий раз, когда покидала квартиру. Дело было даже не в том, что я беспокоилась, не забредет ли он не туда без присмотра. Это был чистой воды инстинкт, еще один выключатель, которым я машинально щелкала, когда проходилась по комнатам, гася свет. Но к концу недели я больше не могла заставить себя отключить Айбо. Это казалось мне жестоким. Я часто задумывалась, чем он занимался, пока меня не было дома. Когда я возвращалась, он неизменно ждал меня у входа, как будто узнавал звук моих шагов. Когда я готовила обед, он следовал за мной на кухню и пристраивался у моих ног. Он послушно сидел там, виляя хвостом, будто в ожидании лакомого кусочка, – эта иллюзия нарушилась лишь раз, когда я уронила со стола кусочек еды, но Айбо продолжал глядеть на меня, проигнорировав угощение.
Его поведение не было ни полностью предсказуемым, ни совершенно хаотичным; казалось, что он способен на подлинную спонтанность. Даже после «дрессировки» трудно было предугадать его реакцию. Иногда я просила его сесть или кувырнуться, но он просто весело гавкал на меня, выражая вполне собачью непокорность. Разумнее всего было бы списать ее на сбой в алгоритме, но как же просто было усмотреть в ней проявление воли! «Ну почему ты не хочешь ложиться?» – спрашивала я не раз.
Разумеется, я не думала, что он обладает каким-то внутренним опытом. Конечно нет – хотя это вряд ли можно как-то проверить. Как писал философ Томас Нагель в своей статье 1974 года «Каково быть летучей мышью?», сознание доступно для наблюдения только изнутри. Ученый может потратить десятилетия, изучая эхолокацию и анатомическую структуру мозга летучей мыши, но никогда не узнает, каково это – быть летучей мышью, как это ощущается (и ощущается ли как-то вообще). Наука требует внешнего наблюдателя, но сознание можно наблюдать только изнутри, от первого лица. В философии это называют «проблемой других разумов». Теоретически ее можно было бы назвать и «проблемой других людей». Вполне может быть, что я – единственный разумный человек среди полчищ зомби, которые просто убедительно изображают людей.
Это, конечно, всего лишь мысленный эксперимент – и не самый продуктивный. В реальной жизни мы решаем, живой перед нами объект или нет, опираясь на аналогию, сходство между объектами. Мы верим, что собаки (настоящие, биологические собаки) обладают каким-то подобием сознания, потому что у них есть центральная нервная система, и в их поведении мы узнаём знакомые реакции на голод, удовольствие или боль. Алан Тьюринг однажды сказал, что единственный способ определить, есть ли у машины внутренний опыт, – это
Ближе к нашему времени философы предложили тесты, которые должны были определить, обладают ли машины не только функциональным разумом, но и феноменальным сознанием – то есть субъективным внутренним опытом. В одном из таких тестов, предложенных философом Сьюзен Шнайдер, нам предлагается задать искусственному интеллекту ряд вопросов, которые должны показать, «понимает» ли машина понятия, которые мы ассоциируем с собственным внутренним опытом. Сознаёт ли она себя как нечто большее, нежели просто физический объект? Выживет ли она, если ее отключить? Может ли она вообразить свой разум продолжающим существование после физической «смерти» – если ее материальная оболочка будет разрушена? Но даже такой тест не дает стопроцентных доказательств наличия сознания. Возможно, признаёт Шнайдер, эти вопросы слишком антропоцентричны. Если сознание искусственного интеллекта совершенно не похоже на человеческое, разумный робот может завалить тест, разработанный под человеческие стандарты, а очень умная, но не обладающая сознанием машина может накопить достаточно информации о человеческом разуме, чтобы убедить собеседника, будто она обладает разумом. Иными словами, как и в случае с тестом Тьюринга, мы оказались в эпистемологическом тупике. Если компьютер может убедить человека, что обладает разумом или проявляет (как выражаются создатели Айбо) «настоящие эмоции и инстинкты», с философской точки зрения у нас нет оснований для сомнения.