Роман Подольный – По образу и подобию (страница 23)
Опыт повторили в точно той же форме. Снова картина всеобщей гибели. Еще раз все сначала… И в одном из запусков случай благоприятствовал автоматам. Сочетание цифр в таблице переходов у одного из автоматов оказалось настолько удачным, что его потомство, сохранившее это сочетание, стало благоденствовать даже в столь тяжелых условиях. Приспособилось.
Что сделали кибернетики? Они еще ухудшили жизнь своих созданий. Теперь пища находилась только в 12 (вместо 15) точках из 40 возможных.
Автоматы долго оказывали сопротивление этому машинному «великому оледенению». Они просуществовали еще 2293 шага. Лишь 75-е поколение было последним… Какой трагический конец!
Но эта трагедия — оптимистическая. Она ведь была поставлена намеренно. Жизнь автоматов как модели вида (вида животных) можно было сделать практически бесконечной — в их масштабах времени. Но к чему это было нужно? От модели взяли все, что возможно. Убедились, что эволюционный принцип можно моделировать на вычислительной машине. Теперь настала пора усложнения модели. Эта модель была одномерной — все жизненное пространство автомата представляла собой только одна геометрическая линия окружности, не имевшая, как и полагается геометрической линии, ни ширины, ни толщины. И сами автоматы друг с другом не взаимодействуют, если не считать того, что порой мешают друг другу в силу одномерности их жизненного пространства, где ни одно препятствие нельзя ни обойти, ни перескочить через него.
В модели следующей ступени сложности оба эти недостатка должны отсутствовать. Модель окажется сложнее, а значит, хоть чуточку приблизится к своему прототипу.
Значение машинного розыгрыша естественного отбора гораздо больше, чем может подуматься. Конечно, здорово, что удалось на модели показать реальность биологических теорий. Но это в каком-то смысле второстепенный результат. Гораздо важнее будущее принципа «естественного отбора» в кибернетике. В. М. Глушков видит здесь способ получения сложных информационных систем, которые трудно создать другими способами. А между прочим, понятие «информационная система», то есть система, перерабатывающая информацию, очень широко. Под него подходим и мы с вами.
Конечно, академик имел в виду информационные системы несравненно меньшей сложности. Но сама по себе возможность получать с помощью модели естественного отбора модели животных, притом построенные не по заданной программе, — великолепна.
А в будущем так будут создаваться машины, план которых будет неизвестен их создателям, а вернее, прародителям. Кибернетика выполнит на деле странное задание старой русской сказки — «Найди то, не знаю что».
Последнее море
Говорят, Чингинс-хан дал своим полководцам, отправленным на запад, очень короткую инструкцию: омыть копыта своих коней волнами Последнего моря. С точки зрения средневековых монголов, за Последним морем уже ничего не было.
Великий полководец кибернетиков Винер призвал своих последователей прорваться к Последнему морю науки, постигнуть идеал вычислительных машин — мозг. Кибернетика — наука об управлении. Лучшая известная человеку управляющая машина — мозг. Значит, создание ее модели — высшая цель кибернетики. Собственно, и вычислительная машина «Урал» и даже обыкновенный арифмометр в каком-то, почти одинаково узком смысле, могут быть названы моделями определенных способностей мозга. Скажем, способности совершать арифметические действия. Но ведь нас интересуют совсем иные его свойства и возможности. Как быть с ними? И тут встает бесконечное число раз повторявшийся вопрос: «Может ли машина мыслить?» Ведь достаточно полно отражающая свойства мозга модель докажет эту полноту отражения тем, что окажется в состоянии мыслить.
Но… предположим, что такая модель создана. Как узнать, мыслит ли она? Вспомните «Графа Монте-Кристо» и встречу в подземельях замка Иф Эдмона Дантеса и аббата Фариа. Как каждый из них узнал, что с другой стороны человек? По самому звуку голоса. (Впрочем, в ту пору и мысли не могло возникнуть, что за человека способно выдать себя нечто иное — разве что демон или привидение.)
Но теперь времена изменились. Разговаривают и машины. Как узнать, что через стенку от вас находится не шкафообразный (или человекообразный) автомат, а человек? Раз звука недостаточно, надо вслушаться в смысл его слов. Задавать вопросы и анализировать ответы. И если вы убедитесь, что машина не смогла бы с этим справиться, значит, рядом — ваш брат по разуму. Однако лет через пятьдесят — этот срок называет виднейший кибернетик А. Тьюринг — много шансов будет за то, что вы ошибетесь. К тому времени машина будет в состоянии поддерживать разговор не хуже, чем средний человек. Тьюринг и выдвинул для оценки «разумности» машины критерий поддержания ею разговора. А имело ли это смысл? Ведь до сих пор идут бурные споры о самой возможности создания мыслящей машины.
Я не буду приводить бесчисленных философских и нефилософских аргументов «за» и «против». Не буду и ссылаться на изречения авторитетов. Ведь «пифагоровы штаны» верны не потому, что эту теорему доказал именно Пифагор. Теоремы же есть не только в геометрии, но и в других науках, в том числе в кибернетике. Одну из них недавно выдвинули и доказали ученые Маккаллок и Питтс. Смысл ее таков: любая функция естественной нервной системы, которая может быть логически описана с помощью конечного числа слов, может быть реализована формальной нервной сетью, а следовательно, и воспроизведена машиной.
Вот более простая перефразировка этой теоремы: робот, построенный определенным образом, способен вывести любые правильные заключения из конечного числа посылок.
Есть немало ученых, в том числе и крупных кибернетиков, не согласных с этой теоремой и пытающихся найти слабые места в доказательствах Маккаллока и Питтса. Но эти несогласия носят пока скорее эмоциональный характер: им так же не хочется соглашаться с доводами этих двух кибернетиков, как Эйнштейну не хотелось признавать выводы квантовой механики.
Но вот уже несколько лет, как все попытки опровержений теоремы не удаются. Значит, с солидной долей вероятности ее можно считать верной. Так что же, выходит, до мыслящей модели мозга — рукой подать? Вовсе нет. Принципиальную возможность от возможности практической отделяют иногда тысячелетия. Вспомните! Архимед две с лишним тысячи лет назад обнаружил, что может, в принципе, сдвинуть Землю; вот только точки опоры не было да подходящего рычага не нашлось. Кибернетики, разумеется, в лучшем положении, чем Архимед: они по крайней мере знают, как изготовить свои «рычаги». Говорят, что из всех уже существующих моделей ближе всего к мозгу подошли персептроны — устройства для распознавания образов.
Классическим (хотя уже далеко не новейшим) образцом персептрона считается построенная американским ученым Ф. Розенблатом машина Марк-I.
Сетчатка глаза моделируется здесь полем из нескольких сотен фотосопротивлений. Каждое из них может находиться в двух состояниях — возбужденном или невозбужденном.
Марк-I должен определять, к какому классу изображений относится проецируемая на поле из фотосопротивлений фигура (скажем, круг это или треугольник). Но одной модели сетчатки здесь мало. Позади нее располагаются ассоциативные элементы, к каждому из которых подключается несколько фотосопротивлений. Ассоциативный элемент суммирует сигналы, поступившие в него от тех из «подопечных» сопротивлений, которые в данный момент возбуждены. Если получившаяся сумма больше некоей наперед для всех таких элементов заданной величины, он выдает на выходе единицу (сигнал, равный единице, если уж выражаться точно). Ну, а если сумма меньше заданной величины, на выходе получается ноль. Выходные сигналы ассоциативных элементов в специальных устройствах перемножаются на переменные, не зависящие друг от друга коэффициенты (они могут быть и положительны, и отрицательны, и равны нолю). Результаты суммируются. Если конечная сумма положительна или равна нолю, персептрон дает на выходе единицу. Если она отрицательна — на выходе появляется ноль.
Тут важно добиться того, чтобы при появлении, скажем, на поле из фотосопротивлений контура треугольника прибор выдавал единицу, а при проецировании круга — ноль. Этого можно достичь подбором переменных коэффициентов, на которые умножаются сигналы ассоциативных элементов.
В простейшем случае, когда надо научить простейший персептрон отличать треугольники от кругов, поступают так.
Персептрону предъявляют в произвольном порядке самые разные треугольники и круги. Когда на Марк-I проецируется треугольник, коэффициенты всех возбужденных им элементов увеличиваются, когда проецируется круг, коэффициенты возбужденных последним элементов уменьшаются.
В результате с каждым новым предъявлением треугольника растет вероятность того, что суммарный сигнал окажется положительным. И наоборот: каждый показ круга увеличивает вероятность отрицательного суммарного сигнала.
Прибор обучается на собственном опыте.
Впрочем, этот способ обучения оказался не лучшим. Эффективнее другой, предусматривающий изменение коэффициентов лишь в том случае, если персептрон ошибется. Когда он выдает на выходе ноль вместо единицы, коэффициенты возбужденных элементов увеличиваются, когда единицу вместо ноля — они уменьшаются.