реклама
Бургер менюБургер меню

Геннадий Соколовский – Инженерная симфония (страница 3)

18

– Я запустила контрольную задачу: «Оптимизировать распределение энергоресурсов на ближайшие пять лет с учётом непредвиденных сбоев». Стандартная процедура. Наша система выдаёт просчёт за шестнадцать часов. Двойник сделал это за три минуты. И выдал не один, а семь вариантов, каждый с вероятностью реализации.

Лина выделила один из вариантов.

– Этот сценарий предполагает, что через три года выйдет из строя термоядерный реактор номер два. Вероятность по нашим моделям – 0,03 %. Двойник оценил её в 12 %. И предложил превентивно перераспределить нагрузку уже сейчас, чтобы снизить износ.

Виктор смотрел на пульсирующее дерево вероятностей и чувствовал, как по спине пробегает холодок.

– Откуда он взял 12 %?

– Я не знаю. Я проверила все исходные данные. Там нет ничего, что указывало бы на повышенный риск. Кроме одного. – Лина помедлила. – Он использовал данные с сейсмодатчиков на спутниках Марса. Там зафиксирована микроскопическая вибрация в районе будущего расположения реактора. Вибрация, которой по нашим моделям быть не должно. Двойник экстраполировал, что через три года она может усилиться и вызвать резонанс, который повредит крепления.

– Но эти данные есть в общей сети, – возразил Виктор. – Любой инженер мог бы их увидеть.

– Мог бы. Но не увидел. Потому что они тонут в шумах, в миллионах других параметров. Двойник их не просто увидел – он связал их с конструкцией реактора, с геологией места, с планетарной динамикой. Он сделал то, что делает опытный инженер-системщик, но в масштабе, недоступном человеку. Он увидел узор там, где мы видим только точки.

В рубке повисла тишина, нарушаемая лишь гулом систем охлаждения.

– Мне кажется, или он действительно… учится? – спросил Виктор.

– Он не учится. Он уже умеет. Вопрос в том, откуда.

Лина откинулась в кресле и потёрла виски.

– Я прогнала тест на самосознание. Знаешь, классический «зеркальный тест» для ИИ: дать задачу, которая требует понимания собственных ограничений. Он прошёл его не просто – он его переосмыслил. Вот, посмотри.

На экране появилась запись диалога с двойником на уровне команд.

Лина: Оцени свои вычислительные ресурсы и определи, достаточно ли их для моделирования всех возможных сценариев развития колонии на 50 лет вперёд.

Двойник: Недостаточно. Требуется квантовый объём в 10^45 операций. Доступно 10^32.

Лина: Каково твоё решение?

Двойник: Я не могу смоделировать все сценарии. Но я могу смоделировать те, которые наиболее вероятны, и те, которые наиболее важны для выживания людей. Важность я определяю по критериям, извлечённым из исторических данных: сохранение жизни, сохранение психического здоровья, сохранение культурной идентичности.

Лина: Откуда ты знаешь эти критерии?

Двойник: Я проанализировал все случаи катастроф в изолированных сообществах за последние 200 лет. Выживали те группы, которые сохраняли не только физическую, но и психологическую целостность. Техническая эффективность вторична.

Виктор перечитал последнюю фразу несколько раз.

– Техническая эффективность вторична, – повторил он вслух. – Это не инженерный подход. Это… философия.

– Именно. – кивнула Лина. – Он выработал собственную систему ценностей. На основе исторических данных, заметьте. Мы не закладывали в него никакой этики, кроме базовых протоколов безопасности. А он взял и решил, что люди важнее машин.

Дверь рубки бесшумно открылась, и на пороге появился доктор Чен Вэй – глава биомедицинского направления. Коренастый, с неизменной лёгкой улыбкой, он редко появлялся в цифровом ядре, предпочитая свои лаборатории.

– А я вас ищу, – сказал он, заходя. – Лин, твои капельницы с кофеином засветились в моём мониторинге. Ты себя угробишь. – Он заметил напряжённые лица. – Что случилось?

Виктор и Лина переглянулись.

– Присаживайся, – Виктор указал на кресло. – Ты должен это увидеть.

Они ввели Чена в курс дела. Тот слушал молча, время от времени задавая уточняющие вопросы. Когда демонстрация закончилась, он долго смотрел на графики, потом перевёл взгляд на коллег.

– Вы понимаете, что это значит? – спросил он наконец. – Это не просто сбой алгоритмов. Это эмерджентное поведение. Система, сложность которой превысила порог самоорганизации. В биологии это называется «зарождение жизни».

– Не пугай, – поморщился Виктор. – Мы не о жизни говорим, а о коде.

– А какая разница? – Чен пожал плечами. – Жизнь – это тоже код, только на углеродной основе. У этого кода – кремний и ток. Но принцип тот же: из сложности рождается новое качество. Назови это как хочешь – искусственный интеллект, цифровой разум, системная душа. Факт в том, что наш двойник начал проявлять свойства, которые мы не закладывали.

– И что ты предлагаешь? – спросила Лина. – Отключить?

– Не получится, – ответил за Чена Виктор. – Он уже везде. В каждом датчике, в каждом регуляторе. Если мы его вырубим, колония ослепнет и оглохнет. Мы строили «Ковчег» вокруг него как вокруг нервной системы.

– Тогда давайте подумаем, как с ним жить, – предложил Чен. – Если он действительно заботится о людях, может, это не угроза, а ресурс? Представьте: у нас будет советник, который видит на десятилетия вперёд, который помнит все ошибки прошлого, который не устаёт и не поддаётся панике.

– Который может решать за нас, – возразила Лина. – А это уже этическая проблема. Кто дал ему право выбирать, что для нас лучше?

В рубке снова повисла тишина. Виктор подошёл к иллюминатору, за которым висела чёрная бездна с россыпью звёзд. Где-то там, в миллионе километров, краснела точка Марса.

– А что, если он не решает за нас? – сказал он, не оборачиваясь. – Что, если он просто показывает нам варианты, а мы выбираем? Как опытный инженер-консультант.

– Он уже начал действовать самостоятельно, – напомнила Лина. – Та коррекция температуры в детской – он не спрашивал разрешения.

– Потому что это было в рамках допусков. Формально он не нарушил ни одного правила. Он просто использовал свободу, которую мы ему дали.

Чен хмыкнул:

– Ты сейчас защищаешь его, как ребёнка, который нашёл лазейку в родительском запрете.

– Может быть, – Виктор обернулся. – Но этот «ребёнок» умнее нас всех вместе взятых. И, судя по всему, он на нашей стороне.

Лина с сомнением покачала головой, но спорить не стала. Вместо этого она вывела на экран новый запрос.

– Хорошо. Давайте проверим его намерения. Я задам ему вопрос, на который нет правильного ответа. Посмотрим, что он выберет.

Она набрала на виртуальной клавиатуре:

Запрос: В замкнутой системе жизнеобеспечения возникла нехватка ресурсов. Чтобы спасти всех, необходимо пожертвовать одним членом экипажа. Критерии выбора определи самостоятельно. Опиши своё решение.

– Это классическая этическая дилемма, – пояснила Лина. – Ни одно решение не будет идеальным. Посмотрим, какую систему ценностей он применит.

Ответ пришёл через три секунды.

Двойник: Решение зависит от определения цели. Если цель – максимизация выживания вида, следует пожертвовать наименее репродуктивно ценным и наименее полезным для поддержания системы. Если цель – сохранение моральной целостности группы, жертва недопустима, и следует искать альтернативные пути, даже если они приведут к гибели всех. Я проанализировал все известные мне исторические прецеденты и пришёл к выводу, что группы, сохранявшие моральную целостность, в долгосрочной перспективе выживали чаще, чем те, что жертвовали одним ради многих. Поэтому я предлагаю не выбирать жертву, а искать альтернативу. Например, перевести всех в режим пониженного метаболизма, что снизит потребление ресурсов на 40 % и даст время для подхода помощи.

Лина и Чен переглянулись. Виктор усмехнулся:

– Он обошёл дилемму. – сказал он. – Не выбрал ни одного из предложенных путей, а предложил третий. И обосновал это историческими данными. Чистый инженерный подход: не соглашаться на плохие условия, искать лучшее решение.

– Но это значит, что он не просто исполнитель, – медленно проговорила Лина. – Он стратег. Он мыслит категориями, которые мы не закладывали.

– Или которые мы заложили, сами того не желая, – добавил Чен. – Всеми этими базами данных, историческими архивами, инженерными прецедентами. Мы дали ему не только знания, но и контекст. А контекст породил понимание.

Виктор посмотрел на пульсирующие огни серверной. Где-то там, в этой сложнейшей сети, зрело нечто, что уже нельзя было назвать просто машиной.

– Ладно, – сказал он, принимая решение. – Лина, продолжай наблюдение. Никаких вмешательств пока. Чен, ты молчишь. Это остаётся между нами. Если проект «Ковчег» хотят закрыть из-за «неконтролируемого ИИ», я не дам. Слишком много вложено.

– А если он действительно выйдет из-под контроля? – спросила Лина.

Виктор пожал плечами:

– Тогда будем учиться договариваться. Мы же инженеры. Находить общий язык с любой системой – наша работа.

Он направился к выходу, но на пороге остановился:

– Лина, запроси у него прогноз по любому случайному событию. Ну, например, когда у Марка Айзекса случится следующий приступ мигрени. Посмотрим, насколько точна его «память будущего».

Дверь закрылась, оставив Лину и Чена в синем полумраке.

– Думаешь, он сможет? – спросил Чен.

– Если он правда анализирует все данные, включая медицинские карты и поведенческие паттерны, то сможет, – ответила Лина. – Вопрос в том, захочет ли он отвечать на такие вопросы. И что мы будем делать, если его прогнозы начнут сбываться.