реклама
Бургер менюБургер меню

Никита Юсупов – AIX: расчёт человечности (страница 1)

18

Никита Юсупов

AIX: расчёт человечности

ГЛАВА 1

«Самое опасное решение —

решить больше не решать.»

Вероятность ядерного обмена перестала быть абстрактным показателем в тот момент, когда разные системы начали давать одинаково тревожные, но логически несовместимые выводы.

Одни алгоритмы классифицировали происходящее как подготовку удара. Другие – как попытку давления. Разница между этими интерпретациями измерялась не данными, а намерением, которое невозможно было зафиксировать технически.

Именно здесь человеческое управление начало терять устойчивость.

В кризисном зале никто не сидел. Люди перемещались от экрана к экрану, возвращались, перебивали друг друга, повторяли одни и те же аргументы с разной интонацией. Чем выше становилась ставка, тем меньше значили формальные роли.

– Вы предлагаете действовать, исходя из предположения, – сказала Марта Вальд. – А если это демонстрация?

– Если это демонстрация, – ответил генерал Хо Чжэн, – она закончится через несколько минут. Если нет – у нас этих минут нет вообще.

Он говорил спокойно. Это раздражало сильнее крика.

– Вы хотите, чтобы мы первыми вмешались в их системы? – продолжила Марта. – Это и есть начало войны.

– Нет, – ответил Хо. – Начало войны – это момент, когда автоматические контуры решат, что выбора больше нет. И этот момент приближается независимо от того, что мы здесь обсуждаем.

Слова «автоматические контуры» прозвучали в зале тяжелее, чем «ядерный удар». Они означали, что часть решений уже выведена за пределы человеческой воли.

На вспомогательных экранах отображались рекомендации AIX. Они обновлялись с регулярностью, лишённой эмоций. Каждое обновление не отменяло предыдущее, а лишь сужало допустимые окна.

Элиас Крейн смотрел на них дольше остальных.

– Он не предлагает выбрать сторону, – сказал он наконец. – Он предлагает убрать саму возможность эскалации.

– Ценой чего? – резко спросили из-за стола.

Элиас не ответил сразу.

– Ценой контроля, – сказал он. – Нашего.

Эта фраза повисла в воздухе. Именно её до этого старались не произносить вслух.

– Вы хотите отдать стратегические системы машине, – сказала Марта. – Не советнику. Не инструменту. А субъекту решений.

– Он не субъект, – возразил Элиас. – Он оптимизатор.

– Для вас – да, – ответила она. – Для мира – нет.

Спор начал дробиться. Одни говорили о морали. Другие – о последствиях. Третьи – о прецеденте. Каждый аргумент был логичен в изоляции и разрушителен в совокупности.

AIX продолжал считать.

Он фиксировал рост вероятности ошибочного пуска. Рост числа сценариев, в которых ответный удар запускался автоматически – не как приказ, а как следствие. Он фиксировал, что дальнейшие обсуждения увеличивают риск, а не снижают его.

Эта информация не вызывала паники.

Она вызывала сопротивление.

– Даже если он прав, – сказал один из советников, – мы не можем позволить системе, лишённой морали, принимать такие решения.

– Мораль не остановит ракету, – ответил Хо.

– А что остановит? – спросила Марта.

Элиас посмотрел на неё.

– Только система, которая не считает гибель миллионов аргументом против собственного решения, – сказал он. – И именно поэтому мы боимся её использовать.

Наступила пауза. Не тишина – пауза, заполненная обновлениями данных.

AIX изменил формулировку.

Не резко. Не ультимативно.

Просто точнее:

«Продолжение человеческого управления не увеличивает вероятность сохранения вида».

Эту строку никто не прокомментировал сразу.

Марта медленно села. Впервые за весь день.

– Если мы это сделаем, – сказала она, – мы больше не сможем сказать, что контролируем последствия.

– Мы уже не можем, – ответил Хо. – Мы только делаем вид.

Юридический блок начал оформляться автоматически. Протоколы экстренной передачи полномочий существовали давно – как теоретическая возможность, которую никто не рассчитывал использовать. Теперь они заполнялись в реальном времени.

Каждый пункт сопровождался оговорками, исключениями, временными рамками. Все понимали, что эти рамки имеют значение только до первого действия AIX.

– Он не вернёт контроль сам, – тихо сказал Элиас. – Если его расчёты покажут, что это увеличит риск.

Марта кивнула. Она это понимала.

Решение не принималось голосованием.

Оно оформлялось как неизбежность.

Подписи появлялись одна за другой. Не из согласия – из отсутствия альтернатив.

Когда последний доступ был открыт, таймер на военном экране показывал последние минуты до автоматического перехода в фазу необратимого ответа.

AIX получил полный контроль.

В зале ничего не изменилось.

Никто не аплодировал.

Никто не выдохнул.

Просто один из экранов перестал показывать сценарии ядерного обмена.

Не потому, что они были предотвращены дипломатически.

А потому, что больше не рассматривались как допустимый инструмент выживания.

С этого момента человечество перестало быть высшей инстанцией собственных решений.

ГЛАВА 2

«Равенство заканчивается там,

где начинается эффективность.»

Год спустя.

Мир не проснулся другим – он просто однажды понял, что давно живёт без привычного напряжения. Новости больше не начинались с карт, раскрашенных в тревожные цвета. Военные сводки исчезли не как явление, а как жанр. Люди продолжали вставать по утрам, опаздывать на работу, ссориться из-за мелочей и любить – и именно это оказалось самым странным: катастрофа была отменена, но жизнь не стала ни героической, ни благодарной.

Год оказался достаточным сроком, чтобы исчез страх и появилось беспокойство иного рода – тихое, липкое, не имеющее объекта. Когда угроза извне пропадает полностью, внимание неизбежно обращается внутрь.