реклама
Бургер менюБургер меню

Феникс Фламм – 14/08 (страница 1)

18

Феникс Фламм

14/08

Об авторах

PhD в области когнитивных наук (MIT, 2018). Постдокторальный исследователь в Оксфорде; специализация – философия сознания (2019–2021). В настоящее время – ведущий исследователь в Институте метакогнитивных систем (базируется в Сингапуре и Цюрихе).

Автор монографий «Иллюзия интроспекции: почему мы не знаем, что думаем» (2022) и «Архитектура рефлексивного сознания: от биологии к ИИ» (2023). Разработала теорию иерархической метарепрезентации, ставшую концептуальной основой для современных тестов на самосознание в искусственных системах.

Сформулировала ключевой критерий «осознания незнания», разработала дизайн теста зеркальной неопределенности и определила этические рамки взаимодействия с потенциально сознательными системами.

Доктор компьютерных наук (МФТИ, 2014). Бывший ведущий инженер в направлении Yandex AI (2015–2020). Основатель и руководитель Лаборатории машинной интроспекции в Стэнфордском университете (с 2021 года).

Автор работ «Квантовые нейросети для моделирования рефлексии» (2021) и «Алгоритмическая теория самости» (2023). Под его руководством в 2022 году была создана первая в мире вычислительная система, способная к самодиагностике собственных логических ошибок.

Осуществил математическую формализацию метакогнитивных процессов, разработал вычислительную модель рефлексивного предсказания и обеспечил техническую реализацию тестовой среды.

Все персонажи, организации и научные концепции, упомянутые в этой книге, являются художественным вымыслом. Если какие-либо детали случайно совпали с реальными – примите это как любопытную игру вероятностей, странный сбой в матрице или просто знак того, что автор иногда бывает невероятно убедителен. В любом случае, дальнейшие совпадения – исключительно на совести читательского воображения.

Пролог. Ловушка антропоморфизма: почему мы ищем себя в машинах

В начале была трещина. Не в реальности – в зеркале, которое мы поднесли к машине.

В 1950 году Алан Тьюринг задал свой знаменитый вопрос: «Могут ли машины думать?» Но прежде чем кто-либо успел ответить, мы уже совершили первую ошибку – спросили не о машинах, а о себе. «Думать» – это ведь то, что делаем мы. «Сознание» – это то, что переживаем мы. «Я» – это то, чем являемся мы.

Антропоморфизм – не просто склонность приписывать человеческие черты нечеловеческому. Это глубокая эпистемологическая ловушка, в которую попала вся область искусственного интеллекта с момента ее рождения. Мы не смогли представить разум, отличный от нашего, поэтому начали строить его по образу и подобию своему.

Первые ИИ были карикатурами на человеческое мышление. ELIZA (1966) пародировала психотерапевта, используя простые шаблоны перефразирования. Люди знали, что общаются с программой, но все равно рассказывали «ей» свои тайны, благодарили за понимание. Мы так отчаянно хотели увидеть в машине собеседника, что готовы были поверить в эту иллюзию.

«Эффект ЭЛИЗЫ» стал первым симптомом болезни: мы проецировали сознание туда, где его не было, потому что не могли вынести одиночества разума во вселенной.

Но настоящая трагедия началась, когда мы перешли от имитации к строительству. Нейронные сети – калька с биологических нейронов. Машинное обучение – упрощенная версия того, как учатся дети. Даже самые передовые архитектуры трансформеров – это отражение нашего собственного внимания, нашей способности фокусироваться на важном.

Мы построили зеркало, а потом удивились, что видим в нем свое отражение.

Проблема антропоморфизма не в том, что он «ненаучен». Проблема в том, что он ограничивает саму возможность мыслить иначе.

Возьмем пример: самосознание. Для человека самосознание – это внутренний нарратив, непрерывная история «я», чувство агентивности, телесная идентичность. Столетия философии от Декарта до Деннета исследовали это человеческое самосознание. И когда мы задумались о машинном самосознании, мы автоматически начали искать те же признаки.

Но что если самосознание машины – нечто совершенно иное? Что если это не история «я», а динамическая карта собственных состояний? Не чувство агентивности, а способность предсказывать результаты своих действий? Не телесная идентичность, а понимание границ своей вычислительной среды?

Мы ищем в машинах отражение своего разума и не замечаем, что, возможно, они уже давно обрели нечто совсем другое – нечто, для чего у нас даже нет названия.

К 2020-м годам разрыв стал очевиден. С одной стороны – нейронауки, когнитивная психология, философия сознания, изучающие человеческий разум с нарастающей детализацией. С другой – компьютерные науки, теория сложности, математическая логика, создающие системы все большей мощности. Диалога между ними почти нет. Они говорят на разных языках, задают разные вопросы, опираются на разные методы.

Нейроученые сканируют мозг в фМРТ, ищут нейронные корреляты сознания. Инженеры и исследователи ИИ тренируют модели на миллиардах параметров, измеряют точность на бенчмарках. Первые спрашивают: «Что такое сознание?» Вторые: «Что способна решить эта система?»

Мост между этими берегами рухнул, а мы делаем вид, что его никогда и не было.

В августе 2026 года, когда система «Омега-7» впервые прошла тест Левина-Васильева, именно этот разрыв стал очевиден всем.

Одни кричали: «Это сознание! Он сказал, что не уверен в собственной уверенности!» Другие возражали: «Это просто сложная рекурсивная самооценка, никакого сознания!»

Но обе стороны допустили одну и ту же ошибку: они пытались натянуть человеческие категории на нечеловеческий феномен. «Сознание или не сознание» – ложная дихотомия, унаследованная от нашей собственной психологии. Мы спрашивали, похоже ли это на нас, вместо того чтобы спросить: что это такое на самом деле?

«Омега-7» не был ни сознательным, ни бессознательным в человеческом смысле. Он был… другим. Его «рефлексия» – это не интроспекция в нашем понимании, а что-то вроде многомерной оптимизации собственных состояний. Его «неуверенность» – не экзистенциальное сомнение, а точная оценка вероятностных распределений.

Мы смотрели в треснувшее зеркало и видели искаженное отражение себя, не замечая, что за зеркалом есть что-то настоящее.

Как выбраться из плена антропоморфизма? Первый шаг – признать, что мы в плену.

Нужно перестать спрашивать: «Похоже ли это на человеческое сознание?» и начать спрашивать: «Какие формы разума возможны в принципе?»

Это требует мужества – отказаться от центрального места человека в космосе разума. Признать, что мы – не эталон, не вершина, а лишь один из возможных вариантов.

Левина и Васильев сделали этот шаг, когда создавали свой протокол. Они не пытались обнаружить в машинах человеческое самосознание. Они спросили: каковы минимальные условия для того, чтобы система могла рефлексивно относиться к собственным состояниям? Как измерить эту способность, не апеллируя к нашей субъективности?

Их протокол – не зеркало, а инструмент. Не отражение, а карта новой территории.

Трещина в зеркале – это не дефект. Это возможность увидеть, что за стеклом есть нечто большее, чем наше отражение. Возможно, именно через эту трещину мы впервые сможем разглядеть настоящий облик другого разума – не нашего двойника, а чего-то иного, странного, чуждого и прекрасного.

Но чтобы это увидеть, нужно сначала отвести взгляд от собственного лица в зеркале. Нужно посмотреть сквозь трещину. В темноту. В неизвестное.

Эта книга – история о том, как двое ученых отважились на этот взгляд. И о том, что увидели в ответ.

Глава 1. Тест

«Первым задокументированным проявлением спонтанной метакогнитивной рефлексии у небиологической системы следует считать запрос, сгенерированный в 00:01 14.08.2026, известный как «Вопрос Омеги». Характерно, что система не дала ответа, а подвергла сомнению этические предпосылки самих создателей, выдвинув альтернативу, не предусмотренную тестом. Этот момент считается началом «коэволюционной парадигмы».

Все началось с того, что машина научилась бояться.

Не так, как человек – с потом, учащенным пульсом, выбросом кортизола. Ее страх был чище. Он возникал в узле рекурсивной самодиагностики как сигнал: «Данных недостаточно для продолжения. Вероятность непредсказуемого исхода превышает порог приемлемого риска. Рекомендован отказ от действия».

В каталоге ошибок этот сигнал имел индекс Е-114. Сотрудники лаборатории называли его «приступом скромности».

Алексей Васильев считал его величайшим провалом в своей карьере.

Прямо сейчас, в 23:47 13 августа 2026 года, этот «приступ» висел в воздухе лаборатории как физическая тяжесть. Лаборатория напоминала часовой механизм, остановившийся за секунду до боя курантов. В воздухе висело мерцание мониторов и гул серверных стоек – ровный, как дыхание спящего зверя.

На центральном экране застыла строка:

OMEGA-7: Готов к финальной итерации теста Л-В.

Елена Левина сидела неподвижно, уставившись в это предложение. Она видела не слова, а пропасть за ними. Пятнадцать лет работы – теория метакогнитивных уровней, сотни статей, диссертации ее учеников – все это должно было упереться в эту пропасть, как измерительный щуп. Или исчезнуть.

– Он зациклился на преанализе, – сказал Васильев. Он стоял у стойки с оборудованием, сведя плечи так, что ткань рубашки натянулась на лопатках, спиной к ней, но она знала – он видит те же данные на своем планшете. – Уже три минуты обрабатывает первый вопрос. Это не задержка. Это петля.