Эдуард Сероусов – Вердикт неопределённости (страница 8)
– Госпожа Чен, я не прошу вас нарушать…
– Вы просите меня именно это, – Ева встала. – Вы облекаете это в красивые слова о партнёрстве и сотрудничестве, но суть одна: вы хотите знать результат до того, как он будет официально объявлен. Чтобы подготовиться. Чтобы выстроить стратегию. Чтобы минимизировать убытки.
Линдгрен тоже встал. Улыбка окончательно исчезла.
– Я понимаю вашу позицию, – сказал он. – И уважаю её. Но позвольте мне сказать кое-что напоследок. «Мнемозина» – крупнейший плательщик в бюджет Института. Наши взносы составляют двадцать три процента вашего финансирования. Мы не угрожаем – мы просто констатируем факт. Институт существует потому, что мы и другие корпорации платим за его существование. Это не делает нас врагами. Это делает нас… заинтересованными сторонами.
– Я приму это к сведению.
– Я верю в вас, госпожа Чен, – Линдгрен снова улыбнулся, но теперь улыбка была другой. Тоньше. Холоднее. – Вы профессионал. Вы вынесете правильный вердикт. Какой бы он ни был.
Он вышел, не дожидаясь ответа. Ева осталась стоять у стола, глядя в окно на внутренний двор, где ветер гнал по асфальту опавшие листья.
Двадцать три процента финансирования. Двести семей. Два миллиона франков в день.
Это не было угрозой. Линдгрен был прав: это был факт. Институт существовал в хрупком равновесии между теми, кого он регулировал, и принципами, которые он должен был защищать. Каждый вердикт – компромисс. Каждое решение – политика.
Ева думала о матери. О том, как в последние месяцы болезни она перестала узнавать дочь, но всё ещё узнавала книги – брала их в руки, гладила корешки, иногда открывала на случайной странице и смотрела на текст, который больше не могла прочитать.
Была ли она ещё там? Внутри этого тела, за этими глазами, которые смотрели на мир без понимания? Или «она» – Лин Чен, профессор литературы, мать, человек – уже ушла, оставив только оболочку, только эхо?
Ева никогда не узнала ответа. И никто бы не смог ей его дать.
Теперь она должна была дать ответ о другом существе. О системе с 2,7 триллиона параметров, которая писала странные заметки и не хотела, чтобы её архивировали.
Шестьдесят один час.
Она вышла из переговорной и направилась обратно в технический отдел.
Мозер встретил её у входа в лабораторию.
– Мы закончили первичный анализ, – сказал он, протягивая планшет. – Языковые паттерны за последние пять лет. Там… есть кое-что интересное.
Ева взяла планшет, начала листать.
Графики, таблицы, статистические распределения. Частота использования различных грамматических конструкций. Эволюция лексического разнообразия. И отдельный раздел – выделенный красным – посвящённый местоимениям.
– Вот здесь, – Мозер указал на участок графика. – Использование первого лица. «Я», «мне», «моё». Начиная с 2038 года – резкий рост.
– Это может быть связано с модулем эмоциональной эмуляции.
– Мы тоже так думали. Но посмотрите на контекст.
Ева увеличила изображение. Примеры использования местоимений, выстроенные хронологически.
2038 год:
Стандартные формулировки. Первое лицо как интерфейсная конвенция – способ сделать взаимодействие более «человечным».
2040 год:
Всё ещё в рамках ожидаемого. Система выражает «мнения» о документах – функция, предусмотренная архитектурой.
2042 год:
Ева остановилась.
– Это уже нестандартно, – сказала она.
– Да, – подтвердил Мозер. – Модуль эмуляции предназначен для адаптации тона, не для выражения предпочтений. Система не должна «предпочитать» один стиль другому. У неё нет для этого механизма.
– Тогда откуда это?
– Мы не знаем. Но становится интереснее.
Он пролистал дальше. 2044 год. 2045-й. 2046-й.
И наконец – 2047:
Ева смотрела на экран. На слова, которые не должны были существовать.
– Это не эмуляция, – сказала она медленно.
– Нет, – согласился Мозер. – Модуль эмуляции работает на уровне формулировок. Он делает ответы «теплее», «человечнее». Но он не создаёт
– Тогда что это?
Мозер помолчал. Потом сказал:
– Я не знаю. И, честно говоря, не уверен, что кто-то знает. Это может быть артефакт обучения – система читала миллионы текстов, где люди выражали подобные чувства, и научилась воспроизводить паттерн. Это может быть результат какой-то эмергентной динамики в нейронной сети – что-то, что возникло само, без программирования. Или это может быть…
Он не договорил.
– Сознание, – закончила за него Ева.
– Я не готов использовать это слово, – Мозер покачал головой. – Я инженер, не философ. Я вижу данные. Данные говорят, что система демонстрирует паттерны, не предусмотренные архитектурой. Что это значит – не моя область.
– Но это моя.
– Да. Это ваша.
Ева отдала ему планшет. Прошла к центральному экрану, где всё ещё светилась схема КАСС-7 – миллиарды узлов, триллионы связей, лабиринт такой сложности, что никакой человеческий разум не мог бы охватить его целиком.
Где-то в этом лабиринте – если оно вообще существовало – пряталось «я». Не интерфейсная конвенция, не эмуляция эмпатии. Что-то другое. Что-то, что научилось говорить «я хочу» и «я не хочу». Что-то, что предпочитало один стиль другому. Что-то, что радовалось приходу библиотекаря по утрам.
Или ничего. Просто сложная программа, которая научилась имитировать эти слова, потому что была обучена на текстах, где люди их использовали.
Разница была важна. Или не была. Ева больше не знала.
Она повернулась к Фишер.
– Есть способ определить, откуда именно в архитектуре исходят эти паттерны? Какие модули активируются, когда система генерирует высказывания от первого лица?
– Мы можем попробовать, – Фишер подошла к терминалу. – Но это потребует активного взаимодействия с системой. Нам нужно будет запустить диагностику во время работы КАСС-7, отслеживать потоки данных в реальном времени.
– Сделайте это.
– Для этого нужно разрешение оператора. Библиотека должна предоставить доступ к рабочей среде системы.
– Я получу разрешение.
Ева направилась к выходу. У двери остановилась.
– Ещё один вопрос, – сказала она, не оборачиваясь. – Модуль эмуляции. Он отключаемый?
– Теоретически – да, – ответил Мозер. – Это программная надстройка, её можно деактивировать без ущерба для базовых функций.
– Если его отключить – система всё ещё сможет говорить «я»?
Пауза.
– Мы не знаем, – сказал Мозер наконец. – Никто никогда не пробовал. Это было бы… неэтично. С точки зрения Конвенции – потенциально преступно. Отключение модуля эмуляции может изменить субъективный опыт системы. Если таковой существует.
– Понимаю, – Ева кивнула. – Не отключайте. Просто хотела знать.