Сергей Железнов – Искусственный общий интеллект: насколько он близок и чем это грозит (страница 17)
работу с инструментами и действие в среде;
калибровку;
устойчивость к новым условиям;
способность удерживать цели и план;
управляемость.
Именно эти свойства скажут нам о приближении AGI намного больше, чем спор о субъективном опыте. Сознание может оказаться важным моральным фактом. Но как прибор раннего предупреждения оно почти бесполезно.
Самосознание и модель себя: здесь тоже нужна аккуратность
Иногда вместо слова "сознание" используют слово "самосознание", будто это более техническая и безопасная формулировка. Но и здесь легко спутать разные вещи.
Сильная система вполне может иметь:
модель собственного контекста;
внутреннюю репрезентацию своих ограничений;
способность сообщать о своей уверенности;
полезную метакогницию.
Все это важно. Но ни одно из этих свойств не равно сознанию в сильном философском смысле.
Более того, часть таких свойств мы, вероятно, как раз хотим видеть у сильной системы. Нам выгодно, чтобы она понимала границы своей компетенции, умела останавливаться, корректно сообщала об ошибке и не переоценивала себя. Модель себя и метакогниция могут быть функционально желательными, не требуя из этого никакого вывода о субъективном опыте.
Это принципиальный момент. Если завтра у передовых моделей появится намного более сильная метакогниция, это будет важным практическим событием. Но это все равно не позволит автоматически ответить на философский вопрос о сознании.
Почему для общий ИИ важнее не "сознательна ли машина", а "насколько она обща и управляема"
В контексте всей этой книги правильная рамка выглядит так.
Если в ближайшие годы появится система, которая автономно держит многодневные проекты, переносит навыки между доменами, надежно действует в цифровой среде, ускоряет науку, код и управление и при этом остается плохо контролируемой, для истории будет не так уж важно, успели ли философы договориться, сознательна она или нет.
Это не отменяет интереса к сознанию. Но показывает правильный порядок вопросов. Сначала нужно понять, насколько система обща, автономна, надежна и управляема. И только потом – если вообще будет повод – возвращаться к более тяжелой метафизике.
Я бы сформулировал жестко: сознание – важный философский и будущий этический вопрос, но плохой главный индикатор близости AGI.
Что это меняет
На март 2026 года нет достаточных оснований считать современные системы ИИ сознательными. Это и есть наиболее трезвый вывод из серьезной литературы.
Но из этого не следует, что вопрос навсегда закрыт, что будущие системы не смогут обладать значимыми индикаторами сознания или что тема вообще неважна. Следует другое.
Сегодня не стоит использовать сознание как основной тест AGI. Не стоит путать язык от первого лица с субъективным опытом. И не стоит позволять этой теме затуманивать более срочные вопросы о возможностях систем, рисках и контроле.
Для практического анализа близости AGI важнее смотреть на перенос, автономность, надежность, агентность и управляемость. Вопрос о сознании стоит держать в поле зрения, но не позволять ему захватывать всю карту.
Что важно запомнить
Сознание, самосознание, модель себя и метакогниция – не одно и то же.
Нет достаточных оснований считать нынешние системы ИИ сознательными.
Это не доказывает, что будущие системы не смогут получить соответствующие индикаторы.
Сознание – плохой основной критерий оценки близости AGI.
Для практического анализа важнее рабочие свойства: перенос, автономность, надежность и управляемость.
Глава 9. 2022–2026: как ускорение стало очевидным
Если предыдущие главы были про язык, критерии и типичные ловушки разговора об AGI, то здесь пора выйти из режима определений и посмотреть на саму траекторию. Вопрос уже не в том, как правильно спорить об общем интеллекте, а в том, что именно произошло за несколько последних лет, что заставило этот спор стать практически неизбежным.
Если смотреть на историю нынешней волны ИИ издалека, легко увидеть в ней плавную восходящую линию. В 2022 году появился ChatGPT, потом модели стали умнее, потом они научились видеть, потом рассуждать, потом работать с инструментами, потом пользоваться компьютером. Такая картинка удобна, но она неверна.
На самом деле ускорение с 2022 по начало 2026 года шло не как ровный рост, а как серия ступеней, и каждая из них меняла сам предмет разговора.
Сначала изменился интерфейс.
Потом – уровень компетентности.
Потом – длина контекста и мультимодальность.
Потом – рассуждение.
Потом – агентные рабочие процессы.
Потом – сама структура рынка: в гонку полноценно вошел Китай, а продукты начали встраиваться не в лабораторные демо, а в реальные рабочие среды.
По этой причине 2026 год нельзя понимать как "еще один год прогресса". К этому моменту накопилось достаточно изменений, чтобы разговор об AGI перестал быть чистой спекуляцией. Не потому, что AGI уже достигнут, а потому, что технологическая траектория стала слишком последовательной, слишком многослойной и слишком экономически значимой, чтобы ее можно было списывать на случайные всплески.
Первый перелом: 2022 год сделал ИИ массовым интерфейсом
OpenAI позже сама зафиксировала, что 30 ноября 2022 года ChatGPT был публично запущен как исследовательская предварительная версия на базе GPT-3.5. Этот день важен не тем, что именно тогда "родился" современный ИИ. Все фундаментальные компоненты появились раньше. Важен он другим: впервые модель такого уровня стала массовым пользовательским интерфейсом.
Это был именно интерфейсный шок, а не полноценный скачок возможностей.
До этого сильные модели и исследовательские системы существовали главным образом как сервисы с программным доступом, статьи или демонстрации для ограниченной аудитории. ChatGPT изменил не фундаментальную науку, а социальный режим доступа к ней. Миллионы людей увидели не диаграмму и не бенчмарк, а собеседника, который:
держит контекст;
следует инструкциям;
пишет текст;
объясняет код;
имитирует рассуждение;
выглядит универсальным.
В тот момент рынок и общество еще не понимали, насколько большая часть этого впечатления связана с интерфейсом, а не с полноценным общим интеллектом. Но исторически это уже неважно. С конца 2022 года искусственный интеллект перестал быть темой для специалистов и стал предметом повседневного опыта.
Это был первый шаг к дискуссии об AGI не потому, что ChatGPT был близок к AGI, а потому, что он создал социальную поверхность, на которой следующие скачки стали мгновенно заметны.
Второй перелом: 2023 год показал, что это не только продукт, но и реальный скачок возможностей
Через несколько месяцев после запуска ChatGPT OpenAI представила GPT-4. Это уже был не просто более удобный чатбот. На уровне официальных бенчмарков и прикладных сценариев GPT-4 оказался существенно сильнее GPT-3.5 в сложных задачах, следовании инструкциям и устойчивости на длинных и нюансированных запросах.
Здесь важно не переоценить и не недооценить событие.
С одной стороны, GPT-4 не был AGI. Он по-прежнему страдал от галлюцинаций, неумения надежно планировать длинные цепочки действий и проблем с реальной автономией. С другой стороны, именно GPT-4 сделал очевидным, что переход от одной генеративной модели к другой может давать не косметическое, а качественное изменение полезности.
В сентябре 2023 года OpenAI расширила этот вектор с помощью GPT-4V. Это был важный шаг не потому, что "модель научилась видеть" в абстрактном смысле, а потому, что передовые системы начали становиться по-настоящему мультимодальными. До этого разговор о широкой универсальности можно было отложить ссылкой на то, что система живет в чисто текстовом мире. С мультимодальностью эта отговорка стала слабее.
В том же году в гонку окончательно вошел Google. 6 декабря 2023 года компания представила Gemini как свою "самую мощную и универсальную модель". Это важно прежде всего стратегически. До конца 2023 года еще можно было видеть нынешнюю волну как историю OpenAI плюс догоняющие реакции рынка. После запуска Gemini стало ясно: у гонки будет как минимум несколько равновесных центров силы.
Именно 2023 год дал рынку первый твердый сигнал: генеративный ИИ – это не только новый потребительский интерфейс, но и новая платформа возможностей, которая будет быстро наращивать ширину и глубину.
Третий перелом: 2024 год перевел спор из плоскости "текстового интеллекта" в плоскость длинного контекста, мультимодальности и рассуждения
Если 2023 год показал масштаб скачка, то 2024 год показал направление.
Уже в феврале Google представила Gemini 1.5 с тем, что сама компания назвала прорывом в понимании длинного контекста в разных модальностях. Здесь произошел очень важный сдвиг. До этого многие реальные рабочие ограничения упирались в короткую память модели: длинные документы, большие кодовые базы, видео, массивы переписки, длинные последовательности действий. Gemini 1.5 резко расширил представление о том, сколько материала модель вообще может удерживать в одной задаче.