Сергей Железнов – Искусственный общий интеллект: насколько он близок и чем это грозит (страница 1)
Сергей Железнов
Искусственный общий интеллект: насколько он близок и чем это грозит
Пролог
Март 2026: момент, когда модели вышли из окна чата
Если через несколько лет придется назвать короткий отрезок времени, когда разговор об AGI окончательно вышел из режима интеллектуальной экзотики и стал разговором о рабочей среде, инфраструктуре и риске, то таким отрезком вполне может оказаться промежуток между 2 февраля и 5 марта 2026 года.
Не потому, что в эти недели кто-то предъявил готовый AGI. Не потому, что одна компания внезапно решила старый философский спор. А потому, что именно в этот месяц стало особенно трудно делать вид, будто передовые модели по-прежнему остаются просто очень хорошими собеседниками.
На наших глазах они начали закрепляться в другой роли: не той, что отвечает в окне чата, а той, что работает за компьютером.
2 февраля 2026 года OpenAI представила приложение Codex, которое компания описывает как центр управления агентами: интерфейс для управления несколькими агентами сразу, параллельной работы и длинных задач, которые могут идти часами, днями и даже неделями. Сам по себе этот сдвиг уже показателен. Еще недавно базовой единицей взаимодействия с ИИ была одна сессия, один запрос, одно окно. Теперь ставка делается на оркестрацию нескольких веток работы, на делегирование, на длинный цикл исполнения.
3 февраля 2026 года Apple объявила, что Xcode 26.3 поддерживает агентное программирование и позволяет использовать в среде разработки агентов вроде Anthropic Claude Agent и OpenAI Codex. Это уже не просто красивая интеграция. Когда один из главных мировых инструментов разработки встраивает агентное программирование в основной рабочий контур, это означает, что идея вышла из режима лабораторного эксперимента. Она стала кандидатом на новый нормальный способ работы.
Через два дня, 5 февраля 2026 года, OpenAI выпустила GPT-5.3-Codex, назвав его самой сильной на тот момент агентной моделью для программирования. В анонсе модель описывается уже не как узкий механизм автодополнения, а как система для долгих задач, сочетающих исследование, работу с инструментами и исполнение. Важно и то, как компания говорит о собственной внутренней практике: ранние версии модели, по словам OpenAI, использовались для отладки обучения, диагностики развертываний и анализа оценок. Даже если читать эти утверждения осторожно и не забывать о маркетинговом слое, направление движения ясно: модели начинают участвовать не только в пользовательской работе, но и в создании, проверке и сопровождении самих ИИ-систем.
В тот же день Anthropic вывела Claude Opus 4.6, позиционируя его как модель для профессиональной разработки ПО, сложных агентных процессов и корпоративных задач с высокой ценой ошибки. Это важно не потому, что еще одна компания объявила свой продукт самым сильным. Важнее другое: несколько ведущих игроков почти одновременно пришли к одной и той же ставке. Следующий рубеж конкуренции лежит не в том, чтобы модель звучала умнее в диалоге, а в том, чтобы она могла дольше, надежнее и самостоятельнее работать в реальных вычислительных и офисных средах.
17 февраля 2026 года Anthropic представила Claude Sonnet 4.6, уже открыто связывая прогресс не только с программированием, но и с работой за компьютером, агентным планированием, длинным контекстом и работой в средах вроде браузера, офисных приложений и редакторов кода. Компания прямо пишет, что пользователи видят в ряде задач возможности человеческого уровня, например при навигации по сложной таблице или заполнении многошаговой веб-формы. Эти заявления нельзя принимать как доказательство AGI. Их и не нужно так читать. Важно другое: сами сценарии, которые еще недавно были поводом для исследовательской демонстрации, стали предметом открытой продуктовой конкуренции.
В этот же день Alibaba выпустила Qwen3.5, описав модель как шаг к нативным мультимодальным агентам. Этот релиз важен по другой причине. Он показывает, что к 2026 году разговор об AGI уже нельзя честно вести как историю нескольких американских лабораторий. Китай больше нельзя описывать как внешнего наблюдателя или запаздывающего догоняющего. Он стал самостоятельным игроком на переднем крае, особенно там, где важны модели с открытыми весами, инфраструктурная эффективность и быстрая диффузия моделей среди разработчиков.
Эту линию хорошо видно и по DeepSeek. На публичном сайте компании в марте 2026 года DeepSeek-V3.2 описывается как модель рассуждения, изначально рассчитанная на агентную работу, а в документации релиза отдельно подчеркиваются мышление в связке с инструментами и масштабный синтез агентных данных. Другими словами, на первый план выходит уже не просто языковая беглость и даже не абстрактная способность к рассуждению, а умение модели мыслить в связке с инструментами, интерфейсами, окружением и длинной цепочкой промежуточных состояний.
Наконец, 5 марта 2026 года OpenAI выпустила GPT-5.4, объединив в одной системе рассуждение, программирование и агентные рабочие процессы для профессиональной работы. Один такой релиз еще можно было бы считать частью привычного цикла анонсов. Но когда за месяц складывается слишком последовательная картина – OpenAI, Anthropic, Apple, Alibaba, DeepSeek, общий сдвиг в сторону работы за компьютером, агентного программирования и рабочих агентных систем, – становится трудно считать это просто маркетинговым шумом. Перед нами не случайность, а структурный поворот.
И именно здесь особенно важно не перепутать ускорение с завершением пути.
Если читать только пресс-релизы и победные посты компаний, легко решить, что AGI уже почти у порога. Но независимые данные рисуют более трезвую картину. В 2025 году исследователи из METR предложили один из самых полезных способов смотреть на реальный прогресс: измерять не впечатляющие единичные ответы, а длину задач, которые модель способна завершить с приемлемой вероятностью. Их вывод одновременно впечатляет и отрезвляет. Горизонт задач у лучших систем растет очень быстро. Но между задачами на минуты и задачи на многие часы по-прежнему лежит жесткий разрыв надежности.
Поэтому вопрос этой книги нельзя формулировать грубо: Есть уже AGI или нет? Такой вопрос слишком примитивен и почти бесполезен. Намного полезнее другой вопрос: по каким признакам можно оценивать дистанцию до AGI, не поддаваясь ни хайпу, ни самоуспокоению?
Это и есть центральная задача книги.
Нас будет интересовать не то, какая компания выиграла неделю новостей. Нас будет интересовать, что именно должно произойти, чтобы разговор об AGI стал не метафорой, а точным описанием новой технической реальности. Для этого придется жестко развести несколько вещей, которые публичная дискуссия почти всегда смешивает:
языковую впечатляющесть и устойчивую автономную способность;
бенчмарк-лидерство и работу в реальном мире;
работа за компьютером и общий интеллект;
умение писать код и умение вести длинные исследовательские или организационные процессы;
рост возможностей и рост управляемости;
AGI и ASI.
Эта книга исходит из простой, но неудобной позиции. Мы не знаем, насколько близок AGI. Но мы уже знаем достаточно, чтобы перестать говорить о нем как о фантастике. Технологическая база для следующего скачка уже собирается на наших глазах: модели рассуждения, длинный контекст, инструменты, агенты, мультимодальность, работа за компьютером, робототехнические интерфейсы, ускорение инфраструктурной гонки и новая геополитика вычислений, энергии и цепочек поставок.
Вот почему тему AGI больше нельзя отдавать ни футурологам, ни маркетологам. Она стала вопросом инженерии, экономики, безопасности и государственного масштаба.
Если передовая модель умеет не просто отвечать, а планировать, искать, читать документацию, менять код, открывать интерфейсы, пользоваться инструментами, удерживать длинный контекст и постепенно приближаться к цели, то главный спор идет уже не о том, "умная" ли она. Главный спор идет о другом: какой именно барьер остается между такими системами и тем, что разумно назвать общим интеллектом.
Этот барьер может оказаться больше, чем кажется из коротких демо. Возможно, модели все еще слишком хрупки, слишком зависимы от среды, слишком ненадежны на длинных горизонтах, слишком легко сбиваются, слишком плохо держат собственные цели и слишком легко поддаются внешним воздействиям. Но возможно и другое: часть этих барьеров уже не фундаментальна, а инженерна. А инженерные барьеры плохи тем, что однажды они просто перестают быть барьерами.
Поэтому главный вопрос этой книги будет не верите ли вы в AGI. Главный вопрос будет другим: какие сигналы действительно означают приближение AGI, какие только имитируют его, и чем для общества будет стоить ошибка в обе стороны.
Ошибка в сторону паники опасна. Ошибка в сторону недооценки может оказаться исторически дороже.
Глава 1. После чатбота: почему вопрос об общем ИИ снова серьезен
Еще совсем недавно спор об AGI можно было отодвинуть без большого интеллектуального ущерба. Да, отдельные исследователи, предприниматели и инвесторы говорили о нем громко, но для большинства наблюдателей эта тема оставалась смесью философии, научной фантастики и привычно ранних обещаний.