Сергей Железнов – Искусственный общий интеллект: насколько он близок и чем это грозит (страница 3)
Риск-линия
По мере роста возможностей растут и потенциальные классы вреда:
киберриски;
злоупотребления в биологии;
агентное рассогласование;
проблемы контроля над все более автономными системами.
Даже если AGI еще не достигнут, сама траектория к нему уже порождает достаточно мощные промежуточные риски, чтобы вопрос нельзя было откладывать.
Но почему именно общий ИИ, а не просто "сильный ИИ"?
Это правильное возражение. Слово AGI перегружено, спорно и слишком легко превращается в миф. Возникает соблазн вообще отказаться от него и говорить только о сильном ИИ или очень мощных моделях.
Но полностью отказаться от этого слова тоже нельзя.
Проблема в том, что выражения вроде сильная модель или продвинутый помощник уже плохо захватывают происходящее. Они не описывают переход от узких систем к системам общего цифрового назначения, которые постепенно закрывают все больше признаков общего интеллекта в разных средах и ролях.
Поэтому слово AGI остается полезным не как магическая метка, а как название траектории. Мы наблюдаем движение не просто к более сильным чатботам, а к системам, которые шаг за шагом становятся общими, агентными и все более значимыми для реального мира.
Именно в этом смысле вопрос об AGI снова серьезен.
Главный вывод главы
На март 2026 года было бы неверно говорить: AGI уже здесь. Но столь же неверно делать вид, что об этом еще рано думать.
Точнее так:
тема AGI перестала быть пустой спекуляцией, потому что технологическая траектория уже породила слишком много независимых, проверяемых и экономически значимых признаков движения к более общим системам.
Серьезность вопроса определяется не одним чудом, а несколькими совпавшими обстоятельствами:
модели стали действовать, а не только говорить;
рассуждение, инструменты и агенты вошли в основной стек;
модели с открытыми весами и китайский передний край ускорили диффузию;
рынок труда и инфраструктура уже реагируют;
а риски управления системами больше нельзя считать чисто гипотетическими.
Дальше в книге нас будет интересовать уже не вопрос верите ли вы в AGI, а более точный вопрос: по каким признакам можно отличить реальное приближение AGI от очередной волны впечатления.
Что важно запомнить
В 2026 году вопрос об AGI серьезен не потому, что AGI доказан, а потому, что изменилась сама траектория передового ИИ.
Главный сдвиг – переход моделей от ответа к действию.
Серьезность темы создается сходимостью нескольких линий: рассуждения, агентов, работы с инструментами, длинного контекста, открытой диффузии и промышленного наращивания инфраструктуры.
Вопрос уже вышел за пределы лабораторий и стал экономической, инфраструктурной и политической темой.
Это еще не доказательство AGI, но уже и не спекуляция на пустом месте.
Глава 2. Что мы вообще называем общим ИИ
Одна из причин, по которым спор об AGI так быстро скатывается в шум, заключается в очень простой вещи: люди используют одно и то же слово для обозначения разных объектов.
Для одних AGI – это машина, которая умеет делать почти все, что умеет человек.
Для других – система, которая может решать широкий круг задач лучше среднего профессионала.
Для третьих – уже почти синоним сознательной машины.
Для четвертых – просто маркетинговый ярлык для очень сильной модели.
Если не развести эти значения в начале, весь дальнейший разговор будет путаться.
Почему с определением так трудно
Проблема начинается с самого слова интеллект.
Шейн Легг и Маркус Хаттер еще в 2007 году писали, что никто толком не знает, что такое интеллект, особенно когда речь идет о системах, радикально отличных от человека. Их попытка дать формальное определение машинного интеллекта была важна именно потому, что она показала масштаб проблемы: как только мы переходим от повседневного употребления слова к строгой формулировке, оказывается, что в дело вмешиваются:
среда;
объем доступного опыта;
способность к обучению;
ширина задач;
эффективность освоения новых задач.
Франсуа Шолле в 2019 году усилил эту мысль еще жестче. Он предложил понимать интеллект не как сумму навыков, а как эффективность приобретения навыков в новых задачах при ограниченном опыте. Это полезный поворот, потому что он сразу выбивает из разговора одну популярную ловушку: систему нельзя считать общей только потому, что она демонстрирует много уже накопленных умений.
Именно отсюда возникает главная трудность с AGI. Нам нужно определить не просто "очень сильную систему", а систему, которая:
работает в широком наборе задач;
переносит навыки в новые условия;
не требует полного переобучения под каждую новую цель;
может действовать в среде, а не только отвечать на вопросы;
и делает все это с приемлемой надежностью.
Бесполезные определения общий ИИ
Прежде чем предложить рабочую рамку, полезно назвать формулировки, которые звучат красиво, но аналитически мало помогают.
1. "общий ИИ – это все, что умнее человека"
Это слишком широкая формула. Она не различает:
общность и сверхинтеллект;
узкое превосходство и широкую универсальность;
интеллект как способность действовать и интеллект как абстрактную мощность.
Если так определять AGI, мы очень быстро смешаем его с ASI и потеряем полезность термина.
2. "общий ИИ – это система, которая умеет абсолютно все"
Это определение слишком жесткое. Если понимать его буквально, AGI окажется недостижимым или почти пустым понятием. Любая реальная система будет иметь ограничения, специализацию и границы доменов. Но это не значит, что она не может быть достаточно общей, чтобы радикально изменить экономику и безопасность.
3. "общий ИИ – это сознательная машина"
Это определение хуже всего подходит для практического анализа. Вопрос о сознании сложен сам по себе, а для оценки технологической траектории он почти всегда создает больше тумана, чем ясности. Машина может быть очень опасной, очень полезной и очень общей по функциям, оставаясь при этом бездоказательно несознательной.
4. "общий ИИ – это просто очень хороший большие языковые модели"