реклама
Бургер менюБургер меню

Сергей Железнов – Искусственный общий интеллект: насколько он близок и чем это грозит (страница 3)

18

Риск-линия

По мере роста возможностей растут и потенциальные классы вреда:

киберриски;

злоупотребления в биологии;

агентное рассогласование;

проблемы контроля над все более автономными системами.

Даже если AGI еще не достигнут, сама траектория к нему уже порождает достаточно мощные промежуточные риски, чтобы вопрос нельзя было откладывать.

Но почему именно общий ИИ, а не просто "сильный ИИ"?

Это правильное возражение. Слово AGI перегружено, спорно и слишком легко превращается в миф. Возникает соблазн вообще отказаться от него и говорить только о сильном ИИ или очень мощных моделях.

Но полностью отказаться от этого слова тоже нельзя.

Проблема в том, что выражения вроде сильная модель или продвинутый помощник уже плохо захватывают происходящее. Они не описывают переход от узких систем к системам общего цифрового назначения, которые постепенно закрывают все больше признаков общего интеллекта в разных средах и ролях.

Поэтому слово AGI остается полезным не как магическая метка, а как название траектории. Мы наблюдаем движение не просто к более сильным чатботам, а к системам, которые шаг за шагом становятся общими, агентными и все более значимыми для реального мира.

Именно в этом смысле вопрос об AGI снова серьезен.

Главный вывод главы

На март 2026 года было бы неверно говорить: AGI уже здесь. Но столь же неверно делать вид, что об этом еще рано думать.

Точнее так:

тема AGI перестала быть пустой спекуляцией, потому что технологическая траектория уже породила слишком много независимых, проверяемых и экономически значимых признаков движения к более общим системам.

Серьезность вопроса определяется не одним чудом, а несколькими совпавшими обстоятельствами:

модели стали действовать, а не только говорить;

рассуждение, инструменты и агенты вошли в основной стек;

модели с открытыми весами и китайский передний край ускорили диффузию;

рынок труда и инфраструктура уже реагируют;

а риски управления системами больше нельзя считать чисто гипотетическими.

Дальше в книге нас будет интересовать уже не вопрос верите ли вы в AGI, а более точный вопрос: по каким признакам можно отличить реальное приближение AGI от очередной волны впечатления.

Что важно запомнить

В 2026 году вопрос об AGI серьезен не потому, что AGI доказан, а потому, что изменилась сама траектория передового ИИ.

Главный сдвиг – переход моделей от ответа к действию.

Серьезность темы создается сходимостью нескольких линий: рассуждения, агентов, работы с инструментами, длинного контекста, открытой диффузии и промышленного наращивания инфраструктуры.

Вопрос уже вышел за пределы лабораторий и стал экономической, инфраструктурной и политической темой.

Это еще не доказательство AGI, но уже и не спекуляция на пустом месте.

Глава 2. Что мы вообще называем общим ИИ

Одна из причин, по которым спор об AGI так быстро скатывается в шум, заключается в очень простой вещи: люди используют одно и то же слово для обозначения разных объектов.

Для одних AGI – это машина, которая умеет делать почти все, что умеет человек.

Для других – система, которая может решать широкий круг задач лучше среднего профессионала.

Для третьих – уже почти синоним сознательной машины.

Для четвертых – просто маркетинговый ярлык для очень сильной модели.

Если не развести эти значения в начале, весь дальнейший разговор будет путаться.

Почему с определением так трудно

Проблема начинается с самого слова интеллект.

Шейн Легг и Маркус Хаттер еще в 2007 году писали, что никто толком не знает, что такое интеллект, особенно когда речь идет о системах, радикально отличных от человека. Их попытка дать формальное определение машинного интеллекта была важна именно потому, что она показала масштаб проблемы: как только мы переходим от повседневного употребления слова к строгой формулировке, оказывается, что в дело вмешиваются:

среда;

объем доступного опыта;

способность к обучению;

ширина задач;

эффективность освоения новых задач.

Франсуа Шолле в 2019 году усилил эту мысль еще жестче. Он предложил понимать интеллект не как сумму навыков, а как эффективность приобретения навыков в новых задачах при ограниченном опыте. Это полезный поворот, потому что он сразу выбивает из разговора одну популярную ловушку: систему нельзя считать общей только потому, что она демонстрирует много уже накопленных умений.

Именно отсюда возникает главная трудность с AGI. Нам нужно определить не просто "очень сильную систему", а систему, которая:

работает в широком наборе задач;

переносит навыки в новые условия;

не требует полного переобучения под каждую новую цель;

может действовать в среде, а не только отвечать на вопросы;

и делает все это с приемлемой надежностью.

Бесполезные определения общий ИИ

Прежде чем предложить рабочую рамку, полезно назвать формулировки, которые звучат красиво, но аналитически мало помогают.

1. "общий ИИ – это все, что умнее человека"

Это слишком широкая формула. Она не различает:

общность и сверхинтеллект;

узкое превосходство и широкую универсальность;

интеллект как способность действовать и интеллект как абстрактную мощность.

Если так определять AGI, мы очень быстро смешаем его с ASI и потеряем полезность термина.

2. "общий ИИ – это система, которая умеет абсолютно все"

Это определение слишком жесткое. Если понимать его буквально, AGI окажется недостижимым или почти пустым понятием. Любая реальная система будет иметь ограничения, специализацию и границы доменов. Но это не значит, что она не может быть достаточно общей, чтобы радикально изменить экономику и безопасность.

3. "общий ИИ – это сознательная машина"

Это определение хуже всего подходит для практического анализа. Вопрос о сознании сложен сам по себе, а для оценки технологической траектории он почти всегда создает больше тумана, чем ясности. Машина может быть очень опасной, очень полезной и очень общей по функциям, оставаясь при этом бездоказательно несознательной.

4. "общий ИИ – это просто очень хороший большие языковые модели"