реклама
Бургер менюБургер меню

Сергей Железнов – Искусственный общий интеллект: насколько он близок и чем это грозит (страница 5)

18

о цифровой среде?

Без этих уточнений слово AGI слишком легко превращается в риторический контейнер для несовместимых ожиданий.

Почему для политики и безопасности нужен именно рабочий, а не идеальный термин

Можно возразить: если определение так спорно, может быть, лучше вообще отказаться от термина AGI?

Это привлекательная идея, но у нее есть недостаток. Без такого термина мы рискуем потерять язык для описания систем, которые уже не укладываются в категорию узкого ИИ, но еще не стали сверхинтеллектом.

Политика, регулирование и безопасность не могут ждать философского консенсуса. Им нужен рабочий язык заранее.

Поэтому разумнее не выкидывать термин, а дисциплинировать его употребление:

не путать AGI и ASI;

не смешивать цифровую общность и интеллект, действующий в физическом мире;

не использовать сознание как обязательный критерий;

не объявлять AGI по одному демо или бенчмарку.

Что из этого следует

Слово AGI полезно только в том случае, если мы используем его строго.

Для этой книги AGI – это не:

магическое пробуждение машины;

абсолютная универсальность без границ;

синоним сознания;

синоним сверхинтеллекта.

Для этой книги AGI – это достаточно общая, надежная и переносимая система общего назначения, которая может работать в широком диапазоне задач и сред без полной ручной перенастройки под каждый новый класс проблем.

Это определение не закрывает философские споры. Но оно делает возможным то, ради чего и пишется эта книга: трезво оценивать расстояние до реального технического и социального перелома.

Что важно запомнить

Главная проблема слова AGI в том, что им называют слишком разные вещи.

Полезное определение должно учитывать ширину, перенос, автономность, надежность и среду.

AGI не равен ASI.

AGI не обязан предполагать сознание.

AGI может сначала проявиться как цифровой, а не воплощенный в физическом мире интеллект.

Для этой книги важна рабочая, а не метафизически идеальная дефиниция.

Глава 3. Почему большие языковые модели – это еще не общий ИИ, но уже не автодополнение

Фраза LLM – это просто автодополнение долгое время выполняла полезную функцию. Она напоминала: не нужно путать уверенный текст с реальным пониманием, а впечатляющий интерфейс – с общим интеллектом.

Проблема в том, что в 2026 году эта формула уже стала слишком грубой.

Да, большие языковые модели по-прежнему обучаются на следующем токене.

Да, значительная часть их мощности рождается из статистической структуры данных и масштаба обучения.

Да, они остаются хрупкими, склонными к галлюцинациям и сильно зависят от распределения обучающих данных.

Но из этого уже не следует, что они "всего лишь автодополнение" в бытовом смысле. Слишком многое изменилось.

Чтобы трезво оценивать расстояние до AGI, нужно удерживать сразу две мысли:

LLM еще не являются общим интеллектом;

но они уже представляют собой нечто существенно более сильное, чем простая модель продолжения текста.

Почему тезис про автодополнение когда-то был полезен

Он был полезен как противоядие против магии.

Когда ChatGPT и его ближайшие родственники впервые массово вышли к пользователю, огромное количество людей увидело в них почти готовую разумную сущность. На этом фоне напоминание о предсказании следующего токена играло важную очищающую роль. Оно возвращало разговор к тому, что модель:

не обладает встроенным понятийным миром в человеческом смысле;

не гарантирует истинность ответа;

не имеет устойчивой цели сама по себе;

не понимает мир так, как понимает его человек, выросший в теле, обществе и длинной истории опыта.

Это все по-прежнему важно.

Но как аналитическая формула для 2026 года выражение просто автодополнение уже ломается, потому что не объясняет реальное поведение сильных LLM.

Где именно большие языковые модели выходят за пределы "обычного автодополнения"

1. Они осваивают задачу по контексту, а не только продолжают фразу

В своей работе 2020 года OpenAI показала, что большие модели начинают решать новые задачи по нескольким примерам или по одной инструкционной рамке, без отдельного дообучения под каждую задачу.

Это уже не похоже на привычное автодополнение в духе клавиатуры смартфона. Смартфон дописывает следующее слово. Большая модель:

извлекает структуру задачи из запроса;

угадывает режим работы;

адаптируется к формату;

и пытается решить то, что до этого явно не было задано как отдельная "программа".

Именно это и делает LLM странным гибридом: формально это предсказатель следующего токена, а на практике – система, способная к ограниченному обучению по контексту задачи.

2. Масштаб дал не только беглость, но и перенос

Когда в 2023 году вышел GPT-4, стало очевидно, что рост масштаба и постобучение способны давать не просто более беглый текст, а заметный прирост по:

математике;

коду;

юридическим и медицинским задачам;

длинным инструкциям;

задачам, где требуется комбинировать знания и рассуждение.

Работа команды Microsoft Research пошла еще дальше и утверждала, что GPT-4 можно разумно рассматривать как раннюю и неполную форму более общего интеллекта, чем у прежних систем. С этим тезисом можно спорить, и в книге мы еще не раз будем обсуждать его ограничения. Но сам факт появления такого текста показателен: даже исследователи, хорошо понимающие природу LLM, увидели в новом поколении систем уже нечто большее, чем статистический языковой фокус.

3. Они умеют разбивать задачу на шаги

Работа о цепочке рассуждений показала, что при достаточном масштабе модели начинают выигрывать от промежуточных рассуждений и демонстрируют новые уровни решения сложных задач, если им дать или позволить сгенерировать цепочку мысли.