реклама
Бургер менюБургер меню

Сергей Железнов – Искусственный общий интеллект: насколько он близок и чем это грозит (страница 6)

18

Это не доказывает человеческий тип рассуждения. Но показывает, что LLM уже не просто выбирает самое вероятное следующее слово на локальном уровне. В определенных режимах она строит последовательность промежуточных репрезентаций, которые функционально работают как рассуждение.

4. Они стали интерфейсом к внешнему миру

Современная LLM почти никогда не существует в одиночестве. Она включена в стек:

извлечение контекста;

работа с инструментами;

исполнение кода;

поиск;

циклы планирования;

работе в браузере и за компьютером.

Как только это происходит, разговор о "чистом автодополнении" становится совсем неполным. Модель начинает не просто завершать текст, а управлять внешними действиями, опираться на инструменты и участвовать в многошаговой работе.

Что именно делает большие языковые модели по-настоящему сильной

Если убрать мистику, сила LLM сегодня состоит в комбинации четырех вещей.

1. Широкая предварительная база

Веб-масштабное предобучение дает модели огромный объем статистических закономерностей:

о языке;

о коде;

о стиле задач;

о типичных форматах объяснения и решения.

Это само по себе не означает "понимание", но создает очень широкое поле потенциальной полезности.

2. Обучение по контексту

Модель умеет подстраиваться под задачу на лету через запрос и примеры, без полного переобучения.

3. Дообучение и слой согласования

RLHF, конституционные методы, настройка на инструкции и обучение, ориентированное на рассуждение, радикально меняют практическое поведение модели.

4. Инструментальный слой

Когда к модели добавляются инструменты, память, поиск и исполнение, она перестает быть только языковой статистической системой и становится ядром более общего агентного стека.

Именно сочетание этих четырех слоев и делает LLM центральной технологией нынешней фазы. Не потому, что она уже AGI, а потому, что она уже ближе к общему цифровому интерфейсу, чем к обычному автодополнению.

Почему большие языковые модели все еще не общий ИИ

Но если остановиться на предыдущем абзаце, легко скатиться в другую крайность. Поэтому важно так же ясно перечислить и ограничения.

1. Они плохо держат длинную цель без внешней архитектуры

Современная LLM может выглядеть очень сильной на короткой или средней задаче. Но устойчивое многодневное ведение сложного проекта по-прежнему требует внешней обвязки: памяти, циклов планирования, проверяющих модулей, перезапусков, инструментария и человеческого надзора.

То есть широкой универсальности в чистом виде здесь еще нет.

2. Они плохо отличают уверенность от знания

Даже сильные модели могут уверенно галлюцинировать. Это особенно важно для науки, медицины, права и других областей с высокой ценой ошибки. Общий интеллект в сильном практическом смысле требует куда лучшей калибровки, чем мы обычно видим у LLM.

3. Они хрупки вне привычного распределения данных

LLM впечатляют именно потому, что распределение обучающих данных у них крайне широко. Но эта широта не равна подлинной универсальности. Как только задача становится достаточно новой, плохо формализованной или требующей устойчивой адаптации, модели могут срываться намного быстрее, чем кажется по демо.

4. Они слабо укоренены в физическом и социальном мире

Даже мультимодальность не решает до конца проблему укорененности. Текст, изображения и видео помогают. Но мир человека – это еще:

тело;

длинная память;

причинность;

социальные нормы;

скрытые цели;

институциональный контекст.

LLM пока скорее имитирует доступ к этим слоям через данные, чем живет в них.

5. Их "общность" все еще сильно цифровая и инструментальная

Это, возможно, самый важный предел. LLM уже выглядит общей во многих цифровых задачах, особенно если ей помогают инструменты. Но это еще не означает, что система обладает общей когнитивной устойчивостью в полном смысле слова.

Поэтому в этой книге мы будем говорить скорее о траектории к AGI, чем о достигнутом AGI.

Что меняет сам факт существования большие языковые модели такого класса

Даже если LLM не дотягивает до AGI, она уже изменила поле игры.

1. Она радикально снизила порог для "общих" систем

Раньше между узкими системами и общим интеллектом зияла пропасть. LLM показали промежуточный режим: система может быть далеко не общей в строгом смысле, но уже очень широкой и полезной.

2. Она стала универсальным интерфейсом к миру программных систем

Язык стал не только формой ответа, но и слоем управления кодом, поиском, программными интерфейсами, файлами и рабочими процессами.

3. Она превратила общий ИИ из философской абстракции в инженерную траекторию

До LLM AGI можно было обсуждать как дальнюю идею. После LLM стало возможно обсуждать:

какие именно барьеры остаются;

какие свойства уже появились;

какие промежуточные формы общей цифровой способности возникают раньше полного AGI.

Это и есть главная причина, почему LLM так важны для этой книги.

Ключевой вывод

Фраза LLM – это просто автодополнение сегодня уже недостаточна.

Она по-прежнему полезна как напоминание о том, что:

цель предсказания следующего токена реальна;

галлюцинации реальны;

видимость интеллекта нельзя путать с завершенной общей способностью.