реклама
Бургер менюБургер меню

Евгений Ожев – Ваш карманный генИИ (страница 2)

18

Через час ИИ выдал гладкий, но абсолютно пустой текст, полный клише: «синергия», «окосистема», «революционный подход». Презентация провалилась. Инвесторы сказали: «Мы не поняли, что вы продаёте». Контракт на $20 000 сорвался.

В чём ошибка Анны?

Она думала, что ИИ читает как человек. Она не знала, что её 15 страниц превратились для модели в 14 000 токенов – и к моменту, когда ИИ дошёл до конца документа, он уже забыл начало. Он не анализировал стратегию – он генерировал «самые вероятные следующие слова» на основе шаблонов из тысяч похожих документов.

Что такое токены в 2026 году?

Забудьте слово «слово». Для ИИ его не существует. Есть токены – атомы смысла, на которые модель разбивает текст. Это не просто слоги – это фрагменты, которые статистически связаны.

Ваше предложение: «Нейросеть обработала запрос»

Для GPT-4: ["Нейро", "сеть", "обработала", "запрос"] – 4 токена.

Для Claude 3: ["Нейросеть", "обработала", "запрос"] – 3 токена.

Разные модели токенизируют по-разному. Но принцип везде один: чем длиннее ваш запрос в токенах, тем больше вы платите (деньгами или временем) и тем хуже ИИ понимает контекст.

Почему русский язык всё ещё «дорогой»?

Английский язык эффективен. Слово "transformer" – 1 токен. Русский флективный, и одно слово может разбиться на несколько токенов: «преобразование» → ["пре", "образ", "ование"] (3 токена). Это значит, что на русском вы быстрее упираетесь в лимиты контекстного окна и платите больше за генерацию.

ПРАКТИКУМ 1.1: Диагностика токен-расточительства 2026

Откройте Tokenizer от OpenAI или аналог от Anthropic.

Вставьте свой последний сложный запрос к ИИ.

Посмотрите, как он разбивается на токены.

Задание: Перепишите запрос, сократив количество токенов на 30%.

Пример перевода с человеческого на машинный:

Было (45 токенов):

«Привет! Я готовлюсь к важному собеседованию на позицию старшего- разработчика. Мне нужно произвести впечатление на технического директора. Помоги, пожалуйста, составить ответы на возможные вопросы про архитектуру микросервисов, потому что это моя слабая сторона, и я очень волнуюсь».

Стало (18 токенов):

«Роль: старший-разработчик на собеседовании. Задача: подготовить уверенные ответы про архитектуру микросервисов. Формат: вопрос → краткий ответ (2 предложения) + пример из опыта. Темы: декомпозиция, коммуникация сервисов, отказоустойчивость».

Инсайт:

Каждый раз, когда вы пишете ИИ «Привет, как дела?» или «Пожалуйста, будь добр…», вы тратите драгоценные токены из его контекстного окна. Вы буквально платите за вежливость тем, что к концу запроса он уже забывает, чего вы хотели.

История- кейс 2: «Как 300 токенов увеличили конверсию в 5 раз»

SMM- специалист Даниил вместо запроса «Напиши продающий пост про новый курс по Науке о данных» использовал структурированный промпт:

«Аудитория: менеджеры 25–35 лет. Боль: хотят сменить карьеру, но боятся математики. Решение: курс Наука о данных без сложной математики. Доказательства: 1500 учеников, 3. Призыв на вебинар. Тон: дружеский, без жаргона. Наличие эмодзи»

Результат: конверсия выросла с 2% до 10%. Потому что ИИ не тратил силы на расшифровку – он получил чёткий чертёж.

Вывод главы:

Вы не общаетесь. Вы программируете. Каждое ваше слово – строка кода. Многословный, эмоциональный код – это плохой код. Ваша задача – писать на языке машинной эффективности.

Домашнее задание:

Проанализируйте свои 5 последних запросов к ИИ через токенайзер.

Перепишите самый длинный из них, сократив токены на 40%.

Сравните ответы ИИ на старый и новый запрос.

ГЛАВА 2: КОНТЕКСТНОЕ ОКНО: ПАМЯТЬ, КОТОРАЯ СТАЛА БЕЗГРАНИЧНОЙ (НО НЕ ВСЕГДА)

История-кейс: «Юрист, который доверил ИИ дело на 200 страниц»

Юрист Михаил загрузил в Claude 3 полное дело по арбитражному спору (200 страниц PDF) и попросил: «Проанализируй и выдели слабые места позиции истца». ИИ выдал подробный разбор, но пропустил ключевой документ – допсоглашение, которое меняло всё. Почему? Документ был на странице 180, а к моменту его обработки «внимание» модели уже было перегружено. Хотя технически контекстное окно позволяло загрузить весь текст, эффективная память модели оказалась короче.

Что такое контекстное окно в 2026?

Это оперативная память ИИ. Не жёсткий диск. У современных моделей (GPT- 4 Turbo, Claude 3, Gemini 1.5) окно достигает 128K- 1M токенов. Это 300- 2500 страниц текста. Но есть нюанс: чем дальше информация от «центра внимания», тем хуже модель её помнит.

Простая аналогия:

У вас есть стол (контекстное окно). Вы кладёте на него инструкцию по сборке самолёта (ваш промпт). Но пока вы собираете, вам нужно класть детали, инструменты, кофе. Стол огромный, но самые важные детали должны лежать прямо перед вами. Если инструкция окажется в дальнем углу, вы её не увидите.

ПРАКТИКУМ 2.1: Эксперимент «Исчезновение в 128K»

Откройте новый чат с моделью, поддерживающей длинный контекст (Claude 3, GPT-4 Turbo).

Дайте строгую команду: «Запомни: во всех следующих сообщениях заменяй слово "компания" на "академия". Правило №1».

Теперь заполняйте окно: загрузите длинный документ (например, статью на 20 страниц). Попросите краткое содержание. Обсудите детали.

Через 15-20 сообщений спросите: «Какое было правило №1?»

Результат в 70% случаев: ИИ забудет или потеряет фокус ответа на первоначально заданный параметр. Ваша инструкция была вытеснена.

Методы управления вниманием:

Метод «Повторения мантры»: Каждые 10–15 сообщений явно повторяйте ключевую инструкцию.

Метод «Резюме в потоке»: Периодически просите: «Резюмируй нашу беседу в 5 пунктах, сохранив все инструкции».

Метод «Ленивой загрузки»: Не загружайте всё сразу. Давайте информацию порциями, каждый раз напоминая контекст.

Инсайт:

Длинное контекстное окно – это не подарок, а испытание. Чем больше информации вы даёте модели, тем больше шанс, что она утонет в деталях. Ваша задача – быть диспетчером внимания, а не свалкой данных.

История-кейс 3: «Как научный сотрудник анализирует 50 статей за день»

Елена, биоинформатик, использует Claude 3 для анализа научных статей. Она не скидывает все PDF в чат. Она создаёт конвейер:

Шаг 1: ИИ читает заголовки и аннотации, отбирает релевантные статьи.

Шаг 2: Для каждой статьи ИИ извлекает ключевые методы, результаты, выводы в структурированную таблицу.

Шаг 3: Елена анализирует таблицу и задаёт уточняющие вопросы по самым важным работам.

Таким образом, она использует длинный контекст дозированно, не перегружая модель.

Вывод главы:

Доверять памяти ИИ – всё равно что доверять секрет ветру. Ваша сила – в понимании, что память ИИ избирательна. Вы должны управлять не только тем, что попадает в контекст, но и тем, когда и в каком виде.

Домашнее задание:

Возьмите документ на 10+ страниц.

Загрузите его в ИИ целиком и попросите ответить на конкретный вопрос по содержанию.

Теперь разбейте документ на части, загружайте постепенно и задайте тот же вопрос.

Сравните качество ответов. Зафиксируйте разницу.