реклама
Бургер менюБургер меню

Сергей Глебов – DeepSeek для прозы, как писать романы с ИИ (страница 1)

18

Сергей Глебов

DeepSeek для прозы, как писать романы с ИИ

ГЛАВА 1: Что такое контекст 1M токенов и почему это важно

Рад вас видеть, и я — тот самый парень, который заставил нейросеть сгенерировать 500 вариантов убийства в запертой комнате, чтобы найти логическую дыру у настоящего детективного писателя. За годы тестов я понял главное: все современные LLM страдают болезнью Альцгеймера. Но DeepSeek — первый, кто пошел в ремиссию.

Давайте разберем термин «токен» простым языком. Токен — это кусочек текста. Может быть слогом, буквой, целым словом. В среднем, 1 токен ≈ 0,75 слова на русском языке (из-за кириллицы и флексий чуть меньше, чем в английском). Условно, 1000 токенов — это две страницы текста формата А4 кеглем 12.

Теперь умножьте это на 1000. 1 000 000 токенов. Большинство коммерческих нейросетей живут с контекстом 4k-32k токенов (8-64 страницы). ChatGPT-4 Turbo даёт 128k — это уже 250 страниц. Звучит круто? Для короткого романа — да. Но DeepSeek даёт вам 2000 страниц чистого, непрерывного внимания.

Почему это важно именно для прозы?

Представьте, что вы диктуете роман живому секретарю. У секретаря блокнот на 3 листа. Как только он их заполняет, он выбрасывает самый старый лист. Вы говорите: «Вернёмся к имени протагониста, оно было...» — а секретарь пожимает плечами: «Забыл, вы же просили продолжать дальше». Это стандартные модели.

DeepSeek — это секретарь с фотонной памятью. Он помнит, что на странице 12 у героя была татуировка дракона, когда вы на странице 985 пишете «он расстегнул рубашку». Он не спросит «какой дракон?». Он напишет: «...и багровый дракон на груди зашевелил крыльями, словно оживая».

Технические грабли (наступал сам):

Миллион — это предел, а не норма. Загружая 950 000 токенов, вы работаете на пределе. Модель начинает «тормозить»: время ответа растёт с 5 секунд до 2-3 минут. Оптимальный «рабочий вес» для прозы — 300-600k токенов.

Позиционное кодирование. DeepSeek не просто запоминает слова, он запоминает их порядок. Если вы загрузите роман «задом наперёд», модель взбесится. Структура важна.

«Середина забывается быстрее концов». Даже у 1M есть «горячая» зона (первые 64k и последние 64k токенов). Самую критичную информацию — имена, жанр, тональность — я всегда дублирую в начале или в конце промпта. Никогда не прячьте важное в середину килобайтного файла.

Мой личный кейс: Я тестировал DeepSeek на «Графе Монте-Кристо» (примерно 450k токенов). Попросил модель найти все упоминания аббата Фариа и проверить, не противоречит ли описание его болезни на странице 200 описанию на странице 800. Модель выдала таблицу с 14 пунктами и нашла одну стилистическую нестыковку (в одном месте говорилось «дрожащие руки», в другом — «твердая рука» за день до смерти). Редактор-человек из издательства пропустил это.

Вывод: контекст 1M — это не игрушка. Это хирургический скальпель для дотошного автора.

ГЛАВА 2: Как загружать целые книги в DeepSeek (пошаговая инструкция)

Теоретики говорят: «Просто скопируй текст в чат». Практики знают: после 50 000 символов интерфейс виснет, браузер хочет прилечь к плинтусу, а DeepSeek начинает генерировать абракадабру. Я расскажу, как я это делаю, тестируя нагрузочные сценарии для писателей-«тысячников».

Шаг 1. Подготовка файла (самый важный)

DeepSeek принимает несколько форматов, но я после 30 тестов рекомендую PDF или чистый TXT в кодировке UTF-8. Почему не DOCX? Модель «видит» служебную разметку Word и может принять её за команды. Однажды нейросеть решила, что колонтитул «Глава 3» — это команда перейти к главе 3, и просто обрезала 200 страниц.

Инструкция:

Берёте ваш роман (или чужой для анализа).

Удаляете все лишние пробелы, двойные переводы строк.

Разбиваете текст на логические блоки. Лучше всего — по главам. Каждая глава — отдельный заголовок вида [ГЛАВА_01_Вторжение].

В самом начале файла создаете «системный блок» на 500-1000 токенов: «Эта книга — детектив. Главного героя зовут Джон. У него нет брата. Жанр: нуар. Финал трагический». Это ваш якорь.

Шаг 2. Техника «Многоэтапной загрузки»

Не кидайте весь файл разом. Я использую метод upload-batch-append:

Сначала загружаю system_prompt.txt (ваши инструкции для модели).

Жду подтверждения: «Принято. Как могу помочь?»

Загружаю book_part1.pdf (первые 200k токенов).

Команда: Запомни. Это начало книги. Я буду добавлять части.

Загружаю book_part2.pdf. Команда: Продолжи запоминание. Веди сквозную нумерацию глав.

После каждой части проверяю контрольным вопросом: «Как зовут отца героя из первой части?». Если модель ошиблась — я перегружаю, чищу кэш браузера и начинаю заново. Это нормально, иногда API косячит.

Конец ознакомительного фрагмента.

Текст предоставлен ООО «Литрес».

Прочитайте эту книгу целиком, купив полную легальную версию на Литрес.

Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.