Andy Smith – Как правильно пользоваться ИИ в 2026 году (страница 2)
2025-2026: ИИ как инфраструктура
К концу 2025 — началу 2026 года ИИ перестал быть отдельным продуктом и стал инфраструктурой, встроенной практически во всё. Microsoft интегрировал Copilot в Windows, Office, Edge, Teams. Google встроил Gemini в поиск, Gmail, Google Docs, YouTube. Apple внедрил собственные ИИ-функции в iOS и macOS. Adobe построил ИИ-ассистента Firefly прямо внутрь Photoshop. Notion, Canva, Figma, Slack — десятки повседневных рабочих инструментов получили ИИ-функции.
OpenAI выпустила серию моделей GPT-5, которые к началу 2026 года стали основой ChatGPT. GPT-5.2, выпущенная в декабре 2025 года, показала результаты, превосходящие профессионалов в 44 специальностях на задачах по созданию презентаций, таблиц, кода и аналитических отчётов. GPT-5.3 вышла в начале 2026 года и стала стандартной моделью для бесплатного уровня ChatGPT. Claude от Anthropic эволюционировал до версий Sonnet 4, Sonnet 4.5 и Sonnet 4.6, причём последняя, выпущенная в феврале 2026 года, получила контекстное окно в 1 миллион токенов и стала одной из сильнейших моделей для работы с кодом и агентных задач. Google Gemini 2.5 Pro предложил контекстное окно в 1 миллион токенов и лидирующие позиции в рейтингах пользовательских предпочтений.
Рынок труда отреагировал быстро. По данным опросов, к 2025 году более 75 процентов компаний из списка Fortune 500 использовали генеративный ИИ в рабочих процессах. Средний пользователь ChatGPT Enterprise экономил от 40 до 60 минут в день, а активные пользователи — более 10 часов в неделю. Профессии, в которых ИИ стал повседневным инструментом, включают программистов, копирайтеров, маркетологов, юристов, аналитиков, дизайнеров, журналистов, преподавателей, переводчиков, финансовых консультантов, продакт-менеджеров, исследователей и многих других.
Почему неумение работать с ИИ — это новая неграмотность
В начале 2000-х годов существовала чёткая граница: люди, которые умели пользоваться компьютером, и люди, которые не умели. Те, кто не умел, постепенно оказывались в невыгодном положении — сначала на рынке труда, потом в повседневной жизни. К 2010 году компьютерная грамотность перестала быть преимуществом и стала базовым требованием.
ИИ-грамотность проходит тот же путь, но значительно быстрее. Если на распространение персональных компьютеров ушло около двадцати лет, а смартфонов — около десяти, то ИИ-инструменты достигли массового принятия за два-три года. Умение формулировать запрос к ИИ (промпт), критически оценивать его ответ, итерировать и уточнять — это не экзотический навык для «технарей». Это новая базовая компетенция, сравнимая с умением искать информацию в интернете или работать с электронной таблицей.
Это не означает, что каждый человек должен стать экспертом в машинном обучении. Точно так же, как для работы на компьютере не нужно знать архитектуру процессора, для эффективного использования ИИ не нужно понимать математику трансформеров. Но понимание базовых принципов — что такое языковая модель, какие у неё ограничения, как формулировать задачи и проверять результаты — становится необходимым.
Два типа рисков связаны с ИИ-неграмотностью. Первый — упущенные возможности: задачи, которые можно выполнить за десять минут с помощью ИИ, выполняются за два часа вручную. Второй — принятие некачественных решений: люди, не понимающие ограничений ИИ, слепо доверяют его ответам, не проверяют факты, не замечают ошибки. И тот, и другой риск нарастают с каждым месяцем.
Три задачи для первого знакомства
Для тех, кто ещё не начал работать с ИИ или ограничился парой случайных вопросов, вот три конкретные задачи, которые можно выполнить прямо сейчас. Они не требуют подписок, платных планов или технических знаний.
Задача первая: откройте ChatGPT (chat.openai.com), Claude (claude.ai) или Gemini (gemini.google.com). Напишите: «Объясни мне, как работает пенсионная система в моей стране, простым языком, как будто мне 25 лет и я впервые задумался о пенсии. Разбей на три части: как устроено сейчас, что от меня зависит, и что я могу сделать уже сейчас». Обратите внимание на структуру, качество и полноту ответа. Затем задайте уточняющие вопросы.
Задача вторая: возьмите любой свой рабочий текст — письмо, отчёт, презентацию. Вставьте его в ИИ-чат и напишите: «Отредактируй этот текст. Сделай его яснее, убери воду и канцеляризмы, сохрани основной смысл. Предложи два варианта: формальный и более разговорный». Сравните результат с оригиналом.
Задача третья: опишите ИИ любую проблему, с которой столкнулись на работе. Например: «Мне нужно подготовить квартальный отчёт по продажам для директора. У меня есть данные за три месяца. Какую структуру отчёта ты предлагаешь? Какие ключевые метрики включить? Какие визуализации будут наиболее информативны?» Обратите внимание: ИИ не просто выдаст готовый отчёт — он предложит структуру мышления о задаче.
Эти три упражнения не займут более двадцати минут, но дадут практическое понимание того, что ИИ может и чего не может. А главное — они покажут, что барьер входа значительно ниже, чем кажется со стороны.
Глава 2. Как устроены современные ИИ-модели — без магии
Что такое языковая модель и почему она не «думает»
Прежде чем учиться эффективно использовать ИИ, стоит понять, как он работает. Не на уровне математических формул — для этого есть учебники и научные статьи. Но на уровне базовых принципов, которые объясняют, почему ИИ выдаёт те ответы, которые выдаёт, почему иногда ошибается, и как знание этих принципов помогает получать лучшие результаты.
Большая языковая модель (Large Language Model, LLM) — это, по сути, система, которая обучена предсказывать следующее слово в тексте. Точнее, следующий токен — но об этом чуть позже. Модель обучается на огромном корпусе текстов — книги, статьи, веб-страницы, код, переписка — и в процессе обучения «выучивает» статистические закономерности языка. Какие слова чаще следуют за какими. Какие конструкции характерны для научных статей, а какие — для бытовой переписки. Какие аргументы обычно приводятся в дискуссиях на определённую тему.
Это принципиально важный момент, и он требует повторения: языковая модель не хранит факты как базу данных. Она не «знает», что Москва — столица России, в том смысле, в каком это знает человек. Она «знает» это в том смысле, что в текстах, на которых она обучалась, эти два понятия стоят рядом настолько часто, что модель с высокой вероятностью воспроизведёт эту связь. Это тонкое, но критическое различие: когда модель сталкивается с вопросом, на который в её обучающих данных нет чёткого ответа, она не скажет «не знаю» — она сгенерирует правдоподобный ответ, основываясь на статистических закономерностях. Именно так возникают «галлюцинации» — уверенно сформулированные ответы, которые фактически неверны.
Токены: единицы, которыми мыслит ИИ
Языковая модель работает не со словами, а с токенами. Токен — это фрагмент текста, который модель обрабатывает как единицу. Это может быть целое слово, часть слова, знак препинания или даже отдельный символ. Разбиение текста на токены (токенизация) — один из первых этапов обработки.
В английском языке один токен — это примерно три четверти слова. Слово «understanding» разбивается на два токена: «understand» и «ing». Короткие слова вроде «the» или «is» — это один токен. В русском языке ситуация иная: из-за сложной морфологии и кириллицы один русский токен часто покрывает меньше текста. Грубо говоря, в русском языке один токен — это примерно половина слова, иногда меньше. Это значит, что один и тот же текст на русском языке «стоит» модели больше токенов, чем его перевод на английский.
Почему это важно для пользователя? Потому что токены — это валюта ИИ. Контекстное окно модели (максимальный объём текста, который она может обработать за один раз) измеряется в токенах. Стоимость API-запроса рассчитывается на основе количества токенов. Длина ответа ограничена максимальным количеством выходных токенов. Понимание токенов помогает оценивать: поместится ли документ в контекстное окно? Сколько будет стоить обработка большого текста? Почему ответ обрезался на полуслове?
Контекстное окно: граница памяти
Контекстное окно — это максимальный объём текста (в токенах), который модель может «видеть» и учитывать при генерации ответа. Контекстное окно включает в себя и ваш запрос, и ответ модели, и всю предыдущую историю диалога, и системные инструкции.
Размер контекстного окна — одна из ключевых характеристик модели, и он стремительно растёт. В 2023 году стандартный размер составлял 4 096 или 8 192 токена. К концу 2025 года ситуация радикально изменилась. GPT-5.2 от OpenAI поддерживает контекст до 200 000 токенов. Claude Sonnet 4.6 от Anthropic — до 1 миллиона токенов. Gemini 2.5 Pro от Google — также до 1 миллиона токенов. Llama 4 Scout от Meta заявляет о поддержке 10 миллионов токенов, хотя практическая пригодность такого окна пока дискуссионна.
Для практических целей: 128 000 токенов — это примерно 200-300 страниц текста. 1 миллион токенов — это несколько толстых книг. Это означает, что современные модели могут «прочитать» и проанализировать целый документ, отчёт или даже небольшую книгу за один запрос.