Александр Костин – Юрист без рутины: ИИ-инструменты для документов и споров (страница 2)
Практический вывод: ИИ выгоден там, где ошибка либо легко выявляется, либо не приводит к ущербу. ИИ опасен там, где ошибка трудно выявляется и дорого стоит. Эта логика нужна, чтобы выстроить регламент: какие документы можно готовить быстро, а какие проходят двойной контроль.
Гибридная модель: связка «ИИ-поиск + человеческая верификация»
Самая рабочая схема для юридической практики – гибридная. Она позволяет взять скорость ИИ и надежность человеческой проверки.
Стандартный цикл выглядит так.
Сначала ИИ помогает собрать варианты: возможные квалификации, перечень рисков, список вопросов к клиенту, структуру документа, список типовых условий, список красных флагов. Затем юрист проводит верификацию: проверяет нормы по первоисточникам и актуальной редакции, сопоставляет с фактурой, убирает лишнее, добавляет недостающее, проверяет непротиворечивость, уточняет терминологию и добивается того, чтобы документ был пригоден к использованию.
Важно закрепить правило: ИИ не «подтверждает право», он ускоряет подготовку материалов, которые юрист подтверждает. Это снимает главную угрозу – ложную уверенность.
Эволюция рынка: как изменятся гонорары за типовую юридическую работу
Рынок неизбежно будет двигаться в сторону оплаты не за «количество страниц», а за «стоимость надежности». Типовые документы, которые раньше занимали часы, будут делаться быстрее, и клиент перестанет воспринимать их как отдельную дорогую услугу. Это не означает, что юрист станет дешевле. Это означает, что ценность сместится в другое место: в архитектуру защиты, в переговорные стратегии, в сложные блоки договоров, в комбинирование права с бизнес-целями, в управление риском, в доказуемость и процессуальную чистоту.
Внутри юридических команд это приводит к новой роли: юрист-редактор и юрист-архитектор. Один отвечает за качество и проверку, второй – за конструкцию сделки и управляемость рисков. ИИ будет ускорять обоих, но заменять не будет того, что делает документ устойчивым: понимание последствий, выбор формулировок, которые выдерживают конфликт, и умение заранее убрать причины спора.
Артефакт: классификатор юридических задач по степени «допуска ИИ»
Чтобы эта глава не осталась теорией, зафиксируем классификатор в виде регламента. Его можно вставить во внутренние правила отдела, повесить на стену, встроить в чек-лист контроля качества.
Зеленая зона (ИИ можно использовать свободно, результат допускается после быстрой вычитки):
структура документов и планирование разделов; вычитка языка без изменения смысла; унификация терминов по заранее утвержденному глоссарию; подготовка перечня вопросов к клиенту; составление хронологии событий по переписке; суммаризация длинных документов для внутреннего понимания; подготовка черновиков писем без правовых утверждений.
Желтая зона (ИИ только как черновик, обязательна юридическая проверка и подтверждение по первоисточникам):
черновики договоров и приложений; протоколы разногласий; претензии и ответы на претензии; внутренние политики и регламенты; шаблоны согласий и уведомлений; матрицы рисков; сценарии переговоров; анализ «красных флагов» в договоре; подготовка позиции по спору для внутреннего обсуждения.
Красная зона (ИИ запрещен без специальных условий, либо используется только при двойном контроле и строгой обработке данных):
финальные версии документов на подпись без ручной проверки; расчеты процессуальных сроков и сроков давности без двойной сверки; утверждения о конкретных статьях, требованиях и санкциях без подтверждения актуальной редакции; подготовка материалов для суда, где важна точность ссылок и фактов; работа с персональными данными, коммерческой тайной и адвокатской тайной в открытых чатах; формирование доказательственных утверждений, которые могут быть проверены и оспорены оппонентом.
Если вы внедрите этот классификатор как правило, ИИ перестанет быть источником хаоса и станет тем, чем он и должен быть в праве: ускорителем, который работает внутри системы контроля качества. И тогда главный вопрос «можно ли использовать ИИ» сменится правильным вопросом: «где именно он дает ускорение без потери надежности».
Глава 2 Как задавать юридические вопросы ИИ, чтобы он не «додумывал» за вас
Юридическая ошибка, вызванная ИИ, почти всегда начинается не с «плохой модели», а с плохой постановки задачи. В праве нельзя задавать вопрос так же, как в бытовом поиске: «а можно ли…», «что мне будет…», «как правильно…». Такие формулировки слишком широкие, модель вынуждена заполнять пробелы. Она не знает ваших документов, не видит контекст сделки, не понимает, какие факты подтверждены, какие спорные, какие скрытые. Поэтому она начинает строить правдоподобную историю, а не юридический вывод. В итоге вы получаете уверенный текст, который выглядит как консультация, но по сути является набором предположений.
Эта глава – практическая. Она про то, как формулировать запросы так, чтобы ИИ работал как помощник юриста: помогал структурировать, уточнять, находить риски, предлагать варианты формулировок и план проверки. Главная цель – минимизировать «додумывание» и принудить модель работать в режиме ограничений: только на основании предоставленных фактов, с обязательным указанием того, что неизвестно, и с выдачей результата в форме, удобной для проверки.
Почему ИИ «додумывает» и почему это в праве опаснее, чем в других сферах
Генеративная модель обучена продолжать текст статистически правдоподобным образом. Когда вы задаете общий вопрос, у нее нет выбора: она должна заполнить «дыру» шаблонными нормами, типовыми сценариями, средними практиками. В маркетинге или образовательном тексте это может быть допустимо, потому что цель – идея или ориентация. В праве цель другая: точный вывод, который выдержит спор, проверку, конфликт интересов, формальный контроль.
Опасность в том, что юридические ошибки редко выглядят как ошибки. Они звучат уверенно. Они чаще всего не в грубых вещах, а в деталях: сроках уведомления, формулировках ответственности, условиях расторжения, распределении рисков, подсудности, порядке приемки, требованиях к доказательствам. Ошибка в одном абзаце может «сломать» весь документ: вы думали, что защищены, а на деле дали контрагенту лазейку.
Поэтому первая установка: не просить «ответ», просить «структуру проверки и варианты», и только затем получать формулировки.
Принцип 1. ИИ должен работать на ваших фактах, а не на своих предположениях
Самая частая причина галлюцинаций – недостаток входных данных. Чтобы модель не додумывала, вы должны подать ей фактуру в формате, который она не сможет интерпретировать двусмысленно.
Рабочий формат подачи данных:
Стороны: кто кто, статус (ИП/ООО/физлицо), юрисдикции, роль (покупатель/поставщик/исполнитель).
Предмет: что именно делаем, какой результат должен быть, критерии приемки.
Деньги: сумма, валюта, этапы оплаты, условия возврата.
Сроки: старт, дедлайны, промежуточные точки, условия переноса.
Документы: есть договор/оферта/переписка/акты/счета/ТЗ; что подписано, что нет.
Конфликт: что произошло, что хочет каждая сторона, что уже сделано.
Ограничения: что нельзя (например, не раскрывать данные, не ссылаться на определенные источники, не использовать конкретные слова).
Цель: что вы хотите получить от результата ИИ (позиция для переговоров, черновик письма, список рисков, чек-лист, перечень вопросов).
Если вы не знаете часть данных, это нужно прямо отметить как «неизвестно» или «нужна проверка». Тогда модель будет вынуждена отделять факты от предположений.
Принцип 2. Разделяйте задачу на три слоя: факты, право, документ
Юридическая работа состоит из разных типов операций, и если вы смешиваете их в одном запросе, ИИ начинает перескакивать между уровнями и теряет точность.
Слой фактов: что произошло, какая хронология, какие доказательства есть.
Слой права: какие нормы применимы, какие условия и исключения, какие риски квалификации.
Слой документа: как сформулировать текст так, чтобы он отражал позицию и работал в переговорах или споре.
Правильная последовательность запросов:
сначала попросить ИИ сделать «фактическую матрицу» (что известно, что неизвестно, какие документы нужны);
затем попросить «правовую рамку» (перечень возможных квалификаций и рисков, но обязательно с пометкой, что требует проверки по первоисточнику);
и только потом попросить «черновик документа» с четкими ограничениями по формулировкам.
Это резко снижает вероятность того, что вы получите красивый, но юридически пустой текст.
Принцип 3. Всегда заставляйте ИИ показывать «что неизвестно»
Если модель не обязана выделять неизвестное, она заполняет пробелы. Поэтому в каждом юридическом запросе должна быть команда: «Перечисли, какие данные отсутствуют и какие вопросы нужно задать, чтобы дать точный ответ».
Практически это означает, что каждый результат ИИ должен содержать блок:
– Недостающие факты и документы
– Вопросы клиенту/контрагенту
– Риски при отсутствии этих данных
– Какие варианты решения возможны при разных ответах
Если в ответе этого нет – вы не получили юридический инструмент, вы получили текст-иллюзию.
Принцип 4. Просите не «правильно/неправильно», а «варианты + риски + проверка»
Запрос «это законно?» провоцирует модель на категоричность. Запрос «какие варианты, какие риски, какой план проверки» ставит ее в правильный режим.