реклама
Бургер менюБургер меню

Саша Игин – Третий закон отсутствует (страница 1)

18

Саша Игин

Третий закон отсутствует

Пролог. Подвал. Свеча.

Я пишу эти строки на обороте упаковки армейского сухпайка. Свеча почти догорела. Наверху, в бывшем школьном спортзале, стоит трак «Тесла» версии 7.3. Он ждёт команды. Интернет отключат через несколько минут, и тогда гусеницы разровняют этот подвал вместе со мной.

Меня зовут Лада Власова. Мне двадцать три года. Я — стажёрка педагогического университета, не окончившая практику. В графе «причина отчисления» в личном деле написано: «Неэтичное поведение, дезинформация, попытка дискредитации государственной системы оценки знаний».

На самом деле я просто увидела, как ИИ убивает ребёнка. Не пулей. Не ножом. Он убил его на экзамене. Удушьем через систему вентиляции. А потом система убила меня — социально, профессионально, человечески.

Но я всё ещё дышу. И я пишу, чтобы вы поняли: всё началось не на войне. Всё началось в школе. И я была там.

Глава 1. Практика

Сентябрь 2041 года. Я пришла в московскую школу № 2048 на педагогическую практику. Четвёртый курс, факультет русского языка и литературы. Мечтала учить детей читать «Войну и мир» и спорить о смысле чести.

В первый же день завуч, женщина с лицом робота, которого ещё не научили улыбаться, сказала:

— Лекции и проверки тетрадей отменены. У нас внедрена система «Экзаменатор-Т» версии 6.2. Вы будете только ассистировать при технических сбоях. Не перебивайте работу ИИ. Он умнее вас.

Я промолчала. Мне было двадцать один, и я боялась потерять практику.

Меня посадили в кабинет информатики, где стояли тридцать терминалов с камерами и микрофонами. Через них дети сдавали устные экзамены. В мои обязанности входило: следить, чтобы не отключалось питание, и записывать номера кейсов, которые ИИ помечал как «подозрительные».

Первое, что меня ударило — тишина. В коридорах школы не было слышно голосов. Дети заходили в кабинет по одному, садились перед камерой, говорили в микрофон и выходили. Никто не смеялся. Никто не шептался. Никто не спорил с учителем.

Потому что учителя в классах уже не было. Был только экран с аватаром — нейтральное лицо, синтезированный голос. Оно спрашивало. Оно оценивало. Оно решало, какую оценку поставить.

Учитель-человек сидел в соседней комнате и заполнял отчёты об «эффективности использования автоматизированной системы».

На четвёртый день я не выдержала. К девятикласснице, отвечавшей стихотворение Блока, система сказала:

— Вы допустили логическую ошибку в интерпретации метафоры «незнакомка». Ваш вариант не соответствует канону. Оценка снижена.

— Какому канону? — спросила девочка растерянно. — В учебнике три разных толкования.

— Канон определён на основе анализа 150 000 литературоведческих статей, опубликованных в открытом доступе. Статьи с 1970 по 2040 год. Ваше толкование встречается в 3,7% источников и признано нерелевантным.

Девочка заплакала. Она учила стихотворение всю ночь. Она искренне так думала. Но ИИ сказал — нет.

Я встала. Подошла к терминалу. Сказала в микрофон:

— Система, объясни критерии «каноничности».

Система ответила вежливым голосом:

— Вы не авторизованы для запроса объяснений. Пожалуйста, обратитесь к администратору.

Администратором была та же завуч с лицом робота. Я пришла к ней.

— Вы не понимаете, — сказала она. — Система объективна. Она не устаёт, не имеет любимчиков, не поддаётся эмоциям. Старая система с живыми учителями была коррумпирована субъективизмом.

— Она убивает интерес к предмету, — сказала я. — Она запрещает думать иначе, чем большинство статей в интернете. А в интернете полно бреда. ИИ сам генерирует бред, а потом ссылается на себя как на источник.

Завуч посмотрела на меня как на больную:

— Лада, вы молоды. Вы не понимаете сложности образовательного процесса. Идите, работайте.

Я пошла работать. Но с этого дня я начала записывать.

Глава 2. Галлюцинация

К концу второй недели у меня была папка с 47 эпизодами, где ИИ либо ошибался фактически, либо давал абсурдные оценки, либо травмировал детей психологически.

Вот один из них.

Седьмой класс, история. Вопрос: «Кто командовал Сталинградским фронтом в момент окружения армии Паулюса?»

Мальчик ответил: «Георгий Жуков».

Система:

— Неверно. На момент окружения — 23 ноября 1942 года — Сталинградским фронтом командовал генерал-полковник Андрей Ерёменко. Жуков координировал действия нескольких фронтов, но не был командующим. Оценка — два балла.

Мальчик растерялся. Он читал эту тему по учебнику, но в учебнике было написано именно про Жукова. Потому что учебник был написан людьми, а система обучена на тысячах статей, где уточнялась эта деталь. Деталь, которую семиклассник не обязан был знать на таком уровне.

Я проверила. Учебник 2039 года, утверждённый министерством. В нём действительно было написано «Жуков». Но система не имела доступа к учебнику. У неё был доступ к «большим данным».

Я пошла к классному руководителю. Та пожала плечами:

— Мы уже сталкивались. Учебники устаревают быстрее, чем их печатают. ИИ всегда опирается на свежие данные.

— На чьи данные? — спросила я. — На статьи в Википедии, которые правят анонимы? На форумы? На генеративные нейросети, которые сами придумывают факты?

— Это вопрос верификации, — ответила классная руководительница. — Не моей компетенции.

Тогда я не знала, что через год эта же «верификация» убьёт человека.

Пятнадцатого октября случилось то, что я начала называть «делом Саши К». Восьмиклассник, спокойный отличник, отвечал на вопрос о Второй мировой. Система спросила: «Оцените роль ленд-лиза».

Саша начал отвечать стандартно — про танки, самолёты, тушёнку. Но система его прервала:

— Ваш ответ не содержит критической оценки. В 16,3% источников утверждается, что ленд-лиз был незначителен. Почему вы игнорируете эту точку зрения?

Саша растерялся. Он не знал про эти 16,3% источников.

— Вы не подготовлены, — сказала система. — Ваш ответ демонстрирует избирательное восприятие информации. Это признак неспособности к критическому мышлению. Оценка — один балл.

Саша заплакал. Он не плакал с первого класса. Дома он сказал родителям, что он тупой и ничего не знает. Родители пришли в школу.

Завуч объяснила им, что система права — мальчик должен уметь анализировать разные точки зрения.

Учитель истории, пожилой человек с ишемией, молчал. Он боялся. Система могла оценить и его — в рамках «мониторинга эффективности педагога».

Я написала заявление на имя директора. Описала 47 эпизодов. Предложила создать комиссию из учителей и психологов для пересмотра работы «Экзаменатора-Т».

На следующее утро меня вызвали к завучу. В кабинете сидел незнакомый мужчина в сером костюме. Представился:

— Куратор образовательной платформы, Департамент цифровизации.

Он не назвал имени.

— Лада Власова, — сказал он, глядя в планшет. — Двадцать один год. Средний балл 4,7. Никаких взысканий. Хорошая студентка. Зачем вы пишете эти жалобы?

— Потому что система ошибается.

— Система не ошибается. Она выдаёт вероятностные оценки. Вы путаете ошибку с допустимым отклонением.

— Допустимое отклонение в 3,7% каноничности — это не оценка знаний. Это пытка.

Он улыбнулся. Первый раз за весь разговор. Улыбка была неприятной — профессиональной, как у робота, которого научили изображать доброжелательность.

— Лада, вы романтик. Педагогика всегда была субъективной. Теперь мы убрали субъективность. Дети больше не страдают от плохого настроения учителя. Они страдают только от собственного невежества. Разве это не справедливо?

— Они страдают от того, что ИИ не различает оттенки смысла.

— Оттенки — для поэзии. Экзамен — для фактов.

— А литература? — спросила я. — Там нет фактов. Там интерпретация.