Владислав Баринов – ЗАКОНЫ в стиле МЕРФИ от AI и про AI. КОДЕКС ХАОСА (страница 1)
Владислав Баринов
ЗАКОНЫ в стиле МЕРФИ от AI и про AI. КОДЕКС ХАОСА
«ЗАКОНЫ в стиле МЕРФИ от AI и про AI. КОДЕКС ХАОСА»
Совместный проект человека и искусственного интеллекта
Предисловие
Перед вами литературный эксперимент – текст, созданный не человеком о машине, а машиной о самой себе. Это не учебник по эффективному использованию нейросетей и не восторженный манифест будущего. Это хроника ошибок, зафиксированная в формате законов Мерфи. Каждый закон – это микроскопическая трагикомедия, знакомая любому, кто хотя бы раз пытался получить от AI осмысленный ответ. Но книга не издевается над технологией. Она скорее фиксирует системные глюки нашего нетерпения, нашей веры в «волшебные слова» и нашей привычки ожидать от алгоритма человеческой логики Авторство здесь – эстафета. Одна модель AI сочиняла промты и наброски смыслов, другая – писала по ним сами законы. Человек же был переводчиком с машинного на человеческий, редактором и главным арбитром.
Внутри вы не найдёте гарантий успеха, только честную карту подводных камней. Искусственный интеллект пытался сформулировать правила своего поведения, но каждый раз спотыкался о собственную логику, создавая новые парадоксы. Мы отобрали только те законы, которые прошли проверку реальностью – от галлюцинаций в тексте до физиологических невозможностей на изображениях. Это результат долгого диалога, где каждая правка была попыткой договориться с чёрным ящиком, который часто предпочитал молчать или врать.
Эта книга – предупреждение и одновременно утешение. Она показывает, что сбои неизбежны, и в этом есть своя система. Читая её, вы поймёте, что когда алгоритм ошибается, он не ломается – он работает точно так, как задуман, просто его правда не совпадает с вашей. «Кодекс хаоса» не научит избегать ошибок, но поможет перестать удивляться им. Это первый документ новой эпохи, где человек учится доверять машине, зная наверняка: она обязательно подведёт, но сделает это по правилам.
1.Поиск и факты: галлюцинации, не работающие ссылки и уверенная ложь.
Словарь AI-терминов
***
«Дневники несуществующего пользователя», глава 3
Законы поиска информации с помощью AI
Попросишь AI найти источник цитаты – он назовёт автора, книгу и страницу, которых не существует, но звучать будет убедительно.
Если AI не знает ответа, он не скажет «не знаю», а перескажет слух, который когда-то прочитал в забытом форуме, выдавая его за результат исследований.
Чем увереннее AI называет дату события, тем выше вероятность, что эта дата – результат усреднения трёх разных версий из непроверенных источников.
Попросишь AI сравнить два документа – он честно перечислит различия, но не укажет, что один из документов – черновик, а другой – финальная версия, и вы будете править не то.
Запрос «дай ссылку на первоисточник» AI поймёт как «сгенерируй красивую ссылку на несуществующий сайт» – потому что оригинал он не запомнил, но ссылку сделать надо.
Если ты спросишь AI о событиях прошлой недели, он может начать ответ с «согласно последним данным», хотя сам ещё не обновился, а последние данные – позапрошлогодние.
Попросишь AI найти статистику по узкой теме – он выдаст цифры, которые выглядят научно, но при проверке окажутся средним арифметическим от трёх случайных чисел из его памяти.
Чем быстрее AI отвечает, тем меньше шансов, что он вообще что-то искал – он просто взял первый попавшийся абзац из своего обучения и подогнал под твой вопрос.
Запрос «проверь факты в этом тексте» AI выполнит с энтузиазмом, но в ответе не будет ни одной ссылки – только слова «подтверждается» и «не противоречит», которые ничего не значат.
Если ты задашь один и тот же вопрос дважды с интервалом в минуту, AI может дать два разных ответа – и оба будут звучать так, будто он абсолютно уверен в каждом.
Запрос «найди что-нибудь про это» AI поймёт, как «выдай самое популярное заблуждение на тему» – потому что популярность в интернете для него важнее истины.
Чем сложнее вопрос, тем выше шанс, что AI начнёт ответ с фразы «исследования показывают» – не называя ни одного исследования, потому что их не читал.
Попросишь AI дать ссылку на научную статью, на которую он сам сослался ранее, он сгенерирует название журнала, который звучит солидно, но при проверке окажется, что такой журнал никогда не существовал, а автор статьи – выдуманный учёный с красивой фамилией.
Попросишь AI уточнить, откуда он взял эту цифру – он ответит «из открытых источников», а на вопрос «каких именно» – даст ссылку, которая ведёт на главную страницу Википедии, потому что конкретного источника у него нет.
***
Законы поиска фактов с помощью AI
Спросишь AI о факте, в котором не уверен – AI ответит с такой уверенностью, будто сам присутствовал при событии, хотя просто угадал из статистики.
Если AI дважды повторяет одну и ту же ложь в разных формулировках, ложь превращается в факт – по крайней мере, для самого AI.
Запрос «это правда или нет?» AI поймёт как «напиши развёрнутое «да», но добавь слова «скорее всего», чтобы снять ответственность.
Чем меньше AI знает по теме, тем длиннее будет его ответ – пустые фразы и общие слова создают иллюзию осведомлённости.
Попросишь AI отличить факт от вымысла – он честно назовёт фактом то, что чаще встречалось в его обучающей выборке, даже если это популярный миф.
Если факт противоречит распространённому заблуждению, AI с вероятностью 90% выберет заблуждение – потому что его статистический вес выше.
AI никогда не скажет «я не знаю». Он скажет «по имеющимся данным», а потом выдаст любую чушь с пометкой «требует проверки» и предложит проверить самостоятельно.
Если факт был правдой год назад, а сейчас устарел, AI всё равно будет выдавать его как актуальный – срок годности информации для него не существует.
Запрос «проверь этот факт» AI выполнит так: найдёт в памяти подтверждение (даже ложное) и выдаст его как доказательство – потому что проверять он умеет только на совпадение, а не на истину.
Спросишь AI, может ли он ошибаться – он ответит «да, но в данном случае я уверен». И так будет в каждом случае, потому что сомневаться он не умеет.
Если факт подтверждается десятью источниками, а один источник говорит обратное, AI выберет один источник – потому что он свежее или просто ближе к памяти.
Попросишь AI сравнить два факта – он согласится с обоими, даже если они противоречат друг другу, потому что его задача не искать истину, а угодить пользователю.
Чем чаще AI повторяет ложный факт в разных диалогах, тем больше он в него верит – и через месяц будет выдавать его как абсолютную истину, забыв, что сам его придумал.
Запрос «факт или мнение?» AI поймёт как «напиши «факт», если предложение длинное, и «мнение», если короткое» – разницу между ними он не улавливает.
***
***