реклама
Бургер менюБургер меню

Евгений Юрьев – Алгоритм человека (страница 4)

18

Почему? Потому что в 2010-х алгоритмы были глупыми. Они смотрели на то, на что вы подписаны, и показывали вам это. Сегодня алгоритмы – это нейросети, которые анализируют не только ваши подписки, но и ваше поведение на уровне миллисекунд. Они знают, на каком кадре вы задержали взгляд. Как быстро вы пролистнули пост. Как долго ваш палец завис над кнопкой «поделиться».

И они используют эти данные не для того, чтобы расширить ваш кругозор. А для того, чтобы законсервировать ваше внимание.

Потому что внимание держится на двух вещах: на удовольствии и на страхе. Алгоритм выбирает то, что работает лучше. И чаще всего это страх.

Поэтому, если вы когда-то кликнули на тревожную новость (из любопытства, случайно, по ошибке), алгоритм запомнит это навсегда. Он начнет подкармливать вас страхом. Потому что испуганный пользователь – это вовлеченный пользователь. Испуганный пользователь не уходит. Он сидит, смотрит, читает, делится, комментирует. Он – идеальная батарейка.

Смерть случайности

Раньше, когда интернет был «сайтом» (а не «лентой»), у вас был шанс наткнуться на что-то, чего вы не искали. Вы открывали газету и видели колонку автора, с которым вы не согласны. Вы заходили на форум и читали ветку, где люди спорили. Вы включали телевизор и натыкались на передачу, которую никогда бы не выбрали сознательно.

Эта случайность была кислородом для критического мышления. Она заставляла вас сравнивать, сомневаться, уточнять свою позицию. Она не давала вашему мировоззрению превратиться в монолит.

Сегодня случайность умерла.

Алгоритм не допустит, чтобы вы увидели то, что может вас расстроить или выбить из колеи. Не потому, что он заботится о вас. А потому, что любая неожиданность – это риск, что вы закроете приложение.

Искусственный интеллект построил для вас идеальный мир. В этом мире нет ничего, что заставило бы вас усомниться в своей правоте. Нет ни одного аргумента противоположной стороны. Нет ни одного лица, которое смотрит на проблему иначе.

Вы живете в эхо-камере, где каждый пост возвращает вам ваш же голос, только чуть громче и увереннее.

Самое страшное: вы этого не замечаете

Парадокс пузыря фильтров в том, что вы никогда не узнаете, что находитесь внутри.

Потому что единственный способ увидеть пузырь – это выйти из него. А как выйти, если вы даже не знаете, где вход?

Вы думаете, что видите «реальность». Вы думаете, что ваша лента – это просто «то, что происходит в мире». Вы думаете, что если что-то не показывают в вашей ленте, значит, этого не существует. Или это неважно. Или это «фейк», который разоблачили ваши любимые блогеры.

Алгоритм добился главного: он сделал себя невидимым. Вы забыли, что ленту формирует не редакция, не друзья, не хронология событий. Ее формирует машина, у которой есть одна цель – удержать вас как можно дольше.

И ради этой цели она готова отрезать вас от всего, что не укладывается в ваш профиль. От сложных вопросов. От неудобных фактов. От людей, которые думают иначе. От правды, которая может оказаться где-то посередине.

Механизм информационного гедонизма: почему правда ощущается как наркотик, а сомнение – как удар

Давайте начистоту. Вы не открываете социальные сети ради истины. Вы открываете их ради хорошего самочувствия.

И алгоритм это знает лучше, чем вы. Он не продает вам новости. Он продает вам ощущение правоты. И это – самый прибыльный товар в истории человечества. Потому что для вашего мозга ощущение «я прав» – это не абстрактная радость. Это конкретная химическая реакция, которая по своей силе сравнима с действием легких наркотиков.

Подтверждающее искажение: «Я же говорил!»

В психологии есть термин, который описывает одну из самых устойчивых ошибок человеческого мышления: confirmation bias – подтверждающее искажение.

Это когнитивная ловушка, в которую попадают все без исключения. Суть проста: мы ищем, запоминаем и интерпретируем информацию так, чтобы она подтверждала наши уже существующие убеждения. Информацию, которая им противоречит, мы либо игнорируем, либо забываем, либо объявляем «фейком» или «предвзятостью».

Долгое время считалось, что это просто «ошибка мышления». Логический дефект, который можно исправить образованием и тренировкой критического мышления.

Но нейробиология последних лет показала: всё гораздо глубже. Подтверждающее искажение – это не ошибка. Это архитектура.

Когда вы видите пост, который подтверждает вашу точку зрения, в вашем мозге происходит следующее. Информация поступает в префронтальную кору (центр анализа), но параллельно – и это ключевой момент – активируется прилежащее ядро. То самое, которое отвечает за предвкушение награды.

Вы читаете заголовок: «Ученые подтвердили то, во что вы всегда верили». И до того, как вы осознали содержание текста, ваш мозг уже получил микровсплеск дофамина. Это чистое удовольствие. Удовольствие от того, что мир устроен так, как вы думали. Удовольствие от того, что вы не ошиблись. Удовольствие от того, что ваша картина мира – верна.

Это ощущение знакомо каждому. Тот самый внутренний щелчок: «Ну! Я же говорил!». В этот момент вы чувствуете не просто удовлетворение – вы чувствуете безопасность. Мир предсказуем. Ваши прогнозы сбываются. Вы – компетентны.

Дофаминовая система награждает вас за это чувство так же щедро, как когда-то награждала ваших предков за найденную ягоду или удачную охоту. Потому что для древнего мозга «я прав» = «я выживу». Предсказуемость мира – это основа безопасности.

Интеллектуальный сахар: почему сладкое вредно, но так хочется

Теперь представьте, что подтверждающий контент – это сахар для вашего мозга.

Сахар – это быстрая энергия. В природе сладкий вкус сигнализировал о спелых фруктах, богатых калориями. Мозг полюбил сахар и выстроил мощную систему награды за его потребление.

Но сегодня мы едим не ягоды. Мы едим рафинированный сахар, который в сотни раз концентрированнее, чем всё, что встречали наши предки. И мы платим за это диабетом, ожирением, зависимостью.

То же самое происходит с информацией.

Алгоритмы дают вам не просто «подтверждение». Они дают вам сверхконцентрированное подтверждение. Рафинированный интеллектуальный сахар.

Вы когда-нибудь замечали, как легко «залипать» на постах, где автор яростно разносит тех, кто думает иначе, чем вы? Вы сидите, киваете, чувствуете прилив праведного гнева. Но за этим гневом стоит дофамин. Много дофамина. Потому что каждый аргумент в пользу вашей позиции – это маленькая победа. А когда этих побед пятьдесят в минуту, мозг входит в состояние эйфории.

Это и есть информационный гедонизм. Мы потребляем контент не ради знаний. Мы потребляем его ради вкуса правоты.

Амигдала: почему чужое мнение болит

Но есть в этой истории вторая сторона. И она объясняет, почему пузырь фильтров затягивается так быстро и так плотно.

Если подтверждение вашей правоты приносит удовольствие, то столкновение с противоположным мнением приносит боль. Буквально. Нейрофизиологически.

За это отвечает амигдала – миндалевидное тело. Это древняя структура мозга, которая отвечает за обработку эмоций, особенно страха и тревоги. Когда вы сталкиваетесь с угрозой (реальной или социальной), амигдала запускает реакцию «бей или беги». Кровь отливает от префронтальной коры (вы перестаете мыслить рационально), мышцы напрягаются, дыхание учащается. Вы входите в состояние стресса.

Теперь важное. Для амигдалы угроза вашим убеждениям – это такая же угроза, как физическая опасность. Потому что в эволюционной истории человека принадлежность к группе и разделение общих убеждений были вопросом выживания. Если вас изгоняли из племени за «неправильные мысли» – вы умирали.

Поэтому, когда вы читаете пост, который оспаривает вашу картину мира, амигдала активируется так же, как если бы вы увидели змею на тропинке. Вы чувствуете тревогу. Раздражение. Желание закрыть страницу. Или, что чаще, желание написать гневный комментарий и защитить свою правоту.

Этот механизм закреплен на уровне нейронных связей. Его нельзя «отключить» силой воли. Это не недостаток воспитания. Это эволюционное наследие.

И именно на этом наследии алгоритмы построили свой бизнес.

Как искусственный интеллект эксплуатирует биологический баг

Теперь соедините две детали.

Деталь первая: мозг получает дофамин от подтверждения своих убеждений.

Деталь вторая: мозг испытывает стресс и тревогу от столкновения с чужими убеждениями.

Логика алгоритма становится простой и жестокой. Если я покажу пользователю то, с чем он согласен, он получит удовольствие и останется. Если я покажу ему то, с чем он не согласен, он испытает стресс – и, скорее всего, уйдет. Или начнет писать гневные комментарии, что тоже удержит его на платформе, но это отдельная история (гнев тоже вызывает выброс дофамина, но это более сложная петля).

Задача алгоритма – максимизировать время сессии. А для этого нужно минимизировать когнитивный дискомфорт пользователя.

Что делает искусственный интеллект?

Он анализирует вашу историю лайков, просмотров, времени удержания на разных типах контента. Он строит вашу «карту убеждений» – не на основе того, что вы говорите, а на основе того, на чем задерживается ваш палец.