реклама
Бургер менюБургер меню

Адам Кучарски – Законы эпидемий. Как развиваются и почему прекращаются эпидемии болезней, финансовые кризисы, вспышки насилия и модные тренды (страница 45)

18

В последнее десятилетие прием успешно применяли несколько онлайн-сообществ. Один из первых случаев произошел в сентябре 2008 года, когда пользователь написал сообщение на форуме шоу Опры Уинфри. Он утверждал, что представляет широкую сеть педофилов, в которой состоит более 9000 человек. Но этот пост не стоило принимать всерьез: фраза «более 9000» (over 9000) – отсылка к мультсериалу «Жемчуг дракона Z», где этими словами воин оценивает силы противника, – была мемом с анонимного форума 4chan, изобилующего троллями. К удовольствию пользователей 4chan, Уинфри отнеслась к сообщению серьезно и прочла его в эфире[456].

По сути, интернет-форумы вроде 4chan, Reddit и Gab – это инкубаторы для заразных мемов. Вскоре после того, как пользователь публикует картинку или текст, появляется множество их новых вариантов. Эти новые, мутировавшие мемы распространяются и конкурируют со старыми; самые заразные выживают на форумах, более слабые исчезают. Это выживание самых приспособленных – процесс, аналогичный биологической эволюции[457]. Конечно, речь не идет о тысячелетиях, которые имели в своем распоряжении патогены, но эта краудсорсинговая эволюция дает сетевому контенту значительные преимущества.

Один из самых успешных эволюционных трюков, который тролли довели до совершенства, заключается в том, чтобы сделать мем предельно абсурдным: так людям будет трудно понять, серьезен он или нет. С налетом иронии маргинальные взгляды распространяются лучше, чем без него. Если аудитория обидится, автор мема может сказать, что это была шутка; если же пользователи посчитают мем шуткой, они не будут его критиковать. Эту тактику используют группы, пропагандирующие превосходство белой расы. Неонацистский сайт Daily Stormer в руководстве по стилю рекомендует авторам придерживаться легкого тона, чтобы не отпугивать читателей: «оскорбления на расовой почве должны иметь полушутливый оттенок»[458].

По мере того как мемы становятся все более заметными, они могут превращаться в эффективный ресурс для политиков, умеющих работать со СМИ. В октябре 2018 года Дональд Трамп использовал слоган «Jobs Not Mobs» («Рабочие места вместо бандитизма»), заявляя, что республиканцы выступают за развитие экономики, а не за поощрение иммиграции. Когда журналисты попытались найти источник этой фразы, выяснилось, что впервые она появилась в твиттере. Какое-то время она эволюционировала на форумах Reddit, стала запоминающейся и в итоге широко распространилась[459].

Маргинальный контент подхватывают не только политики. Слухи в интернете и ошибочная информация спровоцировали нападения на представителей национальных меньшинств на Шри-Ланке и в Мьянме, а также вспышки насилия в Мексике и Индии. В то же время кампании по дезинформации призваны столкнуть обе стороны конфликта. Сообщалось, что в 2016 и 2017 годах группы троллей из России создавали в фейсбуке мероприятия с целью организовать протестные акции ультраправых группировок и их противников[460]. Общественное недовольство усиливает также дезинформация по конкретным темам, таким как вакцинирование; недоверие к науке добавляется к недоверию к властям и судебной системе[461].

Проблема распространения опасной информации не нова. Даже термин «фейковые новости» возник давно – он использовался еще в конце 1930-х, хотя и недолго[462]. Но структура сетей в интернете способствует тому, чтобы процесс ускорялся, распространялся шире, а распознать фейки становилось все труднее. Информация, подобно некоторым вирусам, может эволюционировать, чтобы передаваться эффективнее. Что же с этим делать?

Мощное землетрясение на востоке Японии стало самым разрушительным в истории страны. Его сила была такова, что земная ось сместилась на несколько сантиметров, а в океане образовались цунами высотой до сорока метров. Затем поползли слухи. Через три часа после катастрофы 11 марта 2011 года один из пользователей твиттера предупредил о возможности ядовитого дождя из-за взрыва резервуара с газом. Взрыв был реальным – в отличие от ядовитого дождя. Но слухи продолжали распространяться. За один день несколько тысяч человек прочли безосновательное предупреждение и поделились им[463].

В ответ на эти слухи власти близлежащего города Ураясу опубликовали опровержение. Хотя ложное сообщение имело фору во времени, опровержение вскоре догнало его по популярности. К следующему вечеру опровержением делилось больше пользователей, чем первоначальным слухом. По мнению группы исследователей из Токио, более быстрый ответ властей дал бы больший эффект. На основании математических моделей они пришли к выводу, что, если бы опровержение было опубликовано на два часа раньше, это уменьшило бы вспышку слухов на 25 %.

Быстрое опровержение не всегда помогает погасить вспышку, но может замедлить распространение. Исследователи из Facebook выяснили, что, если друзья быстро сообщают пользователю, что тот поделился фальшивкой (например, сомнительной схемой «как быстро разбогатеть»), вероятность того, что он удалит пост, возрастает на 20 %[464]. Порой компании намеренно замедляют передачу информации, меняя структуру своих приложений. После серии нападений в Индии, вызванных ложными слухами, мессенджер WhatsApp затруднил распространение контента: теперь пользователи в Индии могли пересылать сообщения только пяти друзьям, а не сотне, как раньше[465].

Обратите внимание: эти контрмеры направлены на разные факторы, влияющие на репродуктивное число. Мессенджер WhatsApp ограничил возможности для передачи. Пользователи фейсбука убеждают друзей удалить пост, что уменьшает время заразности. Власти Ураясу снизили восприимчивость, предоставив тысячам людей правдивую информацию раньше, чем до них докатились слухи. Как и в случае с инфекционными болезнями, на некоторые аспекты репродуктивного числа воздействовать легче, чем на другие. В 2019 году интернет-сервис Pinterest объявил о том, что будет блокировать в результатах поиска контент, направленный против вакцинации (тем самым исключая возможность его распространения), и намерен полностью удалить его, что снизит продолжительность заражения[466].

Остается еще один фактор, влияющий на репродуктивное число: вероятность передачи идеи. Вспомним о рекомендациях СМИ по освещению таких событий, как самоубийства: они призваны снизить вероятность заражения. Уитни Филлипс и другие исследователи считают, что мы точно так же поступаем с манипулятивной информацией, ограничивая ее освещение, чтобы проблема не распространялась дальше. «Сообщая о какой-нибудь фальшивке или любой другой попытке манипуляции, вы тем самым ее легитимизируете, – говорит Филлипс. – В сущности, вы подаете пример другим, показывая, что это работает»[467].

Недавние события показали, что некоторым СМИ в этом плане предстоит еще много работы. После массового убийства в мечети в новозеландском городе Крайстчерч ряд изданий проигнорировал общепризнанные рекомендации по освещению террористических атак. Многие назвали имя стрелка, подробно рассказали о его взглядах, даже дали ссылки на его манифест и опубликовали видео теракта. К сожалению, эта информация стала популярной: в статьях, широко распространившихся в фейсбуке, очень часто нарушались упомянутые рекомендации[468].

Это означает, что нам нужно задуматься о том, как мы реагируем на человеконенавистнические идеи и кому выгодно привлекать к ним внимание. Сторонники освещения экстремистских взглядов обычно говорят, что они все равно распространились бы, даже без участия СМИ. Но исследования, посвященные заражению в интернете, показали обратное: без широковещательной передачи, которая подкрепляет контент, он редко распространяется широко. Как правило, идея становится популярной после того, как ее распространению помогают – намеренно или случайно – известные персоны или СМИ.

К сожалению, из-за меняющейся природы журналистики становится все труднее сопротивляться попыткам манипуляции. Жажда кликов и перепостов сделала СМИ уязвимыми к эксплуатации со стороны людей, публикующих заразные идеи; трудно противостоять тому интересу, который вызывают эти идеи. Это привлекает интернет-троллей и манипуляторов, которые гораздо лучше большинства пользователей разбираются в механизмах заражения в сети. С технологической точки зрения большинство манипуляторов не злоупотребляют системой – они следуют ее стимулам. «Секрет в том, что они используют соцсети именно так, как задумывалось при их создании», – говорит Филлипс. В ходе исследования она опросила десятки журналистов, и многие чувствовали себя неловко, осознавая, что извлекают выгоду из рассказов об экстремистских взглядах. «Это хорошо для меня, но плохо для страны», – признался один из репортеров. Чтобы уменьшить вероятность заражения, Филлипс предлагает обсуждать не только само событие, но и процесс манипуляции: «Разъяснение того, что публикация статьи – часть цепи усиления, что журналисты и читатели – тоже ее звенья, – все это должно выходить на первый план при освещении событий».

Хотя журналисты вносят существенный вклад в распространение информации, в цепи передачи есть и другие звенья – прежде всего соцсети. Изучать заражение на этих платформах гораздо сложнее, чем реконструировать последовательность случаев заболевания или инцидентов со стрельбой. Экосистема в интернете многомерна, в ней происходят триллионы взаимодействий, она пронизана широчайшей сетью возможных путей передачи. Но несмотря на всю ее сложность, предлагаемые решения зачастую одномерны: нам просто рекомендуют что-то делать чаще, а что-то реже.