Кристофер Шабри – Развод на миллион. Как мошенники используют уязвимости нашего мозга и что делать, чтобы не попасться на их крючок (страница 6)
Понятие «намеренное подавление неверия», введенное в 1817 году поэтом и философом Сэмюэлом Кольриджем, относится к прекращению критического мышления или сомнений, принятию спекулятивной предпосылки, которую мы обычно отвергаем. Когда повествование убедительно, мы не останавливаемся, чтобы спросить, почему хакер смог получить доступ к компьютеру инопланетного корабля с помощью MacBook или как изменение ДНК одного животного приведет к уничтожению всего его вида. Мы не подавляем неверие при просмотре документального фильма, потому что не видим в этом необходимости; мы ожидаем, что документальные фильмы будут документировать, а не выдумывать. То же самое верно и в повседневной жизни. Нашей позицией по умолчанию является доверие – мы принимаем то, что нам говорят, и редко, если вообще когда-либо, проверяем это. В нашем повседневном опыте мы должны работать над тем, чтобы избавиться от уверенности в наших убеждениях, а не от неверия.
Многие предприятия и некоторые отрасли промышленности пользуются преимуществами этой тенденции, возможно, в некоторых случаях неосознанно. Они выпускают «демоверсии» продукта, представляемые в строго контролируемых условиях, благодаря которым их новые технологии кажутся более эффективными, чем они есть на самом деле. Когда кажется, что демонстрационные версии работают, – а они почти всегда работают, – это дает зрителям убедительный сигнал: трудно подвергать сомнению то, что вы видели собственными глазами. Благодаря нашему пристрастию к истине мы верим, что то, что мы видим, является близким к реальности и нас не вводят в заблуждение намеренно.
Например, робототехническая фирма Boston Dynamics (некогда принадлежавшая Google) регулярно публикует видеоролики о том, как ее человекоподобные роботы выполняют реалистичные трюки, такие как движения паркура, но ни одно видео не может сказать нам, преуспеет ли робот на полосе препятствий, которую он никогда не видел, с объектами, с которыми он никогда не сталкивался. Перед лицом убедительной демонстрации мы склонны предполагать, что производительность, которую мы наблюдаем, применима к аналогичным настройкам, даже если у нас нет прямых доказательств, по крайней мере, из ролика, что это так [6].
Практика разработки компьютерных систем, способных проявлять интеллект в ситуациях с высокой степенью ограниченности и при этом подразумевающих, что они будут работать так же хорошо в широком диапазоне контекстов, насчитывает по меньшей мере пятьдесят лет. Иногда разработчики не вводят в заблуждение намеренно – они просто чрезмерно оптимистичны в отношении того, насколько легко будет усовершенствовать их собственную технологию, чтобы она работала в большем количестве ситуаций. В течение десятилетий эксперты по компьютерному зрению и робототехнике предполагали, что если робот сможет понять сцену, содержащую правильные геометрические тела (кубы, пирамиды, цилиндры и т. д.), то основная работа будет выполнена и потребуется всего лишь небольшой шаг, чтобы распространить эту способность на естественные сцены. Но раз за разом системы искусственного интеллекта (ИИ) терпят неудачу при переходе от оптимизированного «микромира» к миру реальному, подобно тому как потенциальные лекарства могут хорошо зарекомендовать себя в лабораторных экспериментах на животных, но терпят неудачу в испытаниях на людях. Иногда такое незначительное изменение, как настройка цвета одного пикселя на цифровом изображении, может заставить систему распознавания объектов принять корабль за автомобиль, а оленя – за самолет. Разработчики демонстрационных версий редко признают, что для достижения надежной работы в условиях реальной сложности часто требуется подход, полностью отличающийся от того, который прекрасно работал в тщательно контролируемой демонстрационной среде [7].
Мошенники извлекают выгоду из этой тенденции воспринимать то, что мы увидели в ходе короткого тщательно проработанного опыта, как отражение более широкой реальности.
Компания Theranos внедрила в свои миниатюрные машины для анализа крови специальный демонстрационный режим под названием «нулевой протокол» и использовала его во время встреч с инвесторами. После взятия крошечного образца крови у высокопоставленного гостя, помещения его в картридж и установки в устройство представитель Theranos нажимал на экран, как если бы он работал нормально, но устройство просто издавало серию звуков, фактически не проводя никаких медицинских анализов. Затем образец тайно доставляли в традиционную лабораторию для анализа, в то время как инвесторов приглашали на обед или экскурсию (которая включала место, где на самом деле проводился анализ их крови). Вся процедура была обсуждена и отрепетирована заранее. Подобно фокусникам, руководители Theranos манипулировали вниманием своей аудитории, заставляя ее думать, что они видели нечто необычное, однако на самом деле ничего не происходило. Даже почтенный автопроизводитель Volkswagen сделал нечто подобное: он запрограммировал свои автомобили на минимизацию выбросов только во время тестирования, чтобы они соответствовали требуемым стандартам, – что привело к государственным штрафам примерно на 40 миллиардов долларов [8].
Большую часть времени нами не нужно манипулировать, заставляя обращать внимание на неправильные вещи, – мы естественным образом фокусируемся на том, что перед нами, и не беспокоимся о том, чего нет. Если вы проводите время в социальных сетях, то в конце концов наткнетесь на схематичный рисунок самолета, покрытого точками [9].
Во время Второй мировой войны 14 октября 1943 года был совершен один из наиболее успешных налетов авиации союзников на немецкие заводы. В попытке сорвать военные усилия нацистов военно-воздушные силы армии США нанесли удар по заводам шарикоподшипников в Швайнфурте. Рейд, который теперь известен как «Черный четверг», достиг своих целей, но дорогой ценой. Из 291 бомбардировщика B-17, вылетевшего из Великобритании, 77 были уничтожены и только 33 вернулись неповрежденными. Более 600 из 2900 солдат, участвовавших в миссии, были убиты или взяты в плен.
МОШЕННИКИ ИЗВЛЕКАЮТ ВЫГОДУ ИЗ ЭТОЙ ТЕНДЕНЦИИ ВОСПРИНИМАТЬ ТО, ЧТО МЫ УВИДЕЛИ В ХОДЕ КОРОТКОГО ТЩАТЕЛЬНО ПРОРАБОТАННОГО ОПЫТА, КАК ОТРАЖЕНИЕ БОЛЕЕ ШИРОКОЙ РЕАЛЬНОСТИ.
B-17 был наиболее активно используемым бомбардировщиком в военных действиях США в Европе, он сбрасывал больше боеприпасов, чем любой другой самолет, но потери были ошеломляющими. К счастью, поврежденные самолеты, которые вернулись, предоставили ВВС богатый набор данных для изучения и надежду повысить показатели выживаемости. Усиление всего самолета для защиты от зенитного огня было бы неосуществимо – дополнительный вес слишком сильно уменьшил бы дальность полета и грузоподъемность. Но, возможно, отдельные части можно было бы укрепить. Если бы повреждения были случайными, пользы было бы мало. Но если бы повреждения оказались системными, затрагивая одни части больше, чем другие, тогда армия могла бы поправить уязвимые участки, укрепить самолеты и, возможно, закончить войну раньше.
Чтобы помочь с этой проблемой, армия нашла Абрахама Вальда, математика румынского происхождения, работавшего в группе статистических исследований Колумбийского университета. Работы Вальда остаются влиятельными до сих пор, и некоторые из открытых им статистических методов сегодня широко используются в психологии, экономике и других дисциплинах. В то время он разрабатывал методы в области «анализа выживаемости» и провел систематическое исследование повреждений самолетов B-17. Если бы повреждения были полностью случайными, вероятность того, что какая-то часть самолета будет повреждена, должна была бы увеличиваться в зависимости от размера этой части: более крупные части должны были бы подвергаться ударам чаще, чем более мелкие. Обнаруженная Вальдом закономерность, скорее всего, обнадежила армию: вероятность попадания в некоторые части самолета была непропорционально выше, чем можно было бы ожидать при случайном обстреле.
Теперь представьте, что вы отвечаете за безопасность B-17. Как бы вы использовали результаты Вальда? Наиболее очевидным планом было бы укрепить поверхности, которые получают непропорционально большое количество повреждений, – например, добавить стальное покрытие там, где самолеты чаще всего подвергаются ударам.
Если вы пришли к такому выводу, поздравляю! Вы сделали, возможно, катастрофический – хотя и распространенный – выбор. Почему? Все, что вам нужно сделать, это подумать о доказательствах, которых не хватает. Анализ ущерба, проведенный Вальдом, был основан на данных о самолетах, которым удалось вернуться. Участки, которые с большей вероятностью были повреждены на вернувшихся самолетах, на самом деле с меньшей вероятностью имели решающее значение для их выживания. Чего не хватало, так это информации о том, что случилось с самолетами, которые не вернулись. Если бы неповрежденные участки имели решающее значение для выживания самолета, у тех, которые были поражены в них, было бы меньше шансов выжить.
Вальд, конечно, понимал это. Его анализ B-17 помог заложить основу для концепции, известной теперь как «ошибка выжившего». Мы склонны уделять больше внимания вещам, которые все еще существуют, пренебрегая теми, которых нет. Эта предвзятость приводит к систематическому непониманию успеха и неудачи, которое особенно распространено в деловой литературе, но от которого страдают многие последующие решения. Теперь вы, должно быть, в состоянии увидеть логический изъян в следующем заявлении подкастера Дэйва Рубина о вакцинации от коронавируса: «Я знаю многих людей, которые сожалеют о том, что сделали прививку. Не знаю никого, кто сожалел бы о том, что не получил ее» [10].