реклама
Бургер менюБургер меню

Дэниел Левитин – Организованный ум (страница 83)

18

Эти результаты показывают, что у потребителей информации есть предел объема, который они могут поглотить и обработать за определенный период. Назовем это результатом действия нагрузки. В действительности это было показано на практике: при наличии большего количества информации выбор потребителей хуже[794].

В другом исследовании изучалось влияние дополнительных подробностей на решение о покупке дома[795]. Исследователи обнаружили максимальное число параметров, которые могут быть обработаны: около десяти. Интересно, что параметрами могут быть либо характеристики, по которым делается выбор, либо альтернативы. Другими словами, при двух вариантах домов нужно отслеживать в общей сложности не более десяти фрагментов информации о них. А если удастся сократить список до двух интересующих аспектов – например, общая площадь и качество местной школы, – можно сравнивать уже десять зданий. В исследованиях сделок с недвижимостью покупателям давали до двадцати пяти параметров, описывающих до двадцати пяти различных домов. Их способность принимать решения ухудшалась, когда один из параметров приводился больше десяти раз. Однако если это количество превышало десять, уже не было разницы, пятнадцать их, двадцать или двадцать пять: как только потребитель начинает страдать от информационной перегрузки, все остальные сведения несущественно влияют на перенасыщенную и без того систему. То есть максимальный предел – десять. Оптимальное число ближе к пяти и согласуется с пределами обработки центральным органом исполнения мозга. Это напоминает проблему с сайтами знакомств, упомянутую в главе 4: дополнительная информация не всегда к лучшему и в этом контексте может привести к более низкой избирательности и к выбору худших вариантов. Дело в том, что тот, кто ищет пару, перегружен нерелевантной информацией и страдает от когнитивной перегрузки и усталости.

Есть и другой важный факт. Экономист из Университета Дьюка и автор книг Дэн Ариэли продемонстрировал, что потребители лучше делают выбор, если обладают определенным типом внутреннего локуса контроля, то есть когда могут фактически контролировать получаемую информацию. В серии экспериментов он наглядно показал, что, если потребитель может выбрать объем получаемых сведений и их параметры, он принимает решение гораздо лучше[796]. Это связано в первую очередь с тем, что выбранные данные имеют отношение к самому потребителю или к тем параметрам, которые он лучше всего способен понять. Например, при покупке фотоаппарата потребителю X самым важным могут показаться размер и цена, в то время как потребителю Y – разрешение (количество пикселей) и тип объектива. Информация, которая для определенного типа покупателя станет отвлекающей или невозможной для понимания, вызовет у него информационную перегрузку и будет препятствовать оптимальному решению. Отдельное исследование, проведенное Канеманом и Тверски, показывает, что люди не могут игнорировать сведения, которые не имеют к ним отношения. И поэтому существуют реальные последствия для мозга от поступления той информации, которая людям не нужна и которую они не могут использовать[797].

Тогда нас интересует вопрос не о том, сколько дел можно выполнить одновременно, а о том, насколько упорядоченной можно сделать информационную среду. Существует множество исследований различий полезности простых и сложных сведений. Клод Шеннон, инженер-электрик, работавший в Bell Laboratories, в 1940-х годах разработал теорию информации – одну из наиболее важных в ХХ веке[798]. Она служит основой для сжатия звуковых, графических и видеофайлов (например, MP3, JPEG и MP4 соответственно) и серьезно влияет на развитие обработки данных и индустрии связи в целом.

Основная задача, которая стоит перед телекоммуникациями при передаче данных, а также для обеспечения безопасности связи, – передать сообщение как можно быстрее, упаковав максимальный объем данных в минимальный временной или пространственный промежуток. Это называется сжатием. Раньше, когда телефонная связь шла по паре медных проводов (то, что фанаты телекоммуникационной связи называют «обычной аналоговой телефонной линией»), объем вызовов, передаваемых по основным телефонным проводам (магистралям), был ограничен, а стоимость запуска новых линий была непомерно дорогой. Для оптимизации передачи голоса были проведены эксперименты по его восприятию, и стало ясно: чтобы речь оставалась понятной, телефонной компании не нужно передавать все частоты человеческого голоса. Так называемый телефонный диапазон уложился в промежуток 300–3300 герц – и это только доля от полного, поскольку на слух человек может воспринимать звуки с частотой 20–20 000 герц[799]. Именно из-за ограниченности телефонного диапазона голос в трубке звучал с характерным «жестяным» оформлением. Не слишком высокая точность воспроизведения, но для большинства целей достаточно минимума. Правда, если вы когда-либо пытались объяснить по аналоговой линии, что говорите о звуке «ф», а не о «с», то столкнулись с ограничением пропускной способности, потому что акустическая разница двух звуков полностью находится в диапазоне, который вырезал Белл. Но при этом телефонная компания могла бы вжать несколько разговоров в пространство одного, максимизируя эффективность своей сети и минимизируя затраты на оборудование. Мобильные телефоны по-прежнему ограничены диапазоном по той же причине – чтобы увеличить способность ретрансляторов передать несколько разговоров. Это ограничение полосы пропускания наиболее заметно при прослушивании музыки по телефону: низкие частоты баса и высокие частоты тарелок практически полностью отсутствуют.

Теория информации уже упоминалась в главе 2 при обсуждении количества одновременных разговоров, за которыми может уследить человек, а пределы обработки информации человеческого внимания оцениваются на уровне 120 бит в секунду. Это способ количественной оценки информации, содержащейся в любой передаче, инструкции или сенсорном сигнале. Он может применяться к музыке, речи, живописи и военным приказам. Применение теории информации порождает число, позволяющее сравнивать объем информации в одной передаче с объемом информации в другой.

Предположим, вы хотите передать кому-то команды о том, как изготовить шахматную доску. Можно сказать так:

Возьмите квадрат и покрасьте в белый цвет. Теперь еще один квадрат расположите рядом с первым и покрасьте черным. К нему присоедините квадрат и покрасьте в белый. Рядом расположите квадрат и покрасьте в черный цвет. Следующий квадрат рядом с этим…

Вы можете продолжать давать инструкции в том же духе, пока не дойдете до восьми квадратов (завершив одну строку), а затем придется попросить вернуться к первому квадрату и расположить черный прямо над ним, а затем продолжать квадрат за квадратом, чтобы заполнить вторую строку, и так далее. Это громоздкий способ передать инструкции – и не очень рациональный. Сравните это с таким:

Составьте матрицу из квадратов 8×8, поочередно окрашивая их то в черный, то в белый цвет.

Первый способ передачи команд относится к каждому из 64 квадратов по отдельности. В двоичной арифметике 64 единицы информации требуют 6 бит информации (число битов – это показатель уравнения 2n = 64. В этом примере n = 6, потому что 26 = 64). Но реализация второго правила, где нужно «поочередно окрашивать квадраты», требует только 1 бита: данный квадрат либо черный, либо белый, и поэтому есть два варианта. Поскольку 21 = 2, нам нужен только 1 бит (1 – показатель степени, определяющий количество информации). Два дополнительных факта, что сетка 8×8 и цвета чередуются, – это еще три единицы информации, которые занимают 2 бита[800]. Если вы хотите определить, где какие фигуры располагаются, то снова приходите к 6 битам, потому что каждый бит должен быть указан отдельно. Так что пустая шахматная доска может быть полностью задана в 2 бита, доска с 32 фигурами – в 6 бит. На загруженной шахматной доске больше информации, чем на пустой, и теперь у нас есть способ количественно оценить, насколько. Несмотря на то что Шеннон и его коллеги из Bell Labs работали в докомпьютерном аналоговом мире, они думали о том времени, когда электроника будет использоваться для телекоммуникаций. Поскольку компьютеры основаны на двоичной арифметике, Шеннон решил использовать единицы измерения цифровых компьютеров, биты. Но это не обязательно должно быть так – мы могли бы говорить об этом в обычных числах, а не в битах, если бы хотели: команды по изготовлению пустой шахматной доски требуют как минимум 4 единицы информации, а команды по воссозданию шахматной доски с фигурами – 64 единицы[801].

Та же логика применяется к воссозданию фотографий и изображений на компьютере. Когда вы смотрите на JPEG или другой файл изображения, вы видите его воссоздание: изображение было создано прямо там, на месте, как только вы дважды щелкнули мышкой по его имени. Если вы посмотрите в сам компьютерный файл, который ваша операционная система использует для создания изображения, вы увидите строку нулей и единиц. Изображения нет, только нули и единицы, словарь двоичной арифметики. В черно-белом изображении каждая маленькая точка на экране, пиксель, может быть либо черной, либо белой, а нули и единицы говорят вашему компьютеру, каким именно делать каждый конкретный пиксель – черным или белым. На цветные фотографии уходит больше команд, потому что они представлены в пяти различных возможных цветах: черный, белый, красный, желтый и синий[802]. Вот почему файлы с цветными картинками «тяжелее», чем черно-белые: они содержат больше информации.