Терри Пратчетт – Наука Плоского Мира II: Земной шар (страница 41)
«Ну, чисто технически — да, но мне кажется, что это будет злоупотреблением…»
«Тупс, мы же
«Именно так», — подтвердил Преподаватель Современного Руносложения. — «В передовом обществе беспрепятственное движение информации жизненно необходимо. Как ни крути, мы живем в эпоху семафоров».
«И движется она, конечно же,
«Да уж точно», — продолжил Декан. — «Мы ведь не хотим, чтобы она утекала
«Так отправлять сообщение или нет?» — прервал их Думминг, прежде чем разговор зашел слишком далеко.
«А нам правда не придется платить?» — уточнил Чудакулли.
Думминг вздохнул: «Нет, сэр».
«Отлично», — сказал Архканцлер. — «Отправь сообщение в Королевство Ланкр, хорошо? У них есть только одна семафорная башня. Блокнот у тебя? Диктую».
Глава 18. Бит из всего
Семафор — это пример простой и проверенной временем цифровой системы связи. Он кодирует буквы алфавита, используя различные комбинации флажков, огней или чего-то подобного. В 1795 году Джордж Мюррей изобрел вариант семафора, очень похожий на тот, который на данный момент используется в Плоском Мире. Это набор из шести заслонок, каждая из которых может быть открыта или закрыта, что в общей сложности дает 64 различных «кода» — более, чем достаточно для обозначения букв, чисел от 0 до 10 и некоторых «специальных» кодов. Эта система получила дальнейшее развитие, но перестала быть передовой технологией после того, как электрический телеграф ознаменовал начало «эпохи проводов». В Плоском Мире семафоры (или «клик-башни») пошли намного дальше: магистральные башни, оснащенные несколькими рядами заслонок и лампами для работы в ночное время, обеспечивают двухстороннюю передачу сообщений через весь континент. Они довольно точно отражают «эволюцию» технологий: если бы нам не удалось обуздать силу пара и электричества, мы вполне могли использовать что-то похожее…
Возможности этой системы позволяют даже передавать изображения — на полном серьезе. Нужно преобразовать картинку в сетку размером 64×64 маленьких квадратика, цвет которых может быть либо черным, либо белым, либо одним из четырех оттенков серого, а затем считать содержимое сетки, как книгу — слева направо и сверху вниз. Все дело в информации, нужно лишь несколько умных клерков, чтобы придумать алгоритмы сжатия, и человек с неглубокой коробкой, вмещающей 4096 деревянных кубиков, стороны которых окрашены в те самые цвета — черный, белый и четыре оттенка серого. Чтобы собрать картинку, потребуется некоторое время, но клерки обходятся дешево.
Цифровые сообщения — это основа Информационного Века — такое название мы дали современной эпохе с верой в то, что знаем намного больше, чем кто-либо и когда-либо. Примерно так же и Плоский Мир гордится тем, что живет в Век Семафоров, или Эпоху Клик-Башен. Но что такое информация?
Отправляя сообщение, мы обычно ожидаем, что нам придется за него заплатить — в противном случае тот, кто занимается его передачей, будет недоволен. Именно это свойство сообщений вызвало беспокойство Чудакулли, убежденного в том, что сотрудники университетов должны путешествовать бесплатно.
Цена — это, конечно, тоже способ измерения, но она зависит от сложного взаимодействия рыночных сил. Что, к примеру, произойдет, если товар распродается по сниженной цене? С научной точки зрения, «информация» — это объем передаваемого сообщения. Каким бы ни был носитель информации, длинные сообщения стоят дороже коротких — этот принцип, с точки зрения нашей деятельности, кажется вполне универсальным. И значит, где-то в глубине человеческого разума живет вера в то, что у любого сообщения есть количественная мера, или
Можно ли сказать, что «информация» и «история» — это одно и то же? Нет. Конечно же, истории содержат в себе информацию, однако у историй есть и гораздо более интересные качества. В то же время информация в большинстве случае не складывается в историю. Представьте себе телефонный справочник: это огромный массив тщательно подобранной информации, но рассказия в нем маловато. Для истории важен смысл. А смысл и информация — это совершенно разные вещи.
Мы гордимся тем, что живем в Информационную Эру. И в этом наша проблема. Если мы когда-нибудь доживем до Эры Смысла, то, наконец-то, сможем понять, в чем именно мы ошиблись.
Информация — это не предмет, а абстракция. Однако склонность человека к материализации абстрактных понятий привела к тому, что многие ученые считают информацию реально существующим явлением. А некоторые физики начинают задаваться вопросом, может ли Вселенная тоже состоять из информации.
Как появилась эта точка зрения и насколько она соответствует действительности?
Люди научились количественно оценивать информацию в 1948 году, когда математик, а позже инженер, Клод Шеннон нашел способ оценить объем информации, заключенной в сообщении, — хотя он сам предпочитал термин
Шенноновская мера информации количественно выражает степень снижения нашей неопределенности относительно бит, составляющих сигнал, после получения сообщения. В простейшем случае, когда сообщение состоит из нулей и единиц, а все варианты равновероятны, количество информации, заключенной в сообщении, определяется очень просто: оно равно общему количеству бит. Каждая принятая нами цифра уменьшает нашу неопределенность относительно
В данном случае мы придерживаемся точки зрения инженера-связиста и молчаливо предполагаем, что нас интересует только значения отдельных бит сигнала, а не содержащийся в них смысл. То есть каждое из сообщений 111111111111111 и 111001101101011 содержит 15 бит информации. Однако есть и другие подходы к определению информации. Не так давно Грегори Хайтин указал на возможность количественной оценки сигнала с точки зрения содержащихся в нем шаблонов, или закономерностей. Для этого необходимо обратить внимание не на размер сообщения, а на размер компьютерной программы, или
Иначе говоря, подход Хайтина сосредоточивает свое внимание на «сжимаемости» сообщений. Если длинное сообщение можно сгенерировать с помощью короткой программы, то лучше переслать эту программу вместо сообщения, сэкономив и время, и деньги. Такая программа «сжимает» сообщение. Когда ваш компьютер преобразует большой графический файл — скажем, фотографию, в JPEG-файл намного меньшего размера, он сжимает информацию в исходном файле одним из стандартных алгоритмов. Это возможно благодаря тому, что фотографии содержат множество шаблонов — например, многократные повторения голубых пикселей, из которых состоит небо. Чем хуже сигнал поддается сжатию, тем больше в нем информации по Хайтину. А для сжатия сигнала нужно описать составляющие его шаблоны. Отсюда следует, что несжимаемые сигналы хаотичны, не содержат никаких закономерностей, однако именно они несут в себе наибольшее количество информации. И в некотором смысле это вполне логично: узнав значение одного бита, мы получаем больше всего информации в том случае, когда непредсказуемость каждого последующего бита максимальна. Если сигнал выглядит как 111111111111111, то мы вряд ли удивимся, узнав, что очередной бит равен 1; но в случае сигнала 111001101101011 (чтобы его получить, мы 15 раз подбросили монетку) угадать следующий бит не так просто.
Оба способа измерения информации находят применение в электронных устройствах. Если информация по Шеннону связана со временем, необходимым для передачи сигнала куда-то еще, то информация по Хайтину оценивает возможность применить какой-нибудь хитрый способ сжатия, чтобы затем передать более короткий сигнал. По крайней мере, так бы было, если бы количество этой информации поддавалось расчетам, но одна из особенностей теории Хайтина состоит в том, что вычислить количество алгоритмической информации, заключенной в сообщении, нельзя — и он смог это доказать. Волшебникам такой подвох пришелся бы по нраву.