Умберто Эко – Открытое произведение. Форма и неопределенность в современной поэтике (страница 25)
Тогда мы определим такую открытость как увеличение
Открытость, информация, коммуникация
Создавая такие художественные структуры, которые требуют от воспринимающего личного деятельного отношения и часто перекомпоновки предлагаемого материала, всегда различной, современные поэтики отражают общую устремленность нашей культуры к таким процессам, где вместо однозначной и необходимой последовательности событий в качестве вероятностного поля утверждается определенная «неоднозначность» ситуации, стимулируя оперативный или интерпретативный выбор, всякий раз другой.
Эта необычная эстетическая ситуация, а также трудности, с которыми мы сталкиваемся, пытаясь дать точное определение той «открытости», к которой стремятся различные современные поэтики, заставляют нас теперь приступить к рассмотрению особого вида научной методологии, а именно теории информации, в которой, как нам кажется, мы можем найти указания, представляющие интерес для нашего исследования. Указания двоякого рода: с одной стороны, мы полагаем, что некоторые поэтики на свой лад отражают ту же культурную ситуацию, которая обусловила исследования в области информации, с другой стороны, нам кажется, что некоторые методологические приемы, появившиеся в результате этих исследований, при соответствующей корректировке можно использовать в сфере эстетики (и мы увидим, что другие это уже делали). Мы, однако, предвидим немедленные возражения в том смысле, что между научными исследованиями и художественным творчеством не может существовать эффективных связей и что любая параллель является совершенно неосновательной. Следовательно, для того, чтобы избежать прямых и поверхностных перенесений, прежде всего будет полезно рассмотреть общие принципы теории информации, не соотнося их с эстетикой, и только потом выяснить, существуют ли какие-либо связи, а если существуют, то какие именно, и при каких условиях методологические приемы, используемые в одной области, можно использовать в другой.
I. Теория информации
Теория информации стремится к тому, чтобы подсчитать количество информации, содержащейся в том или ином сообщении. Если, например, в метеорологической сводке от 4 августа сообщается о том, что «завтра снегопада не ожидается», информация, которую я получаю, оказывается довольно скудной, потому что речь идет о факте, настолько само собой разумеющемся, что количество известных мне вещей и возможность предугадывать завтрашние события нисколько не увеличиваются. Если же 4 августа сводка погоды сообщает, что «завтра, 5 августа, ожидается снегопад», я получаю значительное количество информации, если учесть невероятность события, о котором мне сообщили. Количество информации, содержащееся в каком-либо сообщении, определяется и осведомленностью, которой я могу располагать относительно достоверности ее источника. Если, покупая дом у агента по недвижимости, я спрашиваю его, не слишком ли этот дом сырой, и он отвечает мне «нет», я получаю мало информации и продолжаю сомневаться в достоверности его слов, но если тот же агент, совершенно неожиданно для меня и в ущерб своим собственным интересам, говорит «да», тогда я получаю изрядное количество информации и действительно узнаю что-то по интересующему меня вопросу.
Таким образом, информация представляет собой некое
Чтобы подсчитать количество информации, необходимо исходить из того, что максимальная вероятность совершения какого-то события равна 1, а минимальная 0. Следовательно, математическая вероятность совершения события колеблется между единицей и нулем. Когда мы подбрасываем монету, у нас одинаковая вероятность того, что выпадет: «орел» или «решка», и, следовательно, вероятность «орла» равна ½. Если же мы берем игральную кость, то вероятность выпадения тройки равна ⅙. Вероятность того, что два независимых друг от друга события совершатся одновременно, зависит от вероятности совершения каждого из них, и, таким образом, вероятность того, например, что одна игральная кость выбросит единицу, а вторая шестерку, равна 1/36.
Ряд событий, которые могут осуществиться, и ряд вероятностей, связанных с совершением этих событий, соотносятся как арифметическая и геометрическая прогрессии (как сумма и произведение) или как величина и ее логарифм, иными словами, второй ряд есть логарифм первого. Более понятным образом количество информации можно выразить так:
В случае с монетой (если мне говорят о том, что выпадет «орел») равенство будет таким:
Следовательно, данное равенство (поскольку при полученном сообщении вероятность всегда будет равна единице, если допустить, что отсутствует фоновый
Информ. = – log (вероятность, имеющаяся для получателя до получения сообщения).
В случае с монетой:
– log (½) = log 2
Оперируя выбором одной из двух равновероятных возможностей, теория информации использует логарифмы по основанию 2 и называет единицу информации термином бит (bit, или binit), представляющим собой сокращение двух слов binary digit (двоичный знак). Использование логарифма по основанию 2 имеет следующее преимущество: поскольку log22 = 1, один бит информации говорит нам о том, какая из двух возможностей события осуществляется.
Еще один пример: возьмем доску из 64 клеток, в одной из которых должна располагаться пешка. Если информатор сообщает мне, что она находится в клетке 48, тогда получаемую мною информацию можно измерить следующим образом: поскольку изначально мои возможности угадать эту клетку составляли 1/64, формула выглядит так: –log2(1/64
Таким образом, можно сказать
Для того, чтобы измерить уменьшение или увеличение количества информации, специалисты обращаются к понятию, заимствованному из термодинамики и теперь уже вполне обоснованно вошедшему в терминологический багаж теории информации. Речь идет о понятии
Согласно второму началу термодинамики, сформулированному Р. Клаузиусом, если определенное количество работы может полностью трансформироваться в теплоту (о чем говорит первое начало термодинамики), то каждый раз, когда теплота трансформируется в работу, это происходит не столь полно и завершенно, как в первом случае. Для того, чтобы совершился переход определенного количества теплоты в работу, двигатель должен обеспечивать обмен теплотой между двумя телами с различной температурой: источником теплоты и охладителем. Двигатель поглощает определенное количество теплоты от ее источника, но не всю ее преобразует в работу, потому что часть отдает охладителю. Таким образом, часть теплоты Q1 преобразуется в работу, кроме того, имеется теплота
Таким образом, если после преобразования работы в теплоту (первый закон термодинамики) я преобразую эту теплоту в работу, мне не удается получить обратно исходное количество этой работы. Наблюдается уменьшение или, как обычно говорят, «расход» энергии, которую уже не удастся восстановить. Энергия «расходуется». Таким образом, некоторые природные процессы не являются полностью обратимыми: «эти процессы
Таким образом, второе начало термодинамики, утверждая «расход» энергии, стало законом энтропии, причем настолько, что обычно идею энтропии связывают с идеей этого «расхода» и с тем выводом, согласно которому, наблюдая за развитием любого естественного процесса в направлении увеличивающегося расхода и поступательного уменьшения энергии, можно якобы говорить о «тепловой смерти» вселенной. Однако надо раз и навсегда отметить, что, если понятие энтропии и используется в термодинамике для определения расхода энергии (и, следовательно, здесь неизбежно начинают звучать пессимистические нотки, коль скоро нам позволено облекать в чувства научные размышления), в действительности энтропия представляет собой