реклама
Бургер менюБургер меню

Умберто Эко – Открытое произведение. Форма и неопределенность в современной поэтике (страница 25)

18

Тогда мы определим такую открытость как увеличение информации, но такое определение перенесет наше исследование на другой уровень и нам придется обосновать возможность использования в эстетической сфере «теории информации».

Открытость, информация, коммуникация

Создавая такие художественные структуры, которые требуют от воспринимающего личного деятельного отношения и часто перекомпоновки предлагаемого материала, всегда различной, современные поэтики отражают общую устремленность нашей культуры к таким процессам, где вместо однозначной и необходимой последовательности событий в качестве вероятностного поля утверждается определенная «неоднозначность» ситуации, стимулируя оперативный или интерпретативный выбор, всякий раз другой.

Эта необычная эстетическая ситуация, а также трудности, с которыми мы сталкиваемся, пытаясь дать точное определение той «открытости», к которой стремятся различные современные поэтики, заставляют нас теперь приступить к рассмотрению особого вида научной методологии, а именно теории информации, в которой, как нам кажется, мы можем найти указания, представляющие интерес для нашего исследования. Указания двоякого рода: с одной стороны, мы полагаем, что некоторые поэтики на свой лад отражают ту же культурную ситуацию, которая обусловила исследования в области информации, с другой стороны, нам кажется, что некоторые методологические приемы, появившиеся в результате этих исследований, при соответствующей корректировке можно использовать в сфере эстетики (и мы увидим, что другие это уже делали). Мы, однако, предвидим немедленные возражения в том смысле, что между научными исследованиями и художественным творчеством не может существовать эффективных связей и что любая параллель является совершенно неосновательной. Следовательно, для того, чтобы избежать прямых и поверхностных перенесений, прежде всего будет полезно рассмотреть общие принципы теории информации, не соотнося их с эстетикой, и только потом выяснить, существуют ли какие-либо связи, а если существуют, то какие именно, и при каких условиях методологические приемы, используемые в одной области, можно использовать в другой.

I. Теория информации

Теория информации стремится к тому, чтобы подсчитать количество информации, содержащейся в том или ином сообщении. Если, например, в метеорологической сводке от 4 августа сообщается о том, что «завтра снегопада не ожидается», информация, которую я получаю, оказывается довольно скудной, потому что речь идет о факте, настолько само собой разумеющемся, что количество известных мне вещей и возможность предугадывать завтрашние события нисколько не увеличиваются. Если же 4 августа сводка погоды сообщает, что «завтра, 5 августа, ожидается снегопад», я получаю значительное количество информации, если учесть невероятность события, о котором мне сообщили. Количество информации, содержащееся в каком-либо сообщении, определяется и осведомленностью, которой я могу располагать относительно достоверности ее источника. Если, покупая дом у агента по недвижимости, я спрашиваю его, не слишком ли этот дом сырой, и он отвечает мне «нет», я получаю мало информации и продолжаю сомневаться в достоверности его слов, но если тот же агент, совершенно неожиданно для меня и в ущерб своим собственным интересам, говорит «да», тогда я получаю изрядное количество информации и действительно узнаю что-то по интересующему меня вопросу.

Таким образом, информация представляет собой некое дополнение, является чем-то таким, что добавляется к уже известному и что я воспринимаю как новое. Однако в приведенных нами примерах речь шла о достаточно обширной и сложной информации, в которой доля новизны зависит от ожиданий получателя. На деле информацию предварительно следует выделить в гораздо более простых ситуациях, в которых ее количество можно измерить математически и выразить в числах, не обращаясь к познаниям, которыми может располагать ее возможный получатель; в этом, собственно, и заключается задача теории информации. Ее расчеты подходят к сообщениям любого вида, к числовым и лингвистическим символам, к последовательности тех или иных звуков и т. д.

Чтобы подсчитать количество информации, необходимо исходить из того, что максимальная вероятность совершения какого-то события равна 1, а минимальная 0. Следовательно, математическая вероятность совершения события колеблется между единицей и нулем. Когда мы подбрасываем монету, у нас одинаковая вероятность того, что выпадет: «орел» или «решка», и, следовательно, вероятность «орла» равна ½. Если же мы берем игральную кость, то вероятность выпадения тройки равна ⅙. Вероятность того, что два независимых друг от друга события совершатся одновременно, зависит от вероятности совершения каждого из них, и, таким образом, вероятность того, например, что одна игральная кость выбросит единицу, а вторая шестерку, равна 1/36.

Ряд событий, которые могут осуществиться, и ряд вероятностей, связанных с совершением этих событий, соотносятся как арифметическая и геометрическая прогрессии (как сумма и произведение) или как величина и ее логарифм, иными словами, второй ряд есть логарифм первого. Более понятным образом количество информации можно выразить так:

В случае с монетой (если мне говорят о том, что выпадет «орел») равенство будет таким:

Следовательно, данное равенство (поскольку при полученном сообщении вероятность всегда будет равна единице, если допустить, что отсутствует фоновый шум, о котором мы еще поговорим) можно представить так:

Информ. = – log (вероятность, имеющаяся для получателя до получения сообщения).

В случае с монетой:

– log (½) = log 2

Оперируя выбором одной из двух равновероятных возможностей, теория информации использует логарифмы по основанию 2 и называет единицу информации термином бит (bit, или binit), представляющим собой сокращение двух слов binary digit (двоичный знак). Использование логарифма по основанию 2 имеет следующее преимущество: поскольку log22 = 1, один бит информации говорит нам о том, какая из двух возможностей события осуществляется.

Еще один пример: возьмем доску из 64 клеток, в одной из которых должна располагаться пешка. Если информатор сообщает мне, что она находится в клетке 48, тогда получаемую мною информацию можно измерить следующим образом: поскольку изначально мои возможности угадать эту клетку составляли 1/64, формула выглядит так: –log2(1/64) = log264 = 6. Таким образом, я получил информацию, которую можно сосчитать в 6 битах{45}.

Таким образом, можно сказать, что количество информации, переданной в сообщении, является логарифмом по основанию 2 определенного числа альтернатив, позволяющих недвусмысленно определить это сообщение{46}.

Для того, чтобы измерить уменьшение или увеличение количества информации, специалисты обращаются к понятию, заимствованному из термодинамики и теперь уже вполне обоснованно вошедшему в терминологический багаж теории информации. Речь идет о понятии энтропии. Это понятие достаточно широко известно, потому что все о нем слышали, но в силу этого оно достаточно размыто, так как каждый понимает его по-своему и использует весьма свободно; поэтому будет неплохо, если мы вкратце его рассмотрим, ибо его происхождение из термодинамики оставило наслоения, не всегда обоснованные.

Согласно второму началу термодинамики, сформулированному Р. Клаузиусом, если определенное количество работы может полностью трансформироваться в теплоту (о чем говорит первое начало термодинамики), то каждый раз, когда теплота трансформируется в работу, это происходит не столь полно и завершенно, как в первом случае. Для того, чтобы совершился переход определенного количества теплоты в работу, двигатель должен обеспечивать обмен теплотой между двумя телами с различной температурой: источником теплоты и охладителем. Двигатель поглощает определенное количество теплоты от ее источника, но не всю ее преобразует в работу, потому что часть отдает охладителю. Таким образом, часть теплоты Q1 преобразуется в работу, кроме того, имеется теплота Q – Q1, которая передается охладителю.

Таким образом, если после преобразования работы в теплоту (первый закон термодинамики) я преобразую эту теплоту в работу, мне не удается получить обратно исходное количество этой работы. Наблюдается уменьшение или, как обычно говорят, «расход» энергии, которую уже не удастся восстановить. Энергия «расходуется». Таким образом, некоторые природные процессы не являются полностью обратимыми: «эти процессы однонаправленны, и с каждым из них мир делает шаг, след которого никоим образом нельзя стереть»{47}. Если мы хотим найти общую меру этой необратимости, надо предположить, что природа, так сказать, отдает предпочтение одним состояниям перед другими (то есть тем, к которым устремляются необратимые процессы) и, кроме того, нам придется отыскать физическую величину, которая количественно измеряет предпочтение, отдаваемое природой определенному состоянию. Такая величина имела бы свойство расти во всех необратимых процессах. Это и есть энтропия.

Таким образом, второе начало термодинамики, утверждая «расход» энергии, стало законом энтропии, причем настолько, что обычно идею энтропии связывают с идеей этого «расхода» и с тем выводом, согласно которому, наблюдая за развитием любого естественного процесса в направлении увеличивающегося расхода и поступательного уменьшения энергии, можно якобы говорить о «тепловой смерти» вселенной. Однако надо раз и навсегда отметить, что, если понятие энтропии и используется в термодинамике для определения расхода энергии (и, следовательно, здесь неизбежно начинают звучать пессимистические нотки, коль скоро нам позволено облекать в чувства научные размышления), в действительности энтропия представляет собой статистическую величину и потому является математически нейтральным инструментом. Иными словами, энтропия представляет собой меру состояния наибольшей равновероятности, к которой стремятся естественные процессы. В этом смысле и принято говорить, что природа имеет предпочтения: она предпочитает более единообразное состояние менее единообразному, и теплота переходит от более нагретого тела к менее нагретому потому, что состояние равномерного распределения температуры более вероятно, чем состояние неравномерного распределения. Иными словами, взаимонаправленная скорость молекул в большей степени тяготеет к состоянию единообразия, а не к состоянию различия, в котором, при их различной скорости, совершаются различные тепловые реакции. Исследования, проведенные Больцманом в области кинетики газов, показали, что природа прежде всего тяготеет к элементарной неупорядоченности, мерой которой является энтропия{48}.