Мигель Николелис – Истинный творец всего. Как человеческий мозг сформировал вселенную в том виде, в котором мы ее воспринимаем (страница 10)
В таком контексте переход от химических реакций к теории функционирования живых организмов требует лишь одного логического шага, и Пригожин сделал его с большим удовольствием. Чтобы понять, как именно, давайте вернемся к нашему швейцарскому дереву в Монтрё на променаде у озера и свяжем теорию Пригожина с нашими идеями.
Это дерево давным-давно пустило глубокие корни на берегу Женевского озера, используя свои многочисленные биологические солнечные панели для поглощения солнечного света и извлекая углекислый газ из окружающей среды. Оно получает энергию из солнечного света благодаря наличию в хлоропластах клеток листьев светопоглощающего пигмента — хлорофилла. Используя солнечный свет, углекислый газ и воду, хлоропласты осуществляют фотосинтез. Благодаря этому процессу растения способны направлять некоторое количество энергии солнечного света на поддержание и укрепление неравновесного состояния, существовавшего в семечке, из которого выросло растение, за счет добавления и поддержания слоев органической ткани в своей структуре.
Растения поглощают солнечный свет, животные поедают растения, а мы поедаем и тех и других. В целом жизнь сводится к поеданию того, что дает нам солнце; одни берут его свет сразу, а другие получают свою долю из вторых рук. Наш с Рональдом вклад в развитие этой идеи заключается в формулировании теории о том, что диссипативная структура (в данном случае дерево) претерпевает самоорганизацию — оно использует преимущества данного процесса для физического встраивания информации в образующую его органическую материю. Например, по мере роста дерева информация о климате, наличии воды, динамике солнечных пятен и многих других параметрах встраивается в круги, которые дерево каждый год добавляет к своей трехмерной структуре. В этом смысле дерево осуществляет все базовые операции, которые требуются от органического компьютера в соответствии с нашим критерием. И хотя у самого дерева нет прямого доступа к «памяти», сконцентрированной в виде кругов, внешние наблюдатели вроде нас могут до нее добраться[6].
В более формальном виде мы с Рональдом определили следующее:
Мы полагаем, что этот процесс не идентичен в разных формах жизни. Мы только что обратили внимание на то, что заключенная в древесных кольцах информация не может (насколько я могу судить) быть извлечена самим растением. Иными словами, само растение не имеет доступа к информации, требующейся, чтобы рассчитать, скажем, количество пятен на Солнце в предыдущем сезоне. Однако животные, обладающие мозгом, не только постоянно обращаются ко встроенной в их нервную ткань информации, но и используют ее как руководство для действий и поведения в будущем. В таком случае процесс превращения энергии в информацию лежит в основе важнейшего феномена, называемого обучением, и отвечает за накопление воспоминаний в головном мозге животного. Более того, поскольку в головном мозге этот процесс встраивания информации происходит напрямую через модификацию нервной ткани (т. е. через физическое изменение морфологических характеристик синапсов между двумя нейронами), можно сказать, что эта информация обладает «причинной эффективностью» в отношении нервной системы. Это означает, что процесс записи информации изменяет физическую конфигурацию (и, следовательно, функциональные параметры) сетей нейронов[7]. В этом заключается основа мощнейшего нейрофизиологического свойства, называемого нейропластичностью (см. главу 4).
Записывание информации в головной мозг животного — это очень большой шаг вперед по сравнению с годичными кольцами деревьев. Но еще более впечатляющие результаты показывает человеческий мозг. В нем диссипация энергии отвечает не только за постоянное накопление воспоминаний в результате удивительного и уникального процесса, происходящего на протяжении длительного периода времени или даже всей жизни организма, за обучение и пластичность, но также за появление гораздо более ценного и редкого продукта — знания.
Энергия превращается в знания!
На мой взгляд, это можно считать кульминацией, самым революционным результатом термодинамического описания жизни.
На данном этапе необходимо описать одно очень важное термодинамическое понятие — энтропию. Энтропию можно определить множеством способов. Как вариант, можно представить ее в качестве меры разупорядочения молекул или случайного распределения в конкретной макроскопической системе. Иначе энтропия описывается как число микросостояний, которые конкретная система, например газ, способна принимать, не меняя макроскопического поведения. Представьте себе, что входите в огромный пустой танцевальный зал в отеле с одним маленьким, наполненным гелием воздушным шариком в руках, как на день рождения. Поскольку шар имеет маленький объем, молекулы гелия плотно прижаты друг к другу и имеют сравнительно низкий уровень разупорядочения, поскольку не могут удалиться на большое расстояние из-за ограниченного объема шара. Аналогичным образом количество микросостояний тоже сравнительно невелико: хотя каждый атом гелия может меняться местами с другими атомами, не приводя к смене макросостояния наполненного гелием шарика, их передвижения все же ограничены шаром, и они не могут занять другое положение в танцевальном зале. Какое бы определение вы ни использовали, в данном случае гелий находится в состоянии с низким уровнем энтропии. Но вот вы доходите до центра зала и решаете проткнуть шарик и выпустить гелий. Теперь гелий, который изначально был сжат в ограниченном пространстве (соответствующем объему шара), распространяется по всему залу гораздо большего объема, что значительно повышает степень разупорядочения молекул и неопределенность точной локализации каждой молекулы гелия. Эта неопределенность характеризует состояние с высоким уровнем энтропии.
Знаменитый австрийский физик Людвиг Больцман, один из создателей термодинамики, первым нашел способ описать это понятие на количественном уровне, создав статистическую формулу для энтропии природных веществ, таких как газы. Его формула выглядит так:
где
Как следует из первой формулировки второго закона термодинамики, предложенной Уильямом Томпсоном в 1852 году, общая энтропия замкнутой изолированной системы со временем увеличивается. Этот закон применим ко всей вселенной, однако он не учитывает возникновения «локальных очагов сопротивления» со стороны живых организмов, которые оттягивают момент окончательного распада и рассредоточения. Эта партизанская война живых организмов хорошо отражена в работе другого знаменитого австрийца — лауреата Нобелевской премии физика Эрвина Шрёдингера, одного из титанов квантовой физики, который в книге «Что такое жизнь?» высказал предположение, что жизнь — это бесконечная борьба за создание и сохранение островков с пониженной энтропией, которые мы называем организмами. Как он писал, «существенно в метаболизме то, что организму удается освобождать себя от всей той энтропии, которую он вынужден производить, пока он жив»[8].
В книге «Вопрос жизни» британский биохимик из Университетского колледжа Лондона Ник Лейн дополнительно проясняет связь между энтропией и жизнью: «А главное вот что: чтобы обеспечивать рост и размножение, некоторые реакции должны непрерывно выделять тепло в окружающую среду, разупорядочивая ее»[9]. И далее продолжает: «Мы и сами платим за свое непрерывное существование теплом, которое высвобождается в результате непрерывно протекающей реакции дыхания. Мы постоянно окисляем пищу кислородом, нагревая окружающее пространство. Потеря тепла — не побочный эффект, а совершенно необходимый для поддержания жизни процесс. Чем больше потеря тепла, тем выше доступный уровень сложности».
Используя терминологию Пригожина, можно сказать, что чем больше энергии рассеивает организм, тем большей сложности он может достигнуть!
В конце 1940-х годов концепции энтропии и информации оказались навечно тесно связаны благодаря работе американского математика и электромеханика Клода Шеннона, который в 1948 году в возрасте тридцати двух лет, будучи сотрудником лаборатории Белла, опубликовал в техническом журнале компании знаменитую работу длиной в 79 страниц. В своей «Математической теории коммуникаций» Шеннон впервые представил количественную теорию информации. Помимо прочего, эта статья навсегда вошла в анналы истории в качестве теоретической колыбели, из которой позднее появилась одна из самых важных математических единиц измерения, созданных человеком в XX веке, единица информации — бит.
За несколько лет до выхода этой революционной статьи, в 1937 году, Шеннон, тогда еще студент Массачусетского технологического института, показал, что для описания каких-либо логических или численных связей в электрических цепях достаточно лишь двух чисел (0 и 1) и соответствующей логики, называемой Булевой логикой в честь ее создателя Джорджа Буля. Эта потрясающая теория положила начало эпохе цифровых сетей — изобретение транзистора в той же лаборатории Белла и первая теория Алана Тьюринга для построения идеальной вычислительной машины сделали возможным создание цифровых компьютеров, кардинально изменивших жизнь человечества за последние восемьдесят лет.