Глава 18. Бит из всего

Семафор — это пример простой и проверенной временем цифровой системы связи. Он кодирует буквы алфавита, используя различные комбинации флажков, огней или чего-то подобного. В 1795 году Джордж Мюррей изобрел вариант семафора, очень похожий на тот, который на данный момент используется в Плоском Мире. Это набор из шести заслонок, каждая из которых может быть открыта или закрыта, что в общей сложности дает 64 различных «кода» — более, чем достаточно для обозначения букв, чисел от 0 до 10 и некоторых «специальных» кодов. Эта система получила дальнейшее развитие, но перестала быть передовой технологией после того, как электрический телеграф ознаменовал начало «эпохи проводов». В Плоском Мире семафоры (или «клик-башни») пошли намного дальше: магистральные башни, оснащенные несколькими рядами заслонок и лампами для работы в ночное время, обеспечивают двухстороннюю передачу сообщений через весь континент. Они довольно точно отражают «эволюцию» технологий: если бы нам не удалось обуздать силу пара и электричества, мы вполне могли использовать что-то похожее…

Возможности этой системы позволяют даже передавать изображения — на полном серьезе. Нужно преобразовать картинку в сетку размером 64×64 маленьких квадратика, цвет которых может быть либо черным, либо белым, либо одним из четырех оттенков серого, а затем считать содержимое сетки, как книгу — слева направо и сверху вниз. Все дело в информации, нужно лишь несколько умных клерков, чтобы придумать алгоритмы сжатия, и человек с неглубокой коробкой, вмещающей 4096 деревянных кубиков, стороны которых окрашены в те самые цвета — черный, белый и четыре оттенка серого. Чтобы собрать картинку, потребуется некоторое время, но клерки обходятся дешево.

Цифровые сообщения — это основа Информационного Века — такое название мы дали современной эпохе с верой в то, что знаем намного больше, чем кто-либо и когда-либо. Примерно так же и Плоский Мир гордится тем, что живет в Век Семафоров, или Эпоху Клик-Башен. Но что такое информация?

Отправляя сообщение, мы обычно ожидаем, что нам придется за него заплатить — в противном случае тот, кто занимается его передачей, будет недоволен. Именно это свойство сообщений вызвало беспокойство Чудакулли, убежденного в том, что сотрудники университетов должны путешествовать бесплатно.

Цена — это, конечно, тоже способ измерения, но она зависит от сложного взаимодействия рыночных сил. Что, к примеру, произойдет, если товар распродается по сниженной цене? С научной точки зрения, «информация» — это объем передаваемого сообщения. Каким бы ни был носитель информации, длинные сообщения стоят дороже коротких — этот принцип, с точки зрения нашей деятельности, кажется вполне универсальным. И значит, где-то в глубине человеческого разума живет вера в то, что у любого сообщения есть количественная мера, или размер. Размер сообщения говорит нам о том, как много в нем содержится информации.

Можно ли сказать, что «информация» и «история» — это одно и то же? Нет. Конечно же, истории содержат в себе информацию, однако у историй есть и гораздо более интересные качества. В то же время информация в большинстве случае не складывается в историю. Представьте себе телефонный справочник: это огромный массив тщательно подобранной информации, но рассказия в нем маловато. Для истории важен смысл. А смысл и информация — это совершенно разные вещи.

Мы гордимся тем, что живем в Информационную Эру. И в этом наша проблема. Если мы когда-нибудь доживем до Эры Смысла, то, наконец-то, сможем понять, в чем именно мы ошиблись.

Информация — это не предмет, а абстракция. Однако склонность человека к материализации абстрактных понятий привела к тому, что многие ученые считают информацию реально существующим явлением. А некоторые физики начинают задаваться вопросом, может ли Вселенная тоже состоять из информации.

Как появилась эта точка зрения и насколько она соответствует действительности?


Люди научились количественно оценивать информацию в 1948 году, когда математик, а позже инженер, Клод Шеннон нашел способ оценить объем информации, заключенной в сообщении, — хотя он сам предпочитал термин сигнал, — переданном от источника к приемнику с помощью некоего кода. Под сигналом Шеннон подразумевал последовательность двоичных цифр («битов», то есть 0 и 1), которые сейчас используются в любом компьютере и устройстве связи, а раньше применялись в семафорах Мюррея. Код он определял как особую процедуру, которая преобразует исходный сигнал в какой-нибудь другой. Простейший код — это тривиальное преобразование, которое «оставляет все без изменений», но более сложные коды способны обнаруживать и даже исправлять ошибки передачи. Коды составляют основу инженерных приложений этой теории, но здесь мы не станем заострять на них внимание и будем считать, что сообщение передается «как есть».

Шенноновская мера информации количественно выражает степень снижения нашей неопределенности относительно бит, составляющих сигнал, после получения сообщения. В простейшем случае, когда сообщение состоит из нулей и единиц, а все варианты равновероятны, количество информации, заключенной в сообщении, определяется очень просто: оно равно общему количеству бит. Каждая принятая нами цифра уменьшает нашу неопределенность относительно ее значения (0 или 1?) до полной уверенности (скажем, 1), но ничего не сообщает о других цифрах, поэтому количество информации равно одному биту. Проделав это тысячу раз, мы получим тысячу бит информации. Все просто.

В данном случае мы придерживаемся точки зрения инженера-связиста и молчаливо предполагаем, что нас интересует только значения отдельных бит сигнала, а не содержащийся в них смысл. То есть каждое из сообщений 111111111111111 и 111001101101011 содержит 15 бит информации. Однако есть и другие подходы к определению информации. Не так давно Грегори Хайтин указал на возможность количественной оценки сигнала с точки зрения содержащихся в нем шаблонов, или закономерностей. Для этого необходимо обратить внимание не на размер сообщения, а на размер компьютерной программы, или алгоритма, который способен его сгенерировать. К примеру, первое из упомянутых сообщений можно сконструировать с помощью алгоритма «все цифры равны 1». Второе сообщение простым алгоритмом описать нельзя — остается только перечислить его бит за битом. Таким образом, с точки зрения меры Шеннона, количество информации в этих сообщениях одно и то же, в то время как мера Хайтина показывает, что второе сообщение содержит намного больше «алгоритмической информации».

Иначе говоря, подход Хайтина сосредоточивает свое внимание на «сжимаемости» сообщений. Если длинное сообщение можно сгенерировать с помощью короткой программы, то лучше переслать эту программу вместо сообщения, сэкономив и время, и деньги. Такая программа «сжимает» сообщение. Когда ваш компьютер преобразует большой графический файл — скажем, фотографию, в JPEG-файл намного меньшего размера, он сжимает информацию в исходном файле одним из стандартных алгоритмов. Это возможно благодаря тому, что фотографии содержат множество шаблонов — например, многократные повторения голубых пикселей, из которых состоит небо. Чем хуже сигнал поддается сжатию, тем больше в нем информации по Хайтину. А для сжатия сигнала нужно описать составляющие его шаблоны. Отсюда следует, что несжимаемые сигналы хаотичны, не содержат никаких закономерностей, однако именно они несут в себе наибольшее количество информации. И в некотором смысле это вполне логично: узнав значение одного бита, мы получаем больше всего информации в том случае, когда непредсказуемость каждого последующего бита максимальна. Если сигнал выглядит как 111111111111111, то мы вряд ли удивимся, узнав, что очередной бит равен 1; но в случае сигнала 111001101101011 (чтобы его получить, мы 15 раз подбросили монетку) угадать следующий бит не так просто.

Оба способа измерения информации находят применение в электронных устройствах. Если информация по Шеннону связана со временем, необходимым для передачи сигнала куда-то еще, то информация по Хайтину оценивает возможность применить какой-нибудь хитрый способ сжатия, чтобы затем передать более короткий сигнал. По крайней мере, так бы было, если бы количество этой информации поддавалось расчетам, но одна из особенностей теории Хайтина состоит в том, что вычислить количество алгоритмической информации, заключенной в сообщении, нельзя — и он смог это доказать. Волшебникам такой подвох пришелся бы по нраву.

В общем, понятие «информации» оказалось довольно полезным, но есть один любопытный факт: если сравнить «Быть или не быть» с «РщфтйЗаишВЬхбцл», то количество информации по Шеннону в них одинаково, в то время как информации по Хайтину во втором сообщении больше. Причина этого несоответствия кроется в том, что информация — это совсем не то же самое, что смысл. И это поразительно. Для людей главную ценность сообщения представляет его смысл, а не количество бит, однако математики так и не смогли придумать способ измерения смысла. Во всяком случае, пока.

Итак, мы снова вернулись к историям, то есть сообщениям, которые несут в себе смысл. Мораль состоит в том, что нам не стоит путать истории с «информацией». Эльфы подарили людям истории, но не дали им никакой информации. Более того, люди выдумали такие истории, персонажи которых вообще не существуют в Круглом Мире — например, истории про оборотней. Пожалуй, эти истории могут кое-что рассказать о человеческом воображении, но на этом их информативность заканчивается.

Большинство людей, и в особенности ученых, столкнувшись с новым понятием, испытывают особую радость, если ему можно сопоставить некое число. Все остальное кажется для них слишком туманным, чтобы приносить какую-то пользу. Будучи числом, «информация» вызывает у нас ощущение точности, и мы иногда упускаем из виду ее иллюзорность. Биология и физика, ступив на этот скользкий путь, успели уехать довольно далеко.

С открытием «линейной» структуры молекулы ДНК эволюционная биология пополнилась одной весьма соблазнительной метафорой, описывающей сложность организмов и процесс их эволюции, а именно: информация, необходимая для построения организма, заключена в его геноме. Своим происхождением эта метафора обязана легендарному открытию Фрэнсиса Крика и Джеймса Уотсона, установившим, что ДНК любого организма состоит из «кодовых слов», составленных из четырех молекулярных «букв» А, Ц, Т, Г, которые, как вы помните, представляют собой первые буквы в названиях четырех возможных «оснований». Эта структур неизбежно легла в основу метафоры, согласно которой геном содержит в себе информацию о соответствующем организме. И действительно, геном часто называется «носителем всей информации, необходимой для воспроизведения» данного организма.

Слово «всей» сразу бросается в глаза. Есть бесчисленное множество причин, по которым ДНК развивающегося организма не оказывает на него определяющего влияния. Факторы, влияющие на развитие, но не связанные с геномом, называются «эпигенетическими» и варьируются от едва заметного мечения ДНК до родительской заботы. Сложнее найти слабое место в слове «информация». Конечно же, геном в некотором роде является носителем информации: в настоящее время огромные усилия в международном масштабе прилагаются к тому, чтобы извлечь эту информацию из генома человека и других организмов, включая рис, дрожжи и круглых червей Caenorhabditis elegans. Но обратите внимание на то, как легко мы попадаем в ловушку небрежности, ведь слово «информация» в данном случае подразумевает получение новых сведений человеческим мозгом, а не развивающимся организмом. «Проект человеческого генома» предоставляет информацию не организмам, а нам.

Ущербность этой метафоры приводит к столь же ущербному заключению, будто бы геном объясняет сложность организма с точки зрения количества информации, заключенной в его ДНК-коде. Люди сложны, потому что обладают длинным геномом, который содержит много информации, а круглые черви устроены проще из-за того, что их геном короче. Это соблазнительная идея, но она не соответствует действительности. К примеру, количество шенноновской информации, содержащейся в человеческом геноме, на несколько порядков уступает информации, необходимой для описания нейронных соединений в человеческом мозге. Неужели мы сложнее, чем информация, которая нас описывает? К тому же у некоторых амеб геном намного длиннее, чем у нас — это отбрасывает нас на несколько шагов назад и еще сильнее заставляет усомниться в том, что ДНК — это информация.

Широко распространенное убеждение, согласно которому сложность организма объясняется сложностью его ДНК (хотя это точно не так), основано на двух допущениях, двух научных историях, которые мы рассказываем самим себе. Первая история называется «ДНК — это чертеж» и рассказывает о том, что геном не только контролирует и направляет биологическое развитие, но хранит информацию, необходимую для описания организма. Вторая история называется «ДНК — это сообщение» и посвящена метафоре «Книги Жизни».

Обе истории чрезмерно упрощают прекрасную сложность интерактивной системы. «ДНК — это чертеж» утверждает, что геном — это молекулярная «карта» организма. А «ДНК — это сообщение» говорит нам, что организм способен передавать эту карту следующему поколению путем «отправки» подходящего сообщения.

Обе истории не соответствуют действительности, зато являют собой пример неплохой научной фантастики — или, во всяком случае, плохой, но интересной научной фантастики с хорошими спецэффектами.

Если у «ДНК-сообщения» и правда есть «получатель», то это никак не следующее поколение организмов, которое на момент «отправки» «сообщения» еще даже не существует, а, скорее, рибосома, то есть молекулярный механизм, превращающий цепочки ДНК (ген, кодирующий белок) в белки. Рибосома — ключевая составляющая системы кодирования; она играет роль «адаптера», который заменяет информацию, находящуюся в ДНК, цепочкой аминокислот, образующих белок. Мы говорим о рибосоме в единственном числе, потому что все рибосомы одинаковы, но любая клетка располагает множеством их копий. Представление о ДНК как носителе информации стало практически общепринятым, однако очень немногие считают хранилищем информации рибосому. Теперь мы довольно точно представляем себе структуру рибосом и никакого очевидного носителя информации, похожего на ДНК, в них нет. Рибосома похожа на «неизменную» машину. Так куда же делась информация? Никуда. Просто мы задаем некорректный вопрос.

Это недопонимание объяснятся тем, что мы не учитываем контекст. Наука очень серьезно относится к смысловому наполнению, но имеет привычку упускать из виду «внешние» ограничения изучаемой системы. Контекст — это важное, хотя и недооцененное качество информации. Так легко сосредоточить внимание на комбинаторной ясности сообщения и забыть о тех сложных и запутанных процессах, которые приемник выполняет в процессе декодирования сообщения. Контекст — ключевая составляющая процесса интерпретации сообщений — иначе говоря, их смысла. В книге «Иллюзия пользователя» Тор Норретрандерс ввел понятие эксформации, чтобы охватить роль контекста, а Даглас Хофстедтер обратил на это внимание в книге «Гедель, Эшер, Бах». Обратите внимание на то, как в следующей главе контекст помогает расшифровать поначалу непонятное собщение «ТИОРСИЯ».

Вместо того, чтобы представлять ДНК как чертеж, в котором закодирован организм, проще обратиться к аналогии с музыкальным компакт-диском. Биологическое развитие похоже на компакт диск с инструкциями по сборке нового CD-плейера. И если у вас изначально нет CD-плейера, то «прочитать» эти инструкции вы не сможете. Если смысл не зависит от контекста, то код, записанный на компакт-диске, должен обладать инвариантным смыслом, который не зависит от конкретного плейера. Но так ли это на самом деле?

Сравните две крайности: «стандартный» плейер, который преобразует цифровой код на компакт-диске в музыку согласно программе, заложенной проектировщиками, и музыкальный автомат. В случае с обычным автоматом сообщение состоит из некоторой суммы денег и нажатия на кнопку; в то же время музыкальный автомат отвечает на эти действия проигрыванием конкретной музыкальной композиции в течение нескольких минут. В принципе конкретный числовой код может «обозначать» любую композицию — все зависит только от настроек музыкального автомата, или, другими словами, от эксформации, выраженной в его конструкции. А теперь представим музыкальный автомат, который в ответ на компакт-диск не проигрывает закодированную на нем мелодию, а интерпретирует этот код как число и затем проигрывает другой диск с соответствующим номером. Предположим, к примеру, что запись пятой симфонии Бетховена на цифровом носителе начинается с 11001. Это двоичная запись числа 25. Тогда наш автомат считает с диска «25» и найдет диск с этим номером — будем считать, что там записан джаз в исполнении Чарли Паркера. С другой стороны, в музыкальном автомате есть диск с номером 973, на котором записана пятая симфония. Получается, что компакт диск с записью пятой симфонии можно «интерпретировать» двумя совершенно разными способами: как указатель на Чарли Паркера и как саму пятую симфонию (она будет запущена в ответ на диск, код которого начинается с 973 в двоичной записи). Два контекста, две интерпретации, два разных смысла и два разных результата.

От контекста зависит и само наличие сообщения: отправитель и получатель должны договориться о протоколе, который преобразует символы в их значения и обратно. Без протокола семафор — это просто несколько кусков древесины, развевающихся на ветру. Ветки дерева — это тоже куски древесины, развевающиеся на ветру, однако никто не пытается декодировать сообщения, передаваемые деревом. Годичные кольца, или кольца роста, которые можно увидеть, посмотрев на спиленный ствол, — это уже другое дело. Мы научились «декодировать» их «сообщения» — например, о климате в 1066 году и тому подобные сведения. Толстое кольцо указывает на благоприятный год, когда дерево росло хорошо, а климат, видимо, был теплым и влажным; тонкое кольцо означает неблагоприятный год и, вероятно, прохладный засушливый климат. Однако последовательность годичных колец стала сообщением и средством передачи информации только тогда, когда мы открыли правила, связывающие климат с ростом деревьев. Сами деревья никаких сообщений нам не посылали.

Протокол биологического развития, благодаря которому ДНК-сообщения приобретают смысл — это законы физики и химии. Именно в них и заключена эксформация. Правда, оценить его количественно нам вряд ли удастся. Сложность организма определяется не количеством оснований в цепочке ДНК, а сложностью процессов, инициированных этими основаниями в контексте биологического развития. Иначе говоря, смыслом «ДНК-сообщений», когда они поступают на вход тонко настроенной и отлаженной биохимической машины. Именно в этом отношении мы превосходим амеб. Переход от зародыша, отращивающего маленькие крылышки, к младенцу с изящными ручками требует выполнения целого ряда процессов, формирующих скелет, мышцы, кожу и другие части тела. Каждый этап зависит от текущего состояния всех остальных и все вместе они зависят от контекста физических, биологических, химических и культурных процессов.


Центральным элементом теории информации Шеннона является величина, которую он назвал энтропией — в данном случае она выражает влияние статистических закономерностей в источнике сообщений на количество информации, которое можно передать с их помощью. Если определенные последовательности бит более вероятны, чем другие, то они переносят меньшее количество информации, так как снижают неопределенность на меньшую величину. Например, в английском языке буква «E» встречается намного чаще буквы «Q». Таким образом, сообщение «E» несет в себе меньшее количество информации, чем сообщение «Q». Имея выбор между «E» и «Q», лучше всего сделать ставку на «E». А больше всего информации мы получаем, когда наши ожидания не оправдываются. Энтропия Шеннона сглаживает эти статистические сдвиги и дает «справедливую» оценку количества информации.

Теперь кажется, что термин «энтропия» был выбран неудачно, потому что он совпадает с названием одной величины, которая давно используется в физике и обычно интерпретируется как «мера беспорядка». А ее противоположность, то есть порядок, обычно отождествляется со сложностью. В качестве контекста здесь выступает раздел физики под названием «термодинамика», изучающий некоторую упрощенную модель газа. В термодинамике молекулы газа представлены «твердыми сферами», похожими на крошечные бильярдные шары. Время от времени шары сталкиваются, и когда это происходит, они отскакивают друг от друга, как если бы удар был абсолютно упругим. Согласно Законам Термодинамики, система, состоящая из огромного числа таких сфер, подчиняется определенным статистическим закономерностям. В подобной системе есть два вида энергии: механическая и тепловая. Первый Закон состоит в том, что общая энергия системы всегда остается неизменной. Тепловая энергия может превращаться в механическую — примером может служить паровой двигатель; и наоборот, механическая энергия может переходить в тепло. Но сумма двух энергий остается постоянной. Второй Закон в более точной формулировке (которую мы вскоре поясним) выражает тот факт, что тепло не может быть передано от более холодного тела к более горячему. А Третий Закон утверждает, что температура газа не может опуститься ниже определенного значения — так называемого «абсолютного нуля», который примерно равен -273 градусам по Цельсию.

Среди них наибольшую сложность — как и интерес — представляет Второй Закон. Его более детальная формулировка использует величину, которая опять-таки называется «энтропией» и обычно ассоциируется с «беспорядком». Если, скажем, газ, находящийся в комнате, сосредоточен в одном из углов, то такое состояние будет более упорядоченным (то есть в нем будет меньше беспорядка!) по сравнению с газом, который равномерно заполняет всю комнату. Таким образом, энтропия равномерного распределения газа больше, чем энтропия газа, сконцентрированного в одном углу. Второй Закон в упомянутой формулировке утверждает, что с течением времени энтропия Вселенной может только возрастать. Другими словами, со временем Вселенная становится все менее упорядоченной, или менее сложной. Если верить этой интерпретации, мир живых существ с его высокоорганизованной сложностью будет неизбежно становиться все более простым, пока, наконец, Вселенная не исчерпает себя и превратится в тепленький разбавленный бульон.

Этот результат лег в основу одного из объяснений «стрелы времени», любопытного явления, которое проявляется в том, что мы можем с легкостью перемешать сырое яйцо, но не можем вернуть перемешанному яйцу исходный вид. Время движется только в сторону увеличения энтропии. То есть, когда мы смешиваем желток и белок, яйцо становится более беспорядочным, а его энтропия — в полном соответствии со Вторым Законом — возрастает. «Разделение на белок и желток» привело бы уменьшению беспорядка и снижению энтропии, что противоречит Второму Закону. Яйцо — это, конечно, не газ, однако термодинамические модели можно расширить на твердые тела и жидкости.

Здесь мы сталкиваемся с одним из крупных парадоксов физики, который уже около века вызывает заметное смятение в умах. Другая система физических законов, а именно ньютоновские законы движения, утверждает, что яйцо можно как перемешать, так и вернуть в исходное состояние, причем оба события с физической точки зрения равновозможны. Точнее, если развернуть во времени произвольную динамику, удовлетворяющую законам Ньютона, то результат также будет удовлетворять этим законам. Короче говоря, законы Ньютона «обратимы во времени».

Однако термодинамический газ — это, по сути, механическая система, состоящая из огромного числа крошечных сфер. В этой модели тепловая энергия представляет собой всего лишь особую разновидность энергии механической, когда сферы вибрируют, но в основной своей массе не движутся. Таким образом, законы Ньютона можно сравнить с законами термодинамики. Первый Закон — это просто видоизмененная формулировка закона сохранения энергии, известного в ньютоновской механике, а значит, Первый Закон согласуется с законами Ньютона. То же самое можно сказать и про Третий Закон: абсолютный нуль — это температура, при которой сферы перестают совершать колебания. Скорость колебаний никогда не бывает меньше нуля.

К сожалению, Второй Закон термодинамики ведет себя совсем иначе. Он противоречит законам Ньютона. Точнее, он противоречит свойству обратимости во времени. В нашей Вселенной «стрела времени» направлена строго в одну сторону, однако во Вселенной, которая подчиняется законам Ньютона, есть две таких стрелы, и направлены они противоположно друг другу. В нашей Вселенной яйцо легко перемешать, но нельзя снова разделить на белок и желток. Следовательно, если верить законам Ньютона, в версии нашей Вселенной, где время течет вспять, яйца нельзя перемешивать, зато яйца, которые уже были перемешаны, легко разделяются на желток и белок. Но поскольку законы Ньютона в обеих вселенных одинаковы, они не могут указать для стрелы времени какое-то конкретное направление.

Для разрешения этого противоречия было предложено множество объяснений. Лучшее математическое решение состоит в том, что термодинамика дает крупнозернистое приближение структуры Вселенной, при котором мелкие детали сглаживаются и не учитываются в модели. В результате Вселенная оказывается поделенной на крохотные ячейки, в каждой из которых находится (к примеру) несколько тысяч молекул газа. Термодинамика не обращает внимание на тонкости движения внутри отдельной ячейки и учитывает только усредненное состояние ее молекул.

Примерно так же устроена картинка на экране компьютера. Если посмотреть на нее с некоторого расстояния, можно увидеть коров, деревья и другие детали. Но если взглянуть на дерево достаточно близко, то вы увидите только сплошной зеленый квадратик, или пиксель. У настоящего дерева при таком увеличении можно рассмотреть мелкие элементы структуры — например, листья и веточки, — но на картинке все детали смазываются, превращаясь в равномерный зеленый цвет.

Как только «порядок» в этой модели опускается ниже уровня «зерна», он исчезает безвозвратно. Если часть картинки смазалась и превратилась в пиксель, восстановить ее уже нельзя. Но в реальной Вселенной это иногда происходит, потому что движение внутри ячеек никуда не исчезает, просто в модели, состоящей из смазанных усредненных значений, их не видно. Таким образом, модель не соответствует действительности. Более того, эта модель несимметрично трактует прямое и обратное течение времени. Когда время движется вперед, молекула, попавшая в ячейку, остается там навсегда. При движении в обратную сторону все наоборот: молекула может покинуть ячейку, но не может попасть внутрь нее, если только не находилась там с самого начала.

Приведенное объяснение ясно дает понять, что Второй Закон Термодинамики не описывает настоящее свойство Вселенной, а просто является следствием приближенной математической модели. В таком случае полезность этой модели определяется контекстом, в котором мы ее применяем, а вовсе не формулировкой Второго Закона. К тому же приближенная модель разрушает связь с законами Ньютона, которые имеют непосредственное отношение к тонкой структуре.

Итак, как мы уже говорили, Шеннон использовал то же самое название «энтропия» для величины, описывающей статистические закономерности источника информации. А сделал он это, потому что формула энтропии Шеннона выглядит точно так же, как формула энтропии в термодинамике. За исключением знака «минус». То есть, термодинамическая энтропия выглядит как отрицательная энтропия Шеннона и, значит, ее можно трактовать как «утраченную информацию». На эту тему было написано множество статей и книг — к примеру, в них стрела времени объяснялась тем, что Вселенная постепенно теряет информацию. Действительно — заменяя тонкую структуру ячейки ее усредненным значением, мы теряем информацию о ее структуре. А восстановить ее после этого уже нельзя. Что и требовалось доказать — время всегда течет в сторону уменьшения информации.

На самом деле упомянутая связь — это просто выдумка. Да, конечно, формулы выглядят одинаково…, вот только используются они в разных контекстах, совершенно не связанных друг с другом. В знаменитой формуле Эйнштейна, выражающей связь между массой и энергией, символ c обозначает скорость света. А в теореме Пифагора та же буква обозначает одну из сторон прямоугольного треугольника. Хотя буквы в обеих формулах совпадают, никто в здравом уме не станет отождествлять скорость света со сторонами треугольника. Предполагаемая связь между термодинамической энтропией и отрицательной информацией, конечно же, не так легкомысленна. Не совсем так.

Мы уже говорили, что наука — это не неизменная коллекция фактов, и в ней порой возникают разногласия. Одним из них стала та самая связь между термодинамической энтропией и энтропией Шеннона. Вопрос о том, можно ли осмысленно считать термодинамическую энтропию отрицательной информацией, оставался предметом споров в течение многих лет. Эти споры все еще не утихли — например, статьи, написанные компетентными учеными, даже после рецензирования категорически противоречат друг другу.

По-видимому, здесь произошла путаница между формально-математическим выражением «законов» информации и энтропии, физической интуицией, подсказавшей эвристическую интерпретацию этих понятий, и неспособностью осознать важность контекста. Очень много внимания уделяется схожести формул энтропии в теории информации и термодинамике, но контекст, в котором эти формулы используются, теряется из вида. Из-за этой привычки мы стали очень неаккуратно обращаться с некоторыми важными физическими концепциями.

Одно важное различие состоит в том, что термодинамическая энтропия — это величина, характеризующая состояние газа, в то время как информационная энтропия относится к источнику информации, то есть системе, генерирующей целые наборы состояний («сообщения»). Грубо говоря, источник представляет собой фазовое пространство, описывающее последовательные биты сообщения, а конкретное сообщение — траекторию, или путь в этом пространстве. Однако термодинамическая конфигурация — это всего лишь точка фазового пространства. Конкретная конфигурация молекул газа обладает термодинамической энтропией, но у отдельного сообщения нет энтропии Шеннона. Одного этого факта достаточно, чтобы заметить неладное. К тому же в самой теории информации отрицательная энтропия (в информационном смысле) не совпадает с количеством информации, содержащейся «в» сообщении. На самом деле энтропия источника остается неизменной, сколько бы сообщений он не генерировал.


В нашей Вселенной с энтропией связана еще одна загадка. Результаты астрономических наблюдений плохо согласуются со Вторым Законом. Похоже, что в космологических масштабах наша Вселенная со временем становилась сложнее, а не проще. В момент Большого Взрыва материя была распределена довольно равномерно, но с течением времени она становилась все более и более неоднородной, а значит — все более и более сложной. Похоже, что энтропия Вселенной заметно уменьшилась, а вовсе не выросла. Теперь материя образует скопления в самых разных масштабах: камни, астероиды, планеты, звезды, галактики, галактические скопления и сверхскопления и так далее. Используя термодинамическую метафору, можно сказать, что распределение материи становится все более упорядоченным. И это ставит нас в тупик, потому что с точки зрения Второго Закона термодинамическая система должна становиться более беспорядочной.

Причина этой неоднородности нам, по-видимому, хорошо известна — это гравитация. И здесь нас поджидает еще один парадокс временной обратимости. Уравнения поля в теории Эйнштейна, описывающей гравитационные системы, обратимы во времени. А это значит, что если в произвольном решении уравнений Эйнштейна повернуть время в обратную сторону, то результат также будет удовлетворять эти уравнениям. Запустив нашу Вселенную в обратном направлении, мы бы получили гравитационную систему, которая со временем становится все более однородной — так что уменьшение неоднородности с физической точки зрения так же правомерно, как и ее увеличение. И тем не менее, в нашей Вселенной реализуется только один вариант: неоднородность растет.

Пол Дэйвис считает, что «загадка, как и в случае со всеми остальными стрелами времени, связана с моментом, когда в дело вступает асимметрия… В таком случае асимметрию необходимо отследить до начальных условий». Он имеет в виду, что даже в условиях временной обратимости разные начальные условия могут привести к различным вариантам поведения системы. Если мы возьмем яйцо и перемешаем его вилкой, оно потеряет исходную форму. Но если взять размешанное яйцо и очень-очень аккуратно придать каждой частице яйца точно такой же импульс, направив ее вдоль противоположной траектории, то яйцо примет первоначальный вид. Вся разница в начальном состоянии, а не в законах. Заметьте: «перемешивание вилкой» — это довольно отвлеченное описание начальных условий: есть множество способов размешать яйцо с помощью вилки. Однако для того, чтобы восстановить форму яйца, требуются особые и чрезвычайно деликатные условия.

В каком-то смысле это заманчивая перспектива. Появление «комков» материи в нашей Вселенной похоже на «обратное перемешивание» яйца: увеличение ее сложности следует из уникальных начальных условий. Большая часть «обычных» начальных условий привела бы к возникновению Вселенной без всяких «комков» — точно так же, как обычное движение вилкой приводит к перемешиванию яйца. К тому же результаты наблюдений уверенно говорят о том, что в момент Большого Взрыва начальные условия были чрезвычайно гладкими, в то время как любое «обычное» состояние гравитационной системы предположительно является неоднородным. То есть с учетом упомянутого выше предположения получается, что начальное состояние Вселенной должно быть подобрано специальным образом — это довольно привлекательная точки зрения для тех, кто верит в уникальность нашей Вселенной, и, как следствие, уникальность роли, которую мы в ней играем.

От Второго Закона до Бога за один шаг.

Роджер Пенроуз даже подсчитал, насколько особенным должно быть это начальное состояние, сравнив его термодинамическую энтропию с энтропией гипотетического конечного состояния, в котором Вселенная становится системой Черных Дыр. Это финальное состояние обладает крайне высокой неоднородностью — хотя и уступает неоднородности Вселенной, состоящей из одной гигантской Черной Дыры. В результате энтропия начального состояния оказалась примерно в 1030 раз меньше энтропии предполагаемого конечного состояния, что указывает на чрезвычайно особенные начальные условия. Настолько особенные, что Пенроузу пришлось ввести новый асимметричный во времени закон, благодаря которому ранняя Вселенная становится исключительно однородной.

О да, истории вводят нас в заблуждение… Есть и другое, более рациональное объяснение. Ключевая идея проста — гравитация совсем не похожа на термодинамику. В газе, состоящем из колеблющихся молекул, однородное состояние — то есть постоянство плотности — обладает устойчивостью. Соберите весь газ в одном небольшом пространстве внутри комнаты и предоставьте его самому себе — он моментально восстановит однородное состояние. Гравитация действует прямо противоположным образом: в условиях тяготения однородные системы нестабильны. С течением времени мельчайшие изменения, неразличимые при любом конкретном уровне «зернистости», не просто способны проявиться на макроскопическом уровне — они проявятся обязательно.

В этом состоит принципиальное различие между гравитацией и термодинамикой. Термодинамическая модель, дающая наилучшее приближение нашей Вселенной, такова, что с течением времени все различия в ней становятся меньше уровня зернистости и, в итоге, стираются. В наилучшей гравитационной модели различия, напротив, со временем выходят за границы «зерен» и усиливаются. Рассматривая эти научные теории в контексте одной и той же стрелы времени, мы видим, что их отношения к «зернистости» прямо противоположны.

Теперь мы можем дать совершенно иное и гораздо более рациональное объяснение «разрыву в энтропии», который Пенроуз, обнаружив, приписал чрезвычайно маловероятным начальным условиям. На самом деле это просто побочный эффект крупнозернистости. Материя, концентрирующаяся под действием гравитации, постепенно превышает уровень зернистости, который термодинамическая энтропия не учитывает по определению. Таким образом, практически любое начальное распределение материи во Вселенной привело бы к ее концентрации. Особое, исключительное состояние для этого не нужно.

Физические различия между гравитационными и термодинамическими системами довольно очевидны: гравитация — это дальнодействующая сила притяжения, в то время как упругие соударения действуют в малых масштабах и приводят к взаимному отталкиванию. Неудивительно, что такие разные законы действия сил приводят к такой разнице в поведении. Представьте себе крайний случай, когда масштаб действия гравитации настолько мал, что она вступает в силу только при столкновении частиц, навечно склеивая их вместе. В таких условиях увеличение «комковатости» — довольно очевидный эффект.

Реальная Вселенная проявляет как гравитационные, так и термодинамические свойства. В определенных условиях больше подходит термодинамическая модель, и тогда термодинамика дает хорошее приближение. В других — более адекватной оказывается модель теории гравитации. И даже этими двумя случаями дело не исчерпывается: в молекулярной химии мы снова сталкиваемся с множеством различных типов сил. Было бы ошибкой сводить любое природное явление к термодинамической или гравитационной модели. И вряд ли нам стоит ожидать, что термодинамическая и гравитационная модели будут одновременно действовать в общем контексте — учитывая тот факт, что в условиях «крупнозернистой структуры» они ведут себя диаметрально противоположным образом.

Видите? Все просто. И никакой магии…

Возможно, здесь стоит подвести итог нашим рассуждениям.

«Законы» термодинамики, и в особенности знаменитый Второй Закон, дают статистически верную картину природы — в определенных условиях. Они не выражают универсальную истину об устройстве Вселенной — это подтверждается ее «комковатой» структурой, появившейся благодаря гравитации. Вероятно, в будущем мы даже найдем подходящий способ измерения гравитационной сложности, подобный термодинамической энтропии, но отличающийся от нее — скажем, «гравитропию». Тогда нам, возможно, удастся математически вывести «второй закон гравитатики», согласно которому гравитропия любой гравитатической системы со временем возрастает. Гравитропия, к примеру, может представлять собой фрактальную размерность («степень запутанности») системы.

Несмотря на то, что крупнозернистое приближение играет противоположные роли в двух упомянутых типах систем, оба «вторых закона» — и термодинамический, и гравитатический — могли бы дать довольно точное описание нашей Вселенной. Объясняется это тем, что в основе этих законов лежат результаты реальных наблюдений. И тем не менее, несмотря на кажущееся соперничество, два закона относятся к совершенно разным типами физических систем: в одном случае — это газы, в другом — системы частиц, движущихся в условиях силы тяготения.


Познакомившись с двумя примерами неверного использования теоретико-информационных и связанных с ними термодинамических принципов, мы можем обратиться к интригующему предположению об информационной природе Вселенной.

Чудакулли подозревал, что любое странное явление, — например, исчезновение «обитателей ракушечных холмов», — Думминг Тупс попытается объяснить с помощью «квантов». Это объяснение всегда выглядит довольно привлекательным, потому что квантовый мир действительно живет по необычным законам. Некоторые физики, пытаясь придать смысл квантовой Вселенной, высказали предположение о том, что в основе всех квантовых явлений (а, значит, и вообще всего) лежит понятие информации. Джон Арчибальд Уилер выразил эту идею в своей известной фразе «Все из Бита». Если вкратце, то любой квантовый объект описывается конечным числом состояний. К примеру, спин электрона может иметь одно из двух направлений — вверх или вниз. Следовательно, состояние Вселенной можно представить в виде гигантского списка «верхов» и «низов», а также других, более сложных, но в целом подобных им величин — то есть в виде очень длинного двоичного сообщения.

Сама по себе эта идея дает нам разумный и (как оказалось) полезный способ строго математического описания квантового мира. Следующий шаг воспринимается уже не так однозначно. На самом деле важно лишь сообщение, то есть последовательность бит. А что такое сообщение? Информация. Вывод: Вселенная состоит из стихийной информации. Все остальное строится на ее основе в соответствии с квантовыми принципами. Думминг бы это одобрил.

Таким образом, информации отводится место в небольшом пантеоне сходных понятий — скорости, энергии, импульса, — которые из удобных математических абстракций превратились в явления реального мира. Физики любят воплощать в реальность наиболее полезные из формальных математических концепций: подобно жителям Плоского Мира, они материализуют абстрактные понятия. Физическая реальность не пострадает от того, чтобы мы «спроецируем» на нее математику, зато может пострадать наша философия, если эту проекцию мы станем воспринимать буквально. Вот пример похожей ситуации: в наше время вполне разумные физики настаивают на том, что наша Вселенная — это всего лишь один из триллионов миров, сосуществующих в состоянии квантовой суперпозиции. В одном из них вы, выйдя из дома этим утром, попали под удар метеорита; а в другом — там, где вы читаете эту книгу, — ничего подобного не произошло. «О, да», — настойчиво заявляют они. — «Эти вселенные существуют на самом деле. И мы можем доказать их существование экспериментальным путем».

Это не так.

Соответствие гипотезы и результатов эксперимента никак не доказывает и даже не подтверждает ее справедливость. Так называемая «многомировая» концепция представляет собой интерпретацию экспериментов в рамках своей собственной философии. Но ведь у любого эксперимента есть множество интерпретаций, и не все из них объясняют, «как на самом деле обстоят дела во Вселенной». К примеру, любой эксперимент можно трактовать как «случившийся по воле Божьей», однако те же самые физики не станут воспринимать результаты эксперимента как доказательство существования Бога. И в данном случае они правы — это всего лишь одна из интерпретаций. С другой стороны, то же самое можно сказать и триллионе параллельных вселенных.

Квантовые состояния и правда могут существовать в виде суперпозиции. Справедливо это и для квантовых вселенных. Однако попытка разделить их на несколько классических вселенных, в которых реально существующие люди совершают реальные поступки, и прийти к выводу, будто они находятся в состоянии суперпозиции, — просто абсурд. Ни один квантовый физик не сможет дать квантовомеханическое описание человека. Как же они могут утверждать, будто их эксперименты (в которых обычно участвует пара электронов или фотонов) «доказывают», что в параллельной Вселенной на вашего двойника упал метеорит?

Концепция информации изначально была придумана человеком для описания определенных процессов в области систем связи. Не мир был «всем из бита», то есть реальностью, созданной на основе метафоры, а информация была «битом из всего» — абстракцией, построенной на метафоре реального мира. С тех пор информационная метафора вышла далеко за рамки своего первоначального смысла и часто используется не слишком разумно. Еще менее разумным, пожалуй, было превращение информации в основополагающую субстанцию Вселенной. С математической точки зрения никакой проблемы в этом нет, однако Материализация Может Нанести Вред Вашему Мировоззрению.

Загрузка...