Героиня этой книги — энтропия. Кто скрывается под этим именем? Таинственная незнакомка?
Если угодно, то да. Десятки лет с этим именем была связана некая научная тайна Австрийский ученый Людвиг Больцман первым рискнул приподнять над ней завесу. Он предложил вероятностную формулу, раскрывающую физический смысл энтропии.
Почти сто лет понятие энтропии связывалось с представлениями о разрушении, хаосе, тепловой смерти Вселенной. «Царица мира и ее тень» — так назвал свою популярную книгу об энтропии профессор Йенского университета Феликс Ауэрбах. Во всей научно-популярной литературе вряд ли найдется книга, название которой было бы в такой же мере поэтичным и грустным.
Царица мира — это энергия. Тень ее — энтропия. Щедрая, могущественная царица одаряет мир силой и бодростью, а тень ее следует за ней неотступно, предвещая не только царице, но и всему осчастливленному ею миру пусть не очень скорую, но неминуемую смерть.
Образ энтропии как тени энергии вполне соответствовал тем представлениям, которые утвердились в науке и считались общепризнанными вплоть до последних лет. Но вот появились на свет кибернетика и теория информации, и образ тени царицы мира перестал соответствовать духу новых научных идей.
Теперь понятие энтропии связывают не только с хаотичным движением молекул нагретого газа — оно включает в себя еще и мутации генов, рождающие новые биологические виды, и ведущийся методом проб и ошибок творческий поиск, и шумовые сигналы, специально подмешиваемые в эвристические (от известного восклицания «Эврика!») программы электронных машин. Если эти процессы лишить содержащейся в них энтропии, они не породят ничего неожиданного, нового. Этот вывод можно распространить на весь окружающий мир.
Непредсказуемостью, энтропийностью обладает в известной мере любой творческий процесс. Именно поэтому физик Нильс Бор считал оригинальные научные взгляды «сумасшедшими идеями», а поэт Афанасий Фет называл яркие художественные детали и образы «безумной прихотью певца».
Регулярно вспыхивающие в последние десятилетия диспуты о «модерне» и классике в музыке или в живописи, о театре абсурда, о «спонтанности» в архитектуре (например, в «Литературной газете» от 8 января 1975 года) — это тоже споры о том, какой долей энтропии должны обладать произведения разных жанров искусства, чтобы, с одной стороны, не превратиться в хаотическое нагромождение красок, форм или звуков, а с другой — отличаться от всего ранее созданного непредсказуемостью, то есть новизной.
Нет, энтропия — это не тень царицы, энтропия — это прекрасная молодая принцесса. Своей вечной и неизбывной молодостью мир обязан именно ей.
Неужели ученые столько лет заблуждались? Нет. Энтропия и в самом деле выражает хаос, и если бы мир достиг состояния с наибольшим значением энтропии, его действительно постигла бы тепловая смерть.
Но это лишь одна сторона явления. Как смерть является необходимым условием обновления жизни, так и наличие энтропии, с одной стороны, угрожает всеобщей тепловой смертью, а с другой — служит источником зарождения нового, будоражит и стимулирует жизнь.
Если бы силой волшебства удалось избавить царицу от ее тени, мир избежал бы тепловой смерти, но его тут же настигла бы другая беда — он превратился бы в машину, обреченную на вечное повторение одних и тех же движений, и каждый день жизни был бы точным повторением предыдущего дня. Если это еще не смерть, то во всяком случае старость, настолько дряхлая, что жизнь превращается в машинальное повторение одних и тех же движений, и ничего нового уже не может происходить.
От такой незавидной участи спасает нас энтропия, та самая, избыток которой грозит будто бы тепловой смертью. В этом и заключается ее двуединая сущность, столь же диалектически противоречивая, как и весь окружающий мир.
Эволюции взглядов на энтропию и посвящена эта книга с печальным началом, но зато с полным светлого,жизнеутверждающего оптимизма концом. Она поможет понять, чем обусловлены и новый подход к самой энтропии и новые «энтропийные» взгляды на весь окружающий мир.
Энтропия — не единственная героиня книги. Другая героиня ее — беспокойная, ищущая, созидающая и проникающая в тайны природы человеческая мысль.
Со времен древности и до нынешних дней мысль людей неустанно бьется над разгадкой главной тайны природы — над вопросом о том, почему так гармоничен окружающий мир. Откуда взялись крылья у птицы и плавники у рыбы, кто подарил оленю быстрые ноги, а тигру — острые зубы, кто заставил Землю вращаться вокруг себя и одновременно вокруг Солнца, чтобы ночи сменялись днями, а после зимы наступала весна? И наконец, откуда взялось на свете ни с чем не сравнимое по своей сложности и совершенству устройство — мозг человека, породивший вот эту самую не знающую покоя пытливую и созидательную человеческую мысль?
Оказывается, ответы на эти вопросы так или иначе связаны с современной трактовкой понятия энтропии, возникшей благодаря теории информации.
Информация — это третья героиня книги, с которой читателю предстоит часто встречаться на ее страницах.
До создания теории информации в понятие «информация» никто не пытался вкладывать строгий научный смысл. Слово «информация» толковалось как простое осведомление о чем-либо. Факты, новости, сведения, полученные путем общения, чтения или наблюдения и все подобное этому объединялись в одном слове «информация» практически во всех толковых словарях и энциклопедических справочниках. Такое определение информации казалось вполне исчерпывающим как для науки, так и для повседневной практики до тех пор, пока не возникла необходимость в количественном измерении всех этих новостей, сведений, знаний с помощью специально введенных для этой цели единиц (бит).
Измерение количества информации — не прихоть «кабинетных» ученых. Сама жизнь поставила перед наукой эту проблему. Наше время — это время необычайного возрастания скоростей, время стремительного движения. Никто уже не удивляется тому, что весть о каком-либо событии с быстротой молнии облетает весь земной шар А самой информации появляется столько и она так многообразна, что этот процесс невольно стали сравнивать со взрывом. Вошло в обиход понятие информационного взрыва, с которым надо было как-то справиться, как-то его «укротить». Вот так и возникла потребность в машинной переработке огромных массивов информации и хранении ее в памяти электронных систем. В связи с этим задач — и теоретических, и практических — пришлось решить не мало. Но возникают все новые и новые. В частности, информационные потоки продолжают нарастать, поэтому надо все время увеличивать быстродействие электронных машин и объемы их памяти.
Но чтобы решить задачу количественного измерения информации, надо было отойти от традиционного понимания информации и выработать некий универсальный подход. Прикладная поначалу задача явно перерастала в естественнонаучную. И стоило лишь науке отыскать универсальный способ измерения информации, как ему сразу открылась широкая дорога в самые различные отрасли знания — от физики до языкознания... Ныне в научных изданиях можно встретить утверждения, которые в прошлом были просто невозможны. Например, такое: микроскопическая половая клетка содержит в себе такое количество наследственной информации, которое не уместилось бы на страницах тысячи книг.
Позвольте, сказал бы некто в недалеком прошлом, книга содержит мысли и чувства ее автора, какие-то сведения, но причем здесь половая клетка, о какой информации тут можно говорить!? Вы объединяете в одно разные вещи... Конечно, разные. И конечно же, не разные. К такому подходу надо было привыкнуть и уже, кажется, привыкли, как привыкли к тому, что природа света одновременно и корпускулярная и волновая.
Для измерения количества информации американский ученый К. Шеннон предложил использовать заимствованную у термодинамики вероятностную формулу энтропии. Сначала многие ученые, включая и самого Шеннона, склонны были объяснять этот факт ссылками на удобства расчетов. Но постепенно стал проясняться скрытый ссылками на удобства глубокий смысл. Информация содержится не только в книге. Она есть и в живой клетке, и в мертвом кристалле, ее может хранить и наша естественная память и память бездушной машины. Информационное взаимодействие так же присуще материальному миру, как присущи ему и другие формы взаимодействий, объединенные таким понятием, как всеобщая связь явлений. Понимание и признание этого открыли перед естествознанием еще один путь познания мира, причин и механизмов возникновения и развития разнообразных самоорганизующихся систем, противостоящих энтропии.
В этой книге читатель узнает о том, как постепенно, с разных ракурсов и со многих заходов наука постигала сложную и многогранную сущность абстрактного и всеобъемлющего понятия энтропии, пока различные толкования не стали сливаться в единое представление (разумеется, еще далеко не завершенное).
А поняв энтропию и вооружившись ею как новым инструментом познания, можно увидеть в новом ракурсе и переосмыслить многие явления окружающего нас мира.
Решившись рассказывать об этих больших событиях в современной науке в форме, доступной широкому кругу читателей, автор заранее просит прощения у специалистов обсуждаемых здесь областей точных наук. Говоря о главном, приходится опускать многие частности, которые кажутся необходимыми специалисту, но могут увести в сторону тех, кто не подготовлен заранее к обсуждению этих проблем. Специалисты вправе упрекнуть автора в том, что, рассказывая о преемственности статистической теории энтропии и об использовании формулы Больцмана в теории информации, автор не упомянул, что в теореме Больцмана эта формула имела несколько иной вид. Умолчать пришлось и о том, что функция пригодна лишь для дискретных случайных событий, а широкое ее применение обусловлено тем, что непрерывно меняющаяся информация тоже может передаваться дискретно с определяемой теоремой Котельникова частотой.
Специалист может настаивать также на том, что автору не следовало называть энтропийными разнообразные случайные (иррегулярные, стохастичные) процессы, не уточнив предварительно, что величина энтропии может быть подсчитана либо для заданного непрерывного закона распределения вероятностей, либо для полной группы случайных событий. И наконец, если относиться к научной терминологии с подобающей строгостью, то следовало сказать, что энтропия — это мера, степень неопределенности (хаотичности) вероятностных (стохастичных) систем и процессов, и не отождествлять энтропию с самим хаосом, как это сделано ради образности и краткости и в этой книге, и в книге Ф. Ауэрбаха «Царица мира и ее тень», и в целом ряде других популярных статей и книг
Признавая справедливость всех этих и еще многих подобных им уточнений, я все же намеренно опускаю их в дальнейшем рассказе, поскольку любое попутное замечание подобного рода повлекло бы за собой необходимость объяснять не знакомому с теорией информации и теорией вероятностей читателю, что такое полная группа событий, что понимается под плотностью вероятности, в чем суть теоремы Котельникова и т. д. и т. п.
Все подобные объяснения неизбежно уводили бы нас в сторону от центральной проблемы, незаметно превращая книгу в научный трактат. Вот почему в целом ряде случаев мне приходилось жертвовать точностью научной терминологии и строгой логикой изложения, а многие, может быть, даже весьма существенные вопросы либо вообще обходить молчанием, либо затрагивать лишь бегло и вскользь.
Пусть придирчивый критик простит мне подобные вольности. Я стремился к тому, чтобы деревья не помешали читателю увидеть леса, осознать глобальный и даже космогонический смысл выдвинутых современной наукой проблем.
Можно надеяться, что книга стимулирует любознательного читателя к более детальному изучению затронутых на ее страницах вопросов. Не исключено, что кто-нибудь из читателей захочет углубиться в эти вопросы и со временем сможет докопаться до таких тонкостей, которых пока еще не отыщешь не только в научно-популярной литературе, но и на страницах специальных журналов и книг.
Многие из обсуждаемых здесь вопросов еще далеки от окончательного решения. До сих пор есть в науке противники обобщающего взгляда на информацию и энтропию, считающие, что до появления жизни не было никакой информации, и возражающие против попыток распространения общих закономерностей и информационно-энтропийных соотношений на весь окружающий мир.
Можно ли на этом основании упрекать автора в поспешности, в «забегании вперед»? Конечно, можно: бытует же мнение о том, что популярная литература не должна выходить за пределы истин, затвержденных в учебниках!
Такое мнение вряд ли можно признать стопроцентно верным. Оно, в сущности, ставит под сомнение само существование популярной литературы о сегодняшней науке и ее дерзких исканиях.
Это — одна сторона дела.
Другая заключена в том, что «забегание вперед» в данном случае весьма относительно, поскольку неуклонно растет число сторонников обобщающего информационно-энтропийного подхода; их работы в настоящее время составляют по отношению к публикациям приверженцев противоположного взгляда подавляющее большинство.
Надеюсь, что эта книга сможет убедить читателя в том, что картина развития материального мира, рассматриваемого сквозь призму единых информационно-энтропийных соотношений, полностью соответствует общим законам, которые еще задолго до создания теории информации сформулировал диалектический материализм. Ключом к познанию статистических механизмов, управляющих процессами развития конкретных объектов материального мира, может служить исследование взаимосвязи таких естественнонаучных категорий, как вещество, энергия, информация, энтропия.
Разумеется, высказываясь по поводу тех или иных все еще дискуссионных научных аспектов, автор не претендует на роль глашатая истин в последней инстанции, а лишь излагает ту точку зрения, которая на сегодняшний день представляется ему наиболее плодотворной и помогает глубже понять мир, в котором мы с вами живем.