II. НАУКА в 2000 ГОДУ

Почему 2000-й?

Можно ли вывести эту дату — 2000 год — из каких-то определений современной науки, из характера ее тенденций?

Прежде чем ответить на подобный вопрос, следует отметить существование обратной связи: само определение современных тенденций требует некоторого прогноза, картины развития науки в течение предстоящих десятилетий.

Здесь может оказаться уместной следующая аналогия. Представим себе физический эксперимент, при котором возникают новые элементарные частицы. Реакция, в результате которой появятся частицы, занимает очень небольшое время, скажем, 10-22 сек. Но чтобы определить, какие именно частицы появились, каковы их массы, заряды, длительность жизни, нужно представить себе, каково эвентуальное поведение каждой из частиц, как она будет двигаться, как ее путь будет искривляться в заданном магнитном или электрическом поле, какова будет длина ее трека до распада, заканчивающего существование частицы. Только такие представления об эвентуальной дальнейшей судьбе частицы придают физический смысл вопросу о ее принадлежности к тому или иному типу, о ее заряде, массе, времени жизни.

Характеристика современного научного прогресса напоминает определение эвентуальной судьбы частицы и определение ее типа. Сейчас очень трудно определить характер наметившихся в науке тенденций. Еще труднее определить технический эффект этих тенденций — те результаты, которые они дадут при своем практическом воплощении. Совсем трудно определить экономический и социальный эффект современных научных тенденций и их реализации. Но без таких прогнозов нельзя даже сказать, в чем состоят эти современные тенденции. Мы можем назвать частицу, определить ее тип, если мы видим ее эвентуальную судьбу, ее трек. Аналогичным образом мы можем определить тенденции научно-технического прогресса, назвать эти тенденции, выяснить их смысл только с помощью научных гипотез, научно-технических прогнозов и экономических проектировок.

Исходная и основная цель современного экономического, технического и научного прогноза — определение народнохозяйственной ценности различных возможных сейчас вариантов при выборе решения. Таким образом, речь по существу идет не о 2000-м, а о нынешнем годе. Это нужно подчеркнуть самым энергичным образом. Следующий пример разъяснит подобную актуальность прогноза. Представим себе, что при проектировке нового завода, шахты, электростанции, железной дороги, порта и т. д. необходимо определить срок моральной амортизации станка, агрегата или даже всего предприятия. В условиях научно-технической революции перспектива моральной амортизации может стать более существенной, чем перспектива физического изнашивания машины и даже чем перспектива истощения месторождения при проектировании шахты. Как ни трудно определить, когда появится машина или технологический процесс, который сделает неконкурентоспособными проектируемую машину или проектируемый процесс, как ни гадательны подобные расчеты, они в условиях научно-технической революции абсолютно необходимы. И в условиях научно-технической революции они связаны с еще более гадательными, чем технические, научными прогнозами, предвидением радикальных изменений, т. е. изменений не только конструкций и технологии, но и тех идеальных физических циклов, которые в той или иной мере воплощены в применяемых конструкциях и технологических методах.

Но этого мало. Сейчас ценность научного принципа, конструкции, технологического процесса измеряется не столько его предвидимой или уже установленной экономичностью, его техническим уровнем, сколько его воздействием на темп научного, технического и экономического прогресса. Что дает открытие, изобретение, новая схема, новая конструкция, новая технология для скорости и для ускорения прогресса? Этот вопрос сейчас не менее важен, а иногда и более важен, чем вопрос, что они дают для уровня науки или экономики. Наша эпоха — это эпоха дифференциальных показателей, дифференциальных критериев. Об этом речь будет идти подробнее в третьей части книги. Сейчас подчеркнем только необходимость прогнозов для определения дифференциальных показателей.

Чтобы определить темп процесса, скорость, ускорение, вообще производную по времени от изменяющейся величины х, нужно, как известно, взять ее приращение Ах и посмотреть, каково будет отношение Ах к приращению времени At, когда это приращение стягивается в мгновение, стремится к нулю. Так определяют скорость, а повторив эту операцию, — ускорение. Прогноз — это и есть приращение, которое нам необходимо узнать, чтобы дать динамическую характеристику данного момента в науке, в технике, в экономике. Это как бы касательная, которую мы проводим в данной точке к кривой; она указывает направление кривой.

Кривая, вообще говоря, не совпадает с касательной, она остается кривой. Но без касательной нельзя определить локальное направление кривой.

В весьма значительной мере и в своих весьма важных функциях прогноз — это касательная; он определяет направление развития, состояние движения, динамику настоящего момента, динамическую ценность тех вариантов решения, которые нужно сейчас выбрать. Вариантов начальных условий, от которых зависит последующее развитие науки, техники, экономики.

Но почему мы берем в качестве At — прироста времени — несколько десятилетий, почему мы выбираем для прогнозов тридцатилетний срок, почему мы хотим узнать, какова будет судьба науки, техники и экономики в течение ближайших тридцати, примерно, лет? Откуда взялась эта дата — 2000 год? Разве характеризующие современные тенденции продолжающие их линии не могут быть протянуты дальше — на сто лет, на двести, быть может, еще дальше? О другой стороны, разве в иных случаях не будут показательными короткие прогнозы — на три, пять, десять лет?

Каждому ясно, что 2000 год — это условная дата. Но не произвольная. Она указывает порядок величины срока, в течение которого реализуются современные тенденции научного и научно-технического прогресса. Может быть, такая реализация займет не тридцать, а двадцать или сорок лет. Но речь идет о некотором определенном порядке величины срока. Этого мало. Дата «2000 год» скрывает за собой мысль о некотором едином комплексе связанных между собой сдвигов, об их общей итоговой реализации, приуроченной к некоторому времени, одному и тому же для всех отраслей и всех путей прогресса.

В чем состоит такой комплекс?

Ответом на этот вопрос и является вторая часть книги. В вводной главе этой части следует ограничиться предварительным, весьма общим ответом. Он состоит в следующем. В течение времени, которое измеряется несколькими десятилетиями и которое мы условно отождествляем с концом нашего столетия, будет реализовано то, что обещает сейчас неклассическая физика.

Что же она обещает?

Ее обещания — это прогнозы дальнейшего развития атомной энергетики, квантовой электроники, молекулярной биологии. Прежде всего следует отметить наиболее характерную общую гносеологическую особенность современного этапа науки, вызвавшего к жизни перечисленные направления научно-технического прогресса. Такой особенностью, определяющей характер и содержание нынешних прогнозов, является связь конкретных научных и научно-технических открытий с пересмотром наиболее фундаментальных принципов науки и с реализацией тех новых физических идей, которые были сформулированы в первой половине столетия. Наше столетие началось очень радикальным пересмотром классических устоев науки и, что, может быть, еще важнее, отказом от самой презумпции неподвижного фундамента развивающихся представлений о мире. Весьма вероятно — это вытекает из конкретного анализа современных тенденций науки — столетие закончится полным производственно-техническим воплощением тех новых физических идей, возникновение которых ознаменовало начало столетия. Можно думать, что в течение нескольких десятилетий — времени, которое мы, как уже сказано, несколько условно, но с известными основаниями отождествляем с последней четвертью века, будет создано новое но своим научным основам производство, новое прикладное естествознание.

Тут необходимы пояснения. В XVII столетии возникла классическая наука. Она получила такое название потому, что основные законы природы, найденные Галилеем, Декартом и Ньютоном, а затем вереницей великих мыслителей XVIII и XIX столетий, претендовали на роль окончательных истин, которые останутся навсегда такими же незыблемыми канонами научной мысли, какими стали для художественного творчества каноны, воплотившиеся в архитектурные и скульптурные шедевры классической древности.

Классическая физика, и прежде всего законы механики, изложенные в «Математических началах натуральной философии» Ньютона, имели некоторое основание претендовать на роль вечных скрижалей науки. Начиная с Ньютона наука развивается, не отбрасывая того, что найдено и проверено опытом, она обобщает и уточняет старые законы, находит области их применимости, показывает, как эти законы модифицируются в новых областях. Но классическая наука претендовала на большее. Большинство мыслителей XVIII–XIX вв. думали, что законы механики Ньютона представляют собой незыблемый фундамент науки. Классическая наука — это не только определенные аксиомы (такие, как независимость массы тела от энергии, с которой оно движется, или непрерывность энергии — возможность сколь угодно малого ее приращения), но и уверенность в том, что это действительно аксиомы. Дело даже не в субъективной уверенности. Понятия классической науки по существу не требуют для своего понимания каких-то иных, противоречащих им допущений.

Что же такое неклассическая физика? Ее иногда определяют чисто негативным образом: она не классическая, в общем случае она отказывается от фундаментальных постулатов, из которых исходит классическая физика. В 1900 г. Планк предположил, что излучение энергии может происходить лишь определенными минимальными количествами — квантами. Через несколько лет Эйнштейн показал, что из относительности пространства, времени и движения (эти релятивистские понятия были противопоставлены ньютоновым понятиям абсолютного пространства, времени и движения) следует зависимость массы тела от скорости и, следовательно, от энергии его движения; когда скорость приближается к своему пределу — 300 тыс. км в секунду, масса тела стремится к бесконечности. Эйнштейн предположил далее, что и масса покоящегося тела m зависит от его внутренней энергии Е; если измерить энергию и массу обычными единицами, то энергия равна массе, умноженной на квадрат скорости света с. Таким образом, Е = mс2.

В 20-е годы появилась еще более парадоксальная неклассическая теория — квантовая механика. Бор и Гейзенберг показали, что движущаяся частица не обладает, вообще говоря, определенным положением в пространстве и определенной скоростью в данный момент. Эти новые соотношения, свойственные процессам, очень далеким от повседневного опыта, произвели неожиданно сильное впечатление на широкие круги. Казалось бы, тело, которое движется со скоростью, сопоставимой со скоростью света (о нем идет речь в теории относительности), не должно вызывать какие-либо эмоции у человека, не занимающегося теоретической физикой. Столь же далека от него судьба электрона, проходящего сквозь очень узкое отверстие, близкое по размерам к размерам электрона. Если при таком чисто мысленном, практически неосуществимом эксперименте прохождение сквозь отверстие меняет скорость электрона и делает ее неопределенной — это, по-видимому, не должно было произвести сильное впечатление на широкие круги. Между тем впечатление было колоссальным. И квантовая механика и теория относительности вызвали не только широкий интерес, но и серьезное изменение стиля мышления о природе. Вероятно, несколько сходный переворот в умах был следствием исчезновения абсолютного «верха» и «низа» в древности, когда утвердилось представление о шарообразной форме Земли. Подобное же смятение в умах произвела астрономия XVI–XVII вв., покончившая с абсолютно неподвижным центром Вселенной. Изменилось не только представление о фундаментальных законах природы, но и представление о самой науке. Теория относительности и позже квантовая механика не только заменили старые фундаментальные законы новыми. Эти новые законы уже не претендовали на окончательное решение основных проблем бытия.

Гельмгольц в XIX в. видел высшую и конечную цель науки в сведении всей картины мира к центральным силам, полностью подчиненным механике Ньютона. Современный физик не собирается поставить на место этой цели какую-то другую, но также окончательную цель. Подобные викторианские иллюзии потеряны навсегда. Неклассическая физика — это здание, которое не только растет вверх, но и углубляется в поисках фундамента, все более глубокого, но никогда не оказывающегося последним. Человеческий разум в этом смысле не только увидел новую Вселенную, но увидел в новом аспекте самого себя.

Эффект неклассической физики не был только негативным. Человечество интуитивно почувствовало, что оно вступает в эпоху более высокого динамизма, что наука несет с собой не только неясные еще, но несомненно глубокие изменения в жизни людей, но что сама эта жизнь станет непрерывным изменением, что изменятся не только научные представления, но и потенции науки, ее воздействие на жизнь станет непрерывно изменять материальные и духовные силы человечества.

Те, кто помнит первоначальное воздействие теории относительности и квантовой механики на общественную психологию, могут засвидетельствовать оптимистический характер их эффекта. В 20-е годы происходила радикальная переоценка ценностей. Стабильность, повторяемость, неизменность потеряли свой викторианский, оптимистический ореол. Оптимизм все больше стал связанным с преобразованиями. Разумеется, дискредитация покоя и апофеоз движения — очень приблизительная характеристика, требующая оговорок, связанная с противоречащими ей констатациями. Разумеется, также корни указанной переоценки ценностей гораздо шире, чем воздействие неклассической науки; последнее, может быть, даже и не входило в число этих корней — просто психологический эффект науки совпал с господствующими переменами в общественной психологии. Это было одной из причин характерного для 20-х годов напряженного интереса к новой науке.

В середине века интуитивное прозрение стало отчетливым прогнозом. Теперь мы можем в какой-то мере определить, в чем состоит эффект неклассической физики, эффект ее основной черты — незавершенности, незамкнутости новых представлений о мире, неизбежного пересмотра фундаментальных принципов науки. Посмотрим же, каким рисуется сейчас эффект неклассической физики.

Классическая физика также сделала динамичными, подвижными, изменяющимися и научные представления, и воздействие науки на материальные и духовные силы человечества. Но это был динамизм другого, менее высокого ранга. Менялись частные научные представления, но фундаментальные принципы оставались неизменными. Изменение частных научных представлений вызвало сначала спорадическое, а в конце классического периода, в начале XX в., непрерывное изменение технического уровня производства. Начиная с промышленного переворота XVIII в. производство становится прикладным естествознанием. Технический прогресс спорадически или непрерывно исходит из схем классической науки, он берет эти схемы в качестве идеальных циклов, к которым должна приблизиться производственная техника. Вся история классической теплотехники — это история последовательного приближения к идеальному циклу Карно, к идеальной физической схеме перехода тепла от нагретого тела к более холодному; такой переход позволяет превратить тепло в механическую работу. Сами идеальные физические схемы не оставались неподвижными, они дополнялись новыми. Наука узнавала о новых законах сохранения, об энтропии, о строении молекул, об эволюции неорганической и органической природы; число схем, служивших целевыми канонами для практики, все возрастало. Если говорить об энергетике, то главным целевым каноном XVIII в. было сохранение механической энергии при преобразовании уже имеющегося потенциала (например, вода, давящая на ковши наливного колеса) или имеющейся кинетической энергии (поток, толкающий лопатки подливного колеса) в механическое вращение машин, родоначальниками которых были прядильные и ткацкие станки, возвестившие промышленную революцию. В XIX в. (вернее, в период, охватывающий конец XVIII в. и почти весь XIX в.) таким целевым каноном энергетики стало сохранение энергии при преобразовании тепла в механическую работу. Приближение к целевому канону выражалось в повышении коэффициента полезного действия тепловых установок. Начиная с конца XIX в. наука, узнав о превращении механической работы в электричество и о превращении электричества в механическую работу (это связано с выводами из основных уравнений классической электродинамики, из уравнений Максвелла), ставит перед техническим прогрессом новый целевой канон, и энергетика стремится воплотить в жизнь схему: движение проводника в магнитном поле вызывает электрический ток, а последний на значительном расстоянии заставляет вращаться проводник в магнитном поле. Воплощение этой схемы в виде единой системы централизованного электроснабжения — основная цель электрификации.

Через несколько строк мы остановимся подробнее на электрификации как воплощении классической электродинамики. До этого — одно замечание о воплощении всей классической физики во всей эволюции энергетики вплоть до середины нашего столетия.

Классическая наука оперирует дискретными частями вещества — макроскопическими телами, молекулами и атомами. Энергия всех этих движущих тел обязана своим существованием, если говорить о Земле, солнечной радиации. Солнце создает все классические источники используемой в производстве энергии. Солнечные лучи поднимают вверх молекулы воды, они же создают перепады давления воздуха и ветер, они же перестраивают молекулы органического вещества при поглощении света хлорофиллом, т. е. концентрируют запасы энергии в виде топлива. Таким образом, классическая энергетика не выходит за пределы процессов, происходящих в неизменной Солнечной системе. Забегая вперед, заметим, что новая энергетика — воплощение неклассической науки — опирается на процессы, которые объясняют возникновение атомных ядер, на процессы, происходящие при возникновении и гибели миров.

Разумеется, и классическая энергетика опирается на такие процессы, которые получили сейчас неклассическое объяснение; таковы процессы, вызывающие излучение Солнца, накопление его энергии в хлорофилле и даже возникновение и распространение тока в проводниках. Но слово «опирается» имеет здесь другой смысл: классическая энергетика могла развиваться без обнаружения неклассической природы этих процессов. Напротив, новая энергетика в существенной мере связана с подобным обнаружением.

Вернемся к электрификации. Она состояла в том, что классические источники энергии используются в объединенных системах, состоящих из генерирующих точек и потребителей электроэнергии. Объединяют их высоковольтные передачи. Но это только первое звено электрификации. Оно вызвало резонанс в технологии, в сырьевой базе производства, в характере труда, в культуре и в науке.

Технологический резонанс объединения энергетики состоял в широком промышленном применении электролиза. Электроемкие технологические процессы, технологические методы, требующие значительного удельного расхода электроэнергии, становились экономичными, по мере того как электрификация осваивала средоточия гидроэнергии и дешевое местное топливо. Стало возможным несопоставимое с прошлым по масштабу производство искусственных азотных удобрений, это сразу же изменило продуктивность сельского хозяйства. Далее, электрификация открыла дорогу электроемким методам, с помощью которых производятся легкие металлы и специальные стали. Изменился металлический костяк производства. Соответственно изменилась сырьевая база. Теперь стали необходимы редкие металлы и вообще элементы, которые были известны химии, но совершенно не известны технологии. Десятки элементов периодической системы Менделеева стали новым промышленным сырьем.

Электрификация изменила характер труда. Гибкость электрического привода позволила заменить рабочего машиной в более сложных операциях. Электрические двигатели, то очень мощные, то миниатюрные, приводили в движение многочисленные механизмы, обрабатывающие детали, передвигающие их, передающие от одного автоматического станка к другому. Появились сервомоторы — двигатели, которые не обрабатывают объект труда, а управляют другими двигателями меняют их режим, меняют наклон резца, направление автоматического транспортера и т. д. Для электрифицированного производства характерен пульт управления автоматическими линиями со стрелками, указывающими на скорости, напряжения, температуры, поступление сырья, выход продукции, и с кнопками и рычагами, позволяющими управлять сложным агрегатом или системой агрегатов.

Общий экономический результат электрификации состоял в следующем.

Проникновение электричества в технологию, переход к новым видам сырья и автоматизация производства стали теперь практически непрерывными процессами. Не проходило недели, чтобы в той или иной лаборатории, в том или ином конструкторском бюро, в том или ином цехе не появлялись новая деталь конструкции, новая компоновка, новая рецептура, новые операции, новые параметры. Соответственно технический прогресс приобрел непрерывный характер, а вместе с ним и производительность общественного труда стала расти практически непрерывно.

Как известно, непрерывные изменения величин можно (оставив в стороне некоторые математические тонкости) представить в виде производных по времени. Первая производная по времени от положения точки — это ее скорость, вторая производная — ускорение. Можно сформулировать экономический результат электрификации, сказав: при электрификации первая производная по времени от производительности труда становится положительной, она больше нуля, производительность труда растет непрерывно, она обладает некоторой скоростью.

В 1920 г. был составлен план электрификации Советской России. Он включал первоочередную программу строительства электростанций и более отдаленную программу объединения в единое кольцо станций европейской части страны при увеличении их мощности. План указывал направления и масштабы электрификации промышленности, использования электричества для механизации производства и для новых технологических процессов: он намечал электрификацию транспорта и земледелия и перспективы развития основных отраслей производства при его реконструкции на базе электричества. Все это в целом образовало комплекс связанных между собой и приуроченных к одному и тому же примерно сроку сдвигов в производстве — создание высоковольтной сети, объединяющей большие станции, механизацию производства, изменение характера труда, развитие электроемких отраслей, изменение сырьевых ресурсов.

Теперь нам легче будет понять, в чем состоит эффект неклассической физики.

Прежде всего это новая энергетическая база производства. В данном случае слово новая означает нечто весьма радикальное. Речь идет о воплощении весьма общего физического принципа. Для технической революции, вызванной механическими станками XVIII в., наиболее общим физическим принципом был ньютонов закон сил — пропорциональность ускорения тела и действующей на него силы с постоянным коэффициентом пропорциональности, равным массе тела. Для революции, вызванной тепловыми машинами XVIII–XIX вв., таким наиболее общим принципом были начала термодинамики. Для революции, вызванной электричеством, — законы электродинамики, уравнения Максвелла, связывающие магнитное поле с электрическим и воплощенные в трансформаторе, генераторе и электродвигателе. Для атомной энергетики таким наиболее общим принципом, определяющим идеалы и направления исследований и последующего применения их результатов, является релятивистское соотношение между массой ядра и энергией связи ядерных частиц. Разумеется, каждая из этих формул не противостоит другим: когда в современном атомном реакторе (использующем небольшую, но уже существенную долю энергии, вычисленной с помощью формулы Эйнштейна) выделяется тепло, дальнейший расчет использования этого тепла опирается на классическую термодинамику и классическую электродинамику, а расчет механических процессов в атомном реакторе — на классическую механику. Но мы теперь судим об эволюции энергетики, измеряя не динамику последовательного использования теплотворной способности сгорающего (в прямом классическом смысле, т. е. соединяющегося с кислородом) топлива, и уже не исходим из энергии, которую Солнце вложило в молекулу органического вещества. Мы измеряем теперь использование внутренней энергии ядра, той энергии, которая была в него вложена, когда ядро было создано в результате процессов, происходивших в очень малых пространственно-временных областях, но связанных с космической эволюцией звезд, а может быть, и галактик.

Завершением некоторого определенного периода научно-технического прогресса, связанного с атомной энергетикой, вовсе не будет полное использование релятивистской энергии Е = mс2, так же как завершение революции, произведенной паром, не означало полного использования теплотворной способности угля. Революция, произведенная паром, была завершена, когда уголь стал основной компонентой энергетического баланса, когда производство в существенной мере мигрировало от рек и построенных на их берегах водяных колес к угольным бассейнам, когда появились паровой транспорт и классические индустриальные центры. Аналогичным образом революция, произведенная электричеством, не требовала для своего завершения полного использования классических ресурсов энергии и ее завершение (разумеется, относительное, сохранившее перспективу дальнейшего прогресса станций, сетей, промышленной электроаппаратуры и методов технологического применения электричества) означало создание больших межрайонных колец, широкую автоматизацию, электрификацию технологии и — как результат — непрерывность технического прогресса, позволяющую говорить о ненулевой производной по времени от уровня техники и уровня производительности труда.

Для революции, вызванной энергией атомного ядра (если провести дальше аналогию с электрификацией как воплощением классической физики), можно считать некоторый комплекс связанных между собой сдвигов в технологии, характере труда, характере сырьевой базы, культуре и науке содержанием особого периода и назвать завершением этого процесса превращение атомных станций в преобладающий источник производства электричества, автоматизацию на основе электронных вычислительных и управляющих машин и освобождение производства от угрозы истощения ресурсов.

Все эти результаты атомной энергетики (их также можно было бы назвать резонансами: атомная энергетика лишь усиливает внутренние тенденции электроники и кибернетики) приводят к непрерывному ускорению технического прогресса. Развитие атомной энергетики — это уже не ряд конструкций, все более приближающихся к идеальной физической схеме. Это зачастую изменение самой схемы. Позже мы вернемся к указанной особенности атомной энергетики. Аналогичным образом «резонансные» процессы внедрения электроники в технологию и применения кибернетики часто меняют во всем производстве принципиальные схемы, а не только инженерное оформление одной и той же схемы. Забегая вперед и не приводя пока примеров и доказательств, сформулируем основную экономическую характеристику атомного века: уровень техники и уровень производительности труда не только растет, но растет с непрерывным ускорением, возрастают скорость технического прогресса и скорость повышения производительности труда. Уже не только первая производная по времени от производительности труда становится положительной, но и вторая производная тоже больше нуля.

Это и есть основной экономический результат превращения атомной энергетики в основную компоненту энергетического баланса, превращения электроники в основное средство технологии, превращения работы с помощью кибернетических механизмов в основное содержание труда.

А что потом? Можем ли мы указать сейчас контуры послеатомного века?

Этого мы сделать не можем. Но мы можем указать, причем с большой определенностью, на тот процесс, который подготавливает уже сейчас послеатомную цивилизацию. Вопросу о подобной подготовке посвящена специальная глава. Здесь подчеркнем только, что мы знаем с большой определенностью, в чем состоит подготовка послеатомной цивилизации, но вовсе не знаем, каков будет результат этой подготовки, каковы будут научные представления, из которых вырастет возможность новой, послеатомной энергетики, новой технологии, нового характера труда.

Путь, который ведет к таким новым научным представлениям, — это изучение элементарных частиц. Уже не только атомов и не только атомных ядер, но и тех частиц, которые пока не удалось и, вероятно, не удастся разделить на субчастицы. К их числу принадлежат элементарные частицы с отрицательным электрическим зарядом — электроны; далее нуклоны — частицы, из которых состоят атомные ядра: протоны с положительным электрическим зарядом и нейтроны без электрического заряда; и еще многие частицы. Беда в том, что мы с трудом можем сказать, чем же отличаются элементарные частицы от неэлементарных, и уже вовсе не можем сказать, от чего зависят массы и заряды, отличающие один тип элементарных частиц от другого.

Есть все основания думать, что решение Этих вопросов возможно только при очень радикальном отказе от привычных представлений, более радикальном, быть может, чем отказ от классических аксиом физики при создании теории относительности и квантовой механики.

Не исключено, что через десять или двадцать лет (во всяком случае речь идет о сроках такого порядка) начнется период быстрого изменения самых фундаментальных принципов науки. Тогда будут быстро меняться не только конкретные научные схемы (это происходит уже в наши дни), но и сами идеалы науки, к которым стремятся ученые, разрабатывая новые научные схемы. Тогда, быть может, станет непрерывным не только ускорение технического прогресса, но само ускорение будет непрерывно увеличиваться и станет реальной положительная третья производная по времени от уровня техники, от уровня власти человека над природой.

Но эта третья производная пока не является измеримой величиной. Это только символ возможного экономического эффекта тех фундаментальных исследований, которые расширяют наши знания об элементарных частицах. Такие исследования позволяют проникнуть в очень маленькие пространственные области (порядка радиуса атомного ядра, т. е. около 10-13 ом) и временные интервалы порядка 10-23 сек. Проникнуть в них можно с помощью очень мощных ускорителей элементарных частиц. Другой, дополнительный путь — астрофизические исследования, в частности исследования космических лучей — потоков частиц очень высокой энергии, приходящих на Землю из мирового пространства.

Это «бескорыстные» исследования. Кавычки не означают сомнения в действительно бескорыстном характере того стремления к решению чисто познавательных задач, которое ведет человека в космос и в микромир. Каковы бы ни были возможные практические результаты астрофизических исследований или сооружения очень мощных ускорителей частиц, не эти принципиально неопределимые заранее результаты служат непосредственным стимулом указанных исследований. Их сделали большими народнохозяйственными начинаниями, преследуя прежде всего познавательные цели. Люди уже знают, что отвлеченный характер познавательных задач и полная неопределенность практических результатов их решения соответствуют радикальному характеру этих заранее неопределимых результатов и в конце концов радикальному ускорению экономического прогресса. Они понимают, что теория относительности стала истоком такого радикального практического результата, как атомная энергетика, именно благодаря чрезвычайно общему, отвлеченному и чисто познавательному характеру поставленных в начале столетия вопросов о пространстве, времени, движении, эфире, массе и энергии. Сейчас перед наукой стоят еще более общие и еще более фундаментальные вопросы. Они будут решаться независимо от определенности их практических результатов. И тем не менее кавычки, в которые взяты «бескорыстные» исследования, имеют некоторый смысл: «корысть» здесь количественно неопределима, заранее не известна, но совершенно бесспорна и чрезвычайно велика.

Является ли она экономическим понятием? Можно ли говорить об экономическом эффекте фундаментальных исследований в области теории элементарных частиц?

По-видимому, пришло время обобщить понятие «экономический эффект», включить в него не только производительность общественного труда, но также скорость возрастания этого показателя, далее его ускорение и, может быть, даже скорость ускорения. Речь идет, как уже было сказано, о производных по времени от производительности труда: о первой производной (скорость возрастания), второй производной (ускорение) и третьей производной (скорость ускорения).

Учет производных по времени, в том числе третьей производной, позволяет рассматривать фундаментальные, «бескорыстные» исследования (отвечающие на вопросы о пространстве и времени, об их конечности или бесконечности, об их прерывности и непрерывности, об «элементарности» элементарных частиц, о природе их массы, заряда и т. д.) как звенья экономической деятельности человека, как нечто увеличивающее власть человека над природой, повышающее сумму потребляемых человеком материальных, интеллектуальных и эстетических ценностей.

Только самые простые исследования — контрольные измерения качества сырья и продукции, скорости станков, давления пара, напряжения и т. п. — обеспечивают данный уровень производительности труда. Конструкторские и технологические работы увеличивают производительность труда, придают ей ненулевую скорость роста. Собственно, научные исследования гарантируют ускорение, а самые фундаментальные из них обещают возрастание ускорения производительности общественного труда. Ничто не может дать такой сильный импульс темпам ускорения производительности общественного труда, а значит, и всей цивилизации в целом, как «бескорыстные» исследования — действительно бескорыстные, если иметь в виду уровень производительности труда, и связанные с очень большой объективной «корыстью», если иметь в виду возрастание ускорения этого универсального показателя цивилизации.

Существует довольно отчетливая связь между степенью общности, глубины и «бескорыстия» научных исследований и неопределенностью их экономического эффекта. Контрольные измерения, конструкторско-технологические работы, собственно научные исследования по уже проложенным принципиальным руслам и, наконец, фундаментальные исследования дают все более интенсивный и вместе с тем все более неопределенный и неожиданный эффект.

Мы можем выдвинуть в качестве достаточно точной и универсальной закономерности следующее соотношение: чем выше порядок производной, на величину которой воздействует результат исследования, тем неопределеннее экономический эффект этого результата и тем такой эффект глубже.

Соответственно экономическая теория должна включить неопределенность в качестве фундаментального понятия. Она стала такой точной наукой, что должна разделить общую судьбу точных наук и оперировать фундаментальным понятием неопределенности.

Неопределенность эффекта фундаментальных работ — это неопределенность иного типа, чем неопределенность эффекта научных исследований с предвидимыми (хотя и не однозначно) результатами и неопределенность эффекта конструкторских и технологических поисков. Она ограничивает прогноз, претендующий хотя бы на минимальную определенность. Такой прогноз не должен выходить за рамки комплекса сдвигов в энергетике, технологии, характере труда и сырьевой базе, которые гарантируют ускорение уровня производительности труда и соответствуют понятию «атомный век». Фундаментальные исследования — это своеобразное memento mori, намек на ограниченность такого комплекса во времени.

Подобное ограничение прогноза — результат характерного для неклассической науки радикального отрицания каких бы то ни было раз навсегда данных абсолютов. Неклассическая наука — в этом ее фундаментальная особенность — видит свою собственную ограниченность и, более того, включает некоторые указания на возможную модификацию своего собственного фундамента. Но они недостаточны для воплощения в новые схемы и идеальные циклы, становящиеся вехами научно-технического прогресса. Их значение для прогноза состоит в возможности и необходимости ограничить прогноз во времени. Мы ссылаемся на возможность совершенно новых, после-атомных условий технического прогресса после того комплекса связанных между собой энергетических и технологических сдвигов, которые займут несколько десятилетий и могут быть условно приурочены к 2000 г.

Предстоящие три, может быть, четыре десятилетия — это и есть атомный век, период, для которого мы можем наметить относительно определенные научно-технические перспективы и относительно определенный интегральный экономический эффект развития науки. В первой половине века появились новые интегральные принципы науки, научная мысль перешагнула то, что мы назвали общими границами, отделяющими уже не одну отрасль от другой, а одну эпоху от другой. Этот импульс, начавшийся в теоретической физике, пошел дальше, из одной отрасли в другую, скорость его распространения увеличивалась благодаря новому математическому аппарату и новым экспериментальным методам, сам импульс нарастал лавинообразно, но при этом сохранялась возможность в какой-то мере предвидеть направление научно-технического прогресса. Появились атомная энергетика, квантовая электроника, кибернетика, молекулярная биология — направления, о которых в этой, второй части книги будет сказано сравнительно подробно. Они связаны с основами неклассической физики прямо (атомная энергетика, квантовая электроника) или косвенно (молекулярная биология), и теперь в их развитии мы не встречаем фундаментальных порогов, связанных с переходом к новым интегральным основам научного мировоззрения в целом.

Отсюда некоторое постоянство, некоторая закономерность в эволюции экономических показателей как функции научно-технического прогресса. Если производительность общественного труда приобретает ненулевую первую производную по времени, т. е. незатухающую скорость, в результате собственно технических открытий, новых технологических рецептов и новых конструкций, ненулевую вторую производную — ускорение в результате собственно научных открытий, новых физических схем и идеальных циклов и ненулевую третью производную в результате изменения принципиальных оснований науки в целом, то для ближайших десятилетий — условно для конца столетия — мы можем исходить из ненулевой второй производной по времени от производительности труда, из ускорения этого показателя как из основного неравенства, характерного для прогнозируемого периода.

Все это отвечает на вопрос: «Почему 2000-й?» Но теперь перед нами появляется другой вопрос: почему именно сейчас, в начале 70-х годов, стало возможным высказать сравнительно обоснованный прогноз на 2000-й год?

Прежде всего уже в 60-е годы атомные станции стали способны конкурировать с тепловыми, угольными станциями. Позже, в главе об атомной энергетике, будут приведены сопоставления стоимости киловатт-часа на атомных и угольных станциях. Тот факт, что эти величины сблизились, создает возможность длительного, охватывающего десятилетия перехода к атомному в своей преобладающей части балансу электроэнергии. Разумеется, скорость перехода существенно зависит от того, насколько достигнутая близость этих величин сменится разностью в пользу атомных станций. Но сейчас, мы прошли точку пересечения кривых стоимости киловатт-часа. Ряд обстоятельств позволяет думать, что стоимость киловатт-часа на атомных станциях будет снижаться быстрее, чем его стоимость на тепловых станциях, позволяет предвидеть последовательное увеличение разности в пользу атомных станций. Во всяком случае сейчас прогнозы в части атомной энергетики исходят из уже доказанной возможности рентабельного перехода к новой структуре энергетического баланса. Можно даже рассчитывать на ускорение перехода, связанное с тем, что в 70-е годы физически и технически решена проблема реакторов, которые производят больше ядерного горючего, чем потребляется в реакторе.

Для 70-х годов характерно также, что новая технология, опирающаяся на электронику, подошла к основным производственным процессам. В этот же период кибернетика после очень важных для будущего успехов в области связи, обработки и хранения информации и управления подошла к собственно производственным задачам в основных отраслях производства. Эти три основные тенденции — атомная энергетика, электроника и кибернетика — сейчас, в 70-е годы, достигли своего, если можно так выразиться, экономического совершеннолетия. Они-то и представляют собой научно-техническую основу нового прогноза, воплощающего неклассическую науку. Реализация такого прогноза требует повышения того, что можно назвать интеллектуальным потенциалом науки. Он зависит от широты и общности тех фундаментальных проблем, при решении которых наука находит новые связи между дифференцировавшимися отраслями знания, переносит экспериментальные и математические приемы из одной отрасли в другую и расширяет арсенал этих приемов.

Указанные основные тенденции — атомная энергетика, электроника, кибернетика — приводят не только к расширению производства, причем к ускоренному расширению. Они приводят к очень большому и очень быстрому расширению того, что можно назвать пространственно-временными пределами прогноза. Современная наука и современная техника проникают в микромир, они создают микроскопические «ноозоны» — зоны рационального и целесообразного упорядочения микропроцессов. Но при этом процессы, начавшиеся на микронном уровне, приводят к последствиям, охватывающим всю литосферу, гидросферу и атмосферу Земли, а события, происшедшие в течение миллионных долей секунды, изменяют вековые процессы на Земле. Наше время можно было бы назвать эпохой цепных реакций.

Существенным, а вернее, фундаментальным, жизненно важным для человечества результатом расширения пространственных и временных масштабов эффекта нынешних научно-технических начинаний является воздействие этих начинаний на экологию человека, на среду, в которой он живет, на растительный и животный мир, на состав атмосферы и воды, на уровень радиации, на баланс естественных ресурсов для жизни и производства. Появляется новый критерий для оценки научно-технических проектов. Он выходит далеко за пределы критериев стоимости единицы установленной мощности или стоимости продукции и т. п., но с какой-то точки зрения он является экономическим, если понимать под экономикой, производством, трудом всю совокупность взаимодействий человека и природы. Экологический критерий может быть основой позитивной оценки: современная наука и современная техника могут привести к необходимым для человечества изменениям в условиях обитания, в геофизической обстановке, в растительном покрове Земли, в балансе ископаемых ресурсов, могут устранить разрушительные катаклизмы, сделать обитаемыми большие территории. Этот критерий может привести и к негативным оценкам содержания или масштабов научно-технических начинаний. Во всяком случае прогноз с очень широкими пространственными и временными масштабами становится условием правильной оценки проектов, а оптимистический прогноз — необходимой предпосылкой реализации научно-технических замыслов.

Но это только часть характерного для нашего времени интереса к будущему. Вероятно, ни одно поколение еще не думало так много о будущем.

Для современной общественной психологии характерно прогнозное мышление. Сейчас нельзя понять, что собой представляют материальные и духовные ценности сегодняшнего дня без понимания, куда они ведут, какие двери они открывают. Наука — именно она — привела человечество к перекрестку, на котором стоит надпись: «направо поедешь… налево поедешь…» Один путь угрожает атомной войной и разрушением цивилизации. Эта сторона надписи изложена во множестве документов, исследований и романов (типа написанного Шьютом в 1957 г. романа «На берегу» о гибели человечества в результате атомной войны 1962–1963 гг.; то, что мы перешагнули эту дату, никого не успокаивает и не должно успокаивать). Другая сторона надписи говорит о небывалом подъеме науки, культуры и благосостояния людей, об ускорении прогресса, о ликвидации болезней, подъеме интеллектуального и морального уровня. Эта, вторая часть книги — попытка изложить некоторые прогнозы, помещенные на оптимистической стороне надписи и связанные прямо или косвенно с современными релятивистскими и квантовыми теориями.

Век Эйнштейна

Тот период научно-технического прогресса, который является сейчас объектом прогноза, называют атомным веком. Он, как уже говорилось, не сводится к превращению атомных станций в основу энергетического баланса; это понятие включает резонансные эффекты, связанные прямо или косвенно с атомной энергетикой. Но даже такое расширенное понятие атомного века не покрывает ряда существенных особенностей науки конца XX в. Характеристика «атомный век» указывает на количественные масштабы атомной энергетики, на уровень автоматизации, на степень использования электроники (с этим мы познакомимся подробнее в следующих главах), но она не определяет свойственной XX–XXI вв. новой динамики производства и культуры. Между тем именно в этом тайна новой научно-технической революции. Предыдущий период был тоже динамичным: производство уже с XVIII в. меняет структуру, размещение, энергетическую базу, уровень механизации, технологию. Но, как уже говорилось в предыдущей главе, для научно-технической революции нашего столетия характерна иная, более высокая динамика: сейчас непрерывно меняются не только промышленные конструкции и технологические рецепты, но и идеальные циклы, идеальные модели технического прогресса.

Что же лежит в основе такого изменения, почему в нашем столетии началось столь быстрое изменение этих идеальных моделей, изменение представлений о физических процессах, представлений о распространении полей, движении и трансмутациях частиц и трансформациях энергии?

Непосредственной движущей силой этой научной составляющей новой революции был переход к новому физическому идеалу. Вместо статичного идеала классической науки перед исследователем появился иной, существенно неклассический идеал. Он уже не может быть выражен в виде окончательного объяснения мира, оставляющего будущему лишь детализацию окончательно установленной схемы мироздания. Сейчас идеальная физическая теория — это теория, в наибольшей степени приближающаяся к пониманию объективной гармонии Вселенной и в наибольшей степени соответствующая всей сумме экспериментальных данных. Это — динамичный критерий. Он соответствует новому гносеологическому кредо науки. Мысль, высказанная уже в давние времена: «истина — дочь времени», — мысль о бесконечном приближении к истине, мысль, развивавшаяся после этого в течение столетий, воплотилась теперь в непосредственные критерии выбора научной теории.

Новые критерии научной теории, новые, динамичные идеалы научного творчества — это один из важнейших итогов науки XX в. Когда мы говорим о науке в 2000 г., мы хотим прежде всего понять, каковы эти итоги, что внесла наука нашего столетия в движущие силы прогресса, в его динамику. «Наука в 2000 г.» — это условное обозначение основного смысла развития науки в XX в., ответа на вопрос: с каким эпитетом войдет XX век в историю науки и культуры?

XVIII век был назван веком разума, а XIX — веком науки. Остановимся на смысле этих эпитетов, они помогут нам ответить на поставленный только что вопрос об эпитете XX в.

Уже в эпоху Возрождения разум провозгласил свою суверенность, а в XVII в. он начал претендовать на гегемонию. Но XVII в. — это еще утро рационализма, с мягкими и меняющимися красками. В следующем, XVIII столетии была создана рационалистическая схема мироздания, согласующаяся с данными эксперимента. Такой схемой была механика Ньютона. Она оказала очень большое влияние на все стороны жизни европейского общества. Энгельс говорил о линиях, соединяющих науку XVIII в., с одной стороны, с французским Просвещением и Великой французской революцией, а с другой — с английским промышленным переворотом[29]. Культура XVIII в. была пронизана строгим и четким рационалистическим духом. Идеалом науки было сведение всей многокрасочной картины мира к одноцветному чертежу — схеме движений тел, подчиняющихся механике Ньютона. Это был статичный идеал научного объяснения, предел научного познания.

Соответственно и общественные идеалы XVIII в. были статичными. Ссылаясь на систему Ньютона и превращая английского мыслителя в демиурга Вселенной, Шарль Фурье конструировал идеальное общество, в котором отвлеченная мысль определяет не только рациональную организацию фаланстеров, но и упорядоченную природу с благонамеренными «антильвами» и «антиакулами» и точно определенной (144 года) продолжительностью жизни человека. При всей их фантастичности конструкции Фурье были связаны со стилем науки XVIII в., и великий утопист недаром получил имя «социального Ньютона».

Статичными были и критерии технического творчества. Промышленный переворот — по крайней мере в его первой фазе — состоял в сооружении станков, наименее отличающихся от идеальных механических схем. Как уже говорилось, техническое творчество имело перед собой идеальную физическую схему, которая была пределом технических усовершенствований.

Таков был век разума, век, который, разумеется, только очень условно входил в хронологические рамки XVIII в. Впрочем, условный характер хронологических рамок столетий (включая и наш 2000 год) становится очевидным, когда столетия получают интегральные характеристики. С такой оговоркой XIX век можно назвать веком экспериментальной науки. Теперь развитие науки уже не ограничивалось наполнением неизменных априорных форм новыми эмпирическими данными. Когда разум сталкивался с экспериментом, он был вынужден переходить ко все новым, отнюдь не априорным логическим и математическим формам. Вспомним уже приводившуюся фразу Лапласа о разуме, «которому труднее углубляться в себя, чем продвигаться вперед». В начале столетия углубление разума в самого себя (иными словами, разработка новых логических и математических форм) было более трудным делом, чем продвижение разума вперед, т. е. заполнение уже установившихся форм новым эмпирическим содержанием. Но это было неизбежным. В XIX в. наука все время находила закономерности, заставлявшие вспоминать шекспировское «есть многое на свете…» Не снившийся мудрецам и открытый Карно необратимый переход к состояниям с большей энтропией, не снившийся им новый тип физической реальности — электромагнитное поле, подобные не предусмотренные априорными схемами факты последовательно расшатывали мысль о некой окончательной цели науки — сведении всех частных закономерностей к единой схеме. Сомнения подтачивали только идею сведения всего, что происходит в мире, к механике; почти никто не сомневался в том, что сама механика мыслима лишь как ньютонова механика. Еще меньше сомневались в абсолютной точности геометрии Эвклида. Но в природе не находили ее абсолютно точных эквивалентов. Гладкая поверхность тела не могла служить прообразом плоскости — она, как выяснилось, состоит из отдельных молекул. Луч света не может служить прообразом линии — он представляет собой движение волны. Освободившись от таких прямых физических эквивалентов, геометрия могла свободно создавать самые неожиданные конструкции — они были «углублением разума в самого себя», которое оторвалось от «продвижения вперед». Возникли многомерные геометрии, многомерные абстрактные пространства, в которых положение точки определяется не тремя, а четырьмя и больше координатами. Возникла геометрия Лобачевского с треугольниками, в которых сумма углов меньше двух прямых углов, и геометрия Римана, в которой сумма углов треугольника больше двух прямых углов. Это были взлеты разума, свободного от физических эквивалентов, разума, который конструировал все новые парадоксальные логико-математические формы, удивляясь их непротиворечивости, их логической безупречности, но не помышляя сколько-нибудь систематически об этих парадоксальных формах как о формах парадоксального бытия.

Теория относительности изменила соотношение между разумом, «углубляющимся в самого себя», и разумом, «идущим вперед». В специальной теории относительности четырехмерная геометрия обрела физические эквиваленты, в общей теории относительности их обрела неэвклидова геометрия. Так появилось представление не только о парадоксальном мнении, взгляде, теории, но и о парадоксальном бытии. Оно оказалось величайшей революционной силой, оно сообщило науке и технике XX в. более высокий динамизм.

Парадоксальность бытия — это появление нетрадиционных и несовместимых с традицией основных принципов науки и идеалов научного объяснения. Цели научного творчества меняются, они становятся движущимися, и научный прогресс приобретает ускорение.

Сейчас мы остановимся на том характерном для XX в. синтезе преобразования логико-математического аппарата науки и эксперимента, который придает науке подобный более высокий динамизм.

Создавая теорию относительности, Эйнштейн пользовался двумя критериями выбора физической теории. Они уже упоминались, и здесь об этих критериях следует сказать несколько подробней, в связи с чем вкратце и популярно изложить некоторые идеи теории относительности. До сих пор можно было упоминать о ней без такого изложения, но теперь представление о критериях выбора физической теории должно стать более конкретным.

Критерии, о которых идет речь, вели науку к слиянию лапласовского «движения разума вперед» с «его углублением в самого себя». Первый критерий Эйнштейн назвал внешним оправданием: оно состоит в соответствии теории и эмпирических наблюдений. Если теория соответствует наблюдениям, в том числе новым, неожиданным, парадоксальным, значит, выдвигая эту теорию, разум движется вперед, охватывая объяснением новые факты. Второй критерий — «внутреннее совершенство» теории: она по возможности не должна включать допущения ad hoc, т. е. специально выдвинутые для объяснения данного факта, она должна исходить из возможно более общих исходных допущений. Великое значение теории относительности Эйнштейна для науки, культуры и стиля мышления людей вытекало из того, что Эйнштейн объяснял некоторые парадоксальные факты, исходя из таких общих принципов, которые означали преобразование самого разума, новые формы познания природы, новые идеалы науки.

Каковы эти факты и в чем состояло объяснение?

Теория относительности исходит из эксперимента, показавшего, что свет распространяется с одной и той же скоростью в системах, которые движутся одна относительно другой. По отношению к подобным системам скорость света одна и та же. Такое постоянство скорости света во всех этих системах противоречит классической механике и, на первый взгляд, противоречит очевидности. Оно противоречит классическому правилу сложения скоростей. Если человек идет со скоростью 5 км в час по коридору вагона в поезде, движущемся со скоростью 70 км в час, и идет в сторону движения поезда, то его скорость по отношению к рельсам будет 70 + 5 = 75 км в час. Оказывается, свет движется в поезде с неизменной скоростью 300 тыс. км в секунду по отношению к поезду, к рельсам и даже к встречному поезду. Из этого парадоксального факта и исходил Эйнштейн. Он увидел здесь весьма общий принцип: движение состоит в изменении расстояний между движущимся телом и другими телами — телами отсчета. Можно с тем же правом считать эти тела движущимися, а телу, которое мы рассматривали как движущееся, приписать покой. Тела движутся взаимно, одно относительно другого, и движение, не отнесенное к другим телам, абсолютное движение, — это понятие, не имеющее физического смысла.

Подобный принцип был уже с XVII в. известен в механике: если система движется без ускорения, то внутри этой системы не происходит ничего такого, что демонстрировало бы ее движение. Уже Галилей говорил о каюте корабля, где летают бабочки, вода каплет в узкое отверстие, дым поднимается вверх, и все эти процессы происходят одним и тем же образом в неподвижном и движущемся корабле. Если по внутренним механическим процессам нельзя судить о движении, значит, оно состоит только в изменении расстояний между телами и имеет относительный смысл.

Но в отношении оптических процессов в классической физике существовала иная точка зрения. Считалось, что все мировое пространство заполнено эфиром и в нем движутся волны, которые являются электромагнитными волнами, светом. Движение по отношению к эфиру — абсолютное движение, его можно обнаружить по ходу внутренних процессов в движущейся системе. Если в каюте того же корабля, о котором говорил Галилей, расположены фонарь со стороны носа и экран со стороны кормы, т. е. сзади по движению корабля, то свет от фонаря до экрана дойдет скорее, когда корабль движется. В этом случае экран и свет движутся навстречу друг другу. Однако оптические опыты уже в конце XIX в. непререкаемым образом показали, что свет распространяется с одинаковой скоростью в неподвижной по отношению к эфиру и в движущейся системах. Оставалось отказаться от классического правила сложения скоростей и признать, что и оптика не спасает понятия абсолютного движения, что никаким способом нельзя обнаружить движения по внутренним эффектам в движущейся системе.

Лоренц попробовал спасти классическую точку зрения, предположив, что все тела, движущиеся в эфире, изменяют свои размеры в такой мере, которая компенсирует изменение скорости света в этих телах. Таким образом, абсолютное движение существует, оно проявляется в изменении скорости света, но эти проявления нельзя обнаружить. Гипотеза Лоренца обладала «внешним оправданием», она соответствовала наблюдениям, но в ней не хватало «внутреннего совершенства», она была искусственной, придуманной ad hoc специально для объяснения результатов оптических экспериментов.

Эйнштейн обратился к весьма общим допущениям. Он обратил внимание на физическую бессодержательность понятий абсолютного времени и абсолютной одновременности.

В классической физике принимали как нечто само собой разумеющееся, что некоторое единое, тождественное, одно и то же мгновение наступает повсюду во всей Вселенной. Из таких одновременных мгновений состоит охватывающий Вселенную поток абсолютного времени. Но что, собственно, означает физически тождественность двух мгновений, одновременность событий, происшедших в эти мгновения? Эйнштейн отказывает в физическом смысле понятию одновременности событий в отдаленных точках пространства, если нет возможности синхронизировать события, доказать, что часы в точках, где они происходят, идут синхронно. Ньютон мог говорить о такой синхронизации. Он допускал мгновенное, происходящее с бесконечной скоростью распространение сил. Если Солнце притягивает Землю и их взаимодействие распространяется мгновенно, то можно говорить об одновременности: в одно и то же мгновение импульс исходит от Солнца и воздействует на Землю. Такую же возможность идентификации мгновений и синхронизации отдаленных событий дал бы мгновенно движущийся световой сигнал. Можно было бы также синхронизировать часы в одной точке и часы в другой точке, соединив их абсолютно жестким валом. Но все это, строго говоря, иллюзии. В природе и силовые поля, и световые сигналы, и напряжения в валах передаются с конечной скоростью. Остается отождествить мгновения: 1) выхода сигнала из одной точки и 2) прихода его в другую точку минус время, затраченное на движение сигнала. Это легко сделать, если указанные точки неподвижны по отношению к эфиру или если их движение отнесено к эфиру. Но опыт показал, что покой и движение относительно эфира не имеют смысла. Если же время распространения сигнала измеряется в различных движущихся одна относительно другой системах, то получаются различные значения для этого времени. Если на палубе корабля, в ее центре, зажечь свет и осветить экран, расположенный на носу корабля, то легко сверить часы на носу и в центре палубы: достаточно внести поправку на скорость света относительно корабля, вычесть из времени, когда осветился экран, время, в течение которого свет распространялся от источника до экрана. Это и будет время вспышки света. Но при наблюдении света и освещенного экрана с берега, вдоль которого движется корабль, путь, пройденный светом, и время его прохождения окажутся большими: экран как бы уходит от света. Поэтому подобная синхронизация возможна только в том случае, когда тела, на которых расположены отдаленные точки и происходят синхронизируемые события, неподвижны по отношению друг к другу либо рассматриваются в одной и той же системе отсчета. Но, как показал Эйнштейн, их с тем же правом можно рассматривать в другой системе; тогда то, что казалось неподвижным, окажется движущимся, и наоборот; соответственно синхронизация дает другие результаты. Согласно теории относительности то, что представляется одновременным в одной системе, будет неодновременным в другой. Абсолютной одновременности, независимой от системы отсчета, нет.

Устранение мгновенных процессов заставляет расстаться с классическим представлением о соотношениях пространства и времени. Если в природе может существовать мгновенный процесс, т. е. процесс, развертывающийся только в пространстве в ноль времени, то понятие трехмерного пространства обладает физическим смыслом. Но в релятивистской физике, т. е. в физике, исходящей из теории относительности, это понятие теряет подобный физический смысл. Все, что происходит в мире, — это движения с конечной скоростью, движения в пространств и во времени. Физическим эквивалентом обладают не пространство и время в отдельности, а только четырехмерное пространство-время. Каждое элементарное событие— пребывание частицы в данной точке в данный момент — характеризуется четырьмя координатами: тремя пространственными координатами точки и четвертой временной координатой, т. е. временем указанного события.

Четыре числа (три пространственные координаты и четвертая временная) образуют мировую точку, они определяют пространственно-временную локализацию частицы. Смена таких локализаций — движение частицы — изображается четырехмерной мировой линией, совокупностью мировых точек. Эти понятия уже упоминались и первой части книги.

Таким образом, «углубление разума самого в себя», конструирование новых логико-математических форм (в данном случае многомерной геометрии) получило физический смысл, слилось с объяснением новых фактов, с «продвижением разума вперед».

Эйнштейн показал, что скорость света — это предельная скорость, к которой может приблизиться и с которой может совпасть скорость движущегося физического объекта — того, что Эйнштейн назвал сигналом. Через подобные сигналы осуществляется причинная связь в природе. Цепи причин-следствий — это процессы в пространстве-времени, они обладают предельной скоростью, равной скорости света. Эти замечания дают представление о релятивистской причинности.

Как только что было сказано, частица не может двигаться быстрее света. Если частица получает все новые импульсы одной и той же интенсивности, эффект их становится все меньше по мере приближения скорости частицы к скорости света. Это можно выразить и так: по мере приближения скорости частицы к скорости света и соответственного возрастания энергии частицы ее масса растет и стремится к бесконечности, когда скорость стремится к скорости света. Масса тела пропорциональна его энергии. Эйнштейн распространил эту пропорциональность и на покоящуюся частицу. В.уже известном нам уравнении, связывающем энергию и массу, содержалась в зародыше релятивистская цивилизация — атомная энергетика и ее энергетические, технологические, культурные, экономические и научные резонансы.

Пора, однако, попросить у читателя прощения. Вместо прогнозов мы надолго занялись популярным изложением теории относительности — теории, появившейся в начале столетия, конец которого является объектом прогнозов. Однако определение XX столетия в целом невозможно без знакомства с идеями Эйнштейна — они остаются важнейшей опорой научных прогнозов не только на конец XX в., но и на XXI век. Но если речь идет об идеях Эйнштейна, то неизбежно хотя бы самое беглое знакомство с теорией относительности: давно известно, что, отправившись на спектакль «Гамлет», не следует удивляться, увидев на сцене датского принца.

Все сказанное о теории относительности следует еще дополнить следующим замечанием.

Каждая физическая теория не может быть исчерпывающим описанием природы и в этом смысле полной. Но теория относительности была одной из первых теорий, заведомо указавших на свою незавершенность и, мало того, на пункты, где следует искать пути дальнейшего, более полного (но опять-таки не исчерпывающего) объяснения. Таков стиль неклассической физики. По поводу теории относительности Эйнштейн говорил, что в ней существует явный пробел. Это сказано в автобиографическом очерке, написанном в 1949 г., — в очерке, который стал научным завещанием Эйнштейна. Здесь определяется понятие системы отсчета: тело, которое может быть неограниченно продолжено во все стороны и состоит из перекрещивающихся линеек, так что каждое тело, движение которого мы изучаем, может соприкоснуться с линейками. Такое соприкосновение определяет пространственное положение тела. Система четырехмерного пространственно-временного отсчета содержит, кроме того, часы — какой-то периодически повторяющийся процесс, необходимый для отсчета времени. Часы могут быть помещены возле каждого скрещивания трех линеек, и тогда можно определить не только пространственное положение, но и положение во времени — четырехмерную, пространственно-временную локализацию описываемого тела.

Пространственно-временная система отсчитывает различные пространственно-временные интервалы, т. е. отрезки мировых линий, в зависимости от того, как движутся в пространстве тела, из которых состоит мир. Структура мира распадается на мировые линии составляющих его частиц. Но само тело отсчета оказывается в этом мире государством в государстве. Оно как бы не состоит из частиц; внутри тела отсчета, внутри линеек и часов не проходят мировые линии, во всяком случае теория относительности ничего не говорит о них, она закрывает глаза на дискретную структуру линеек и часов. В своих автобиографических заметках Эйнштейн писал о теории относительности, что она вводит два рода физических предметов: 1) масштабы и часы и 2) все остальное. «Это в известном смысле нелогично, — говорил Эйнштейн, — собственно говоря, теорию масштабов и часов следовало бы выводить из решений основных уравнений (учитывая, что эти предметы имеют атомистическую структуру и движутся), а не считать ее независимой от них»[30]. Об этом же говорил впоследствии Гейзенберг. По его мнению, масштабы и часы «построены, вообще говоря, из многих элементарных частиц, на них сложным образом воздействуют различные силовые поля, и поэтому непонятно, почему именно их поведение должно описываться особенно простыми законами» [31].

Связать поведение масштабов и часов с их дискретной структурой — значит вывести макроскопические законы движения тел, как их рисует теория относительности, из существования и поведения мельчайших частиц.

Такова весьма широкая научная задача, которую поставила физика первой половины XX в. перед следующим периодом. Об этом — дальше. Сейчас следует только сказать, что теория относительности сама указывала на свои границы, рассматривая их не как абсолютные границы познания, а как выходы к новой, более общей теории. Критика теории относительности в автобиографии Эйнштейна была по существу прогнозом будущего развития теории. Она указывала на незамкнутую сторону теории и тем самым определяла некоторые абрисы новой, будущей теории, обладающей большим «внутренним совершенством» и большим «внешним оправданием». Поэтому приведенное замечание так важно для научного прогноза в наши дни.

Его важность станет яснее, если мы вспомним о другой незамкнутой грани специальной теории относительности, о другом подходе к более общей («внутреннее совершенство»!) и более точной («внешнее оправдание»!) теории. О подходе, реализованном самим Эйнштейном в 1916 г.

Речь идет об общей теории относительности. Теория, выдвинутая Эйнштейном в 1905 г., называется специальной теорией относительности потому, что она справедлива только для одного специального вида движения — для движения по инерции, без ускорения, с неизменной скоростью, т. е. для прямолинейного и равномерного движения. Только равномерное и прямолинейное движение нельзя зарегистрировать по внутренним процессам в движущейся системе. Если эта система, например корабль, о котором писал Галилей, испытывает ускорение, находящиеся в системе тела получают толчок. Этот толчок связывают с силами инерции. Если система начнет вращаться, в ней появятся центробежные силы инерции. Здесь, по-видимому, уже нет равноценности координатных систем. Ньютон приводил в защиту абсолютного характера ускоренного движения следующий эксперимент. Ведро с водой вращается на закрученной веревке. Центробежные силы заставляют воду подниматься к краям ведра. Если бы ведро висело неподвижно, а все остальные тела вращались вокруг него, вода бы не поднялась. Значит, дело не во взаимном относительном движении ведра и других тел; значит, причина центробежных сил не вращение ведра с водой относительно других тел, а его вращение по отношению к самому пространству, т. е. абсолютное вращение.

Эйнштейн лишил силы этот аргумент и распространил принцип относительности на ускоренное движение, обратив внимание на то, что силы инерции и силы тяготения при некоторых условиях неразличимы. Эйнштейн приводил пример кабины лифта, которая стоит на месте и находится в поле тяготения Земли, и кабины, которая не испытывает тяготения, но движется вверх с таким же ускорением, какое было бы вызвано тяготением. Все проявления в первом случае — сил тяготения, а во втором — сил инерции, будут одни и те же. Силы инерции при ускоренном подъеме прижмут подошвы людей к полу и натянут нити, на которых подвешены к потолку кабины грузы, таким же образом, как их натянут в случае неподвижной кабины силы тяготения.

Неразличимость сил тяготения и сил инерции не позволяет видеть в силах инерции доказательство абсолютного движения. Те же явления будут происходить в неподвижной или равномерно движущейся системе, если в последней действуют соответствующие силы тяготения. Исчезает критерий абсолютного движения, и теория относительности становится общей теорией: как бы ни изменялось состояние движения, в какую бы систему отсчета мы его ни переносили, какой бы ни оказалась в этой системе отсчета наша система тел — покоящейся, движущейся равномерно и прямолинейно или движущейся с ускорением — все равно внутренние процессы не позволят нам обнаружить эти изменения.

Но здесь необходимы добавочные предположения. Представим себе, что кабину пересекает тонкий луч света. Если кабина движется вверх, зайчик на противоположной стене сместится вниз; если же на неподвижную кабину действует тяготение, такого смещения, казалось бы, не произойдет. Мы получили бы абсолютное доказательство движения. Но это доказательство исчезает, если свет обладает весом, т. е. если на него действует тяготение. Общая теория относительности остается справедливой, если свет обладает весом. Как оказалось, свет действительно обладает весом; это подтвердилось в 1919 г., когда обнаружили отклонение световых лучей, проходящих вблизи Солнца.

Существует еще одно осложнение в общей теории относительности. В кабине лифта практически нельзя заметить, что силы тяготения и силы инерции направлены по-разному. Два груза, подвешенные на нитях к потолку кабины, натянут нити по параллельным направлениям, если кабина начнет двигаться с ускорением вверх, т. е. когда перед нами силы инерции. Но если кабина неподвижна и в ней действуют силы земного притяжения, т. е. силы тяжести, направления натянутых нитей не параллельны, нити направлены к центру Земли.

Здесь позволим себе небольшое отступление. При изложении теории относительности как одного из истоков новой научно-технической, экономической и культурной полосы, как одного из важнейших событий духовной и материальной истории человечества возникает недоуменный вопрос, о котором уже шла речь. Неужели то или другое направление пересекающего кабину луча, тот или другой наклон подвешенных в кабине грузов и десятки аналогичных воображаемых или реальных опытов могут вызвать коренные изменения стиля мышления людей и власти человека над природой?

Такой эффект бесчисленных схем с зеркалами, экранами, фонарями, часами, линейками и т. д. на самом деле удивителен. Но не более удивителен, чем эффект галилеевой каюты, где летают бабочки, вода каплет в подставленный сосуд и все происходит одинаково в неподвижном и в движущемся корабле (это описание помещено в «Диалоге» Галилея, вызвавшем процесс 1633 г., долгую реакцию во всем католическом мире и множество других исторических событий). И не более удивительно, чем эффект опытов, описанных в «Математических началах натуральной философии» Ньютона, от которых идут линии исторической связи к Великой французской революции и к английской промышленной революции. И не более удивителен, чем эффект абстрактных и туманных периодов Гегеля, в которых Герцен увидел «алгебру революции», что целиком подтвердилось во второй половине XIX в. и затем в нашем Столетии.

Мы вскоре вернемся к этим удивительным связям и эффектам, а пока продолжим краткое изложение общей теории относительности. Эйнштейн заметил различие между силами инерции и силами тяготения, состоящее в том, что силы тяготения, вообще говоря, неоднородны. Но эту неоднородность можно устранить. Не будем сейчас рассматривать, как это сделал Эйнштейн, укажем только на результат его усилий. Эйнштейн рассматривает тяготение как изменение геометрических свойств пространства. В отсутствие гравитационных полей эти свойства соответствуют эвклидовой геометрии: две параллельные линии сохраняют между собой одно и то же расстояние, сумма углов треугольника равна двум прямым углам, два перпендикуляра к одной и той же прямой параллельны, они не расходятся и не встречаются, как бы далеко мы их ни продолжили. Подчинение физических процессов такой геометрии состоит в том, что тела предоставленные самим себе, описывают траектории, соответствующие эвклидовым соотношениям: мировые линии тел — прямые мировые линии; эти линии образуют эвклидовы треугольники (сумма их углов равна двум прямым углам), и вообще эти линии существенно не отличаются от линий, описываемых геометрией Эвклида. Закон инерции можно выразить так: мировые линии тел, предоставленных самим себе (иначе говоря, поведение тел, зависящее не от их взаимодействия, а от свойств пространства), подчиняются геометрии Эвклида; геометрия мира — эвклидова геометрия (поскольку для времени применяются особые единицы, эта геометрия называется псевдоэвклидовой).

Такова геометрия мира с точки зрения классической физики. Пространство сохраняет движения тел прямолинейными и равномерными, мировые линии не изгибаются без внешних воздействий ни в пространстве (сохраняется прямое направление), н: х по отношению к временной оси (сохраняется абсолютная величина скорости). Искривления мировой линии приписываются взаимодействиям. В общей теории относительности мировые линии теряют свои эвклидовы свойства, пространство-время становится неэвклидовым. Это можно представить как его искривление. Возьмем кривую поверхность. Кратчайшие линии (соответствующие прямым на плоскости) будут подчиняться иной геометрии. Достаточно напомнить, что перпендикулярные к экватору меридианы пересекаются в полюсе и что в треугольнике, образованном отрезками двух меридианов и экватора, сумма углов больше двух прямых углов. Переход от эвклидовых свойств двумерного пространства, т. е. плоскости, к неэвклидовым свойствам можно рассматривать как искривление этого двумерного пространства. Искривление трехмерного пространства и тем более четырехмерного нельзя представить себе с такой легкостью. Тем не менее Эйнштейн сделал именно это. Он отошел от ньютоновского разграничения «плоского», т. е. эвклидова, пространства и взаимодействия тел, искривляющего их пути. Поскольку тяготение искривляет мировые линии всех физических объектов, его можно рассматривать как искривление всей совокупности мировых линий, всего четырехмерного пространства-времени. Закон тяготения Эйнштейна имеет вид уравнения, в котором, с одной стороны, стоят величины, измеряющие искривление пространства-времени, а с другой — величины, показывающие распределение масс, распределение всех средоточий энергии и импульса, всего того, что искривляет пространство-время, делает его неэвклидовым, иначе говоря, служит источником полей тяготения.

На нескольких предыдущих страницах специальная и общая теория относительности изложена крайне бегло. Она изложена лишь в той степени, которая необходима, чтобы иллюстрировать главную особенность стиля физического мышления XX в. — синтез «углубления разума самого в себя» и его «движения вперед». Этот синтез и является основой гигантского интеллектуального потенциала современной науки. Современная наука после Эйнштейна и Бора не останавливается ни перед одной трансформацией самых общих и фундаментальных представлений. То, что в начале века показалось бы выходящим за любые рамки по своей парадоксальности, сейчас встречает скептическое замечание: «Эта концепция недостаточно безумна, чтобы быть справедливой». Но этого мало. Самые смелые и парадоксальные предложения о смене фундаментальных принципов комментируются со стороны возможной экспериментальной проверки, возможного «внешнего оправдания», возможного накопления однозначных экспериментально проверенных констатаций, т. е. «продвижения разума вперед».

В этом — потенциал современной науки. Но для прогноза наряду с потенциалом нужно знать наиболее вероятные направления дальнейшего движения. Чтобы определить, куда направится течение воды, нужно знать не только уровень водохранилища, но и тальвег, по которому ринется поток. Такими тальвегами для науки служат ее нерешенные проблемы. С одной из них мы познакомились. Это выведение релятивистских законов поведения масштабов и часов из их корпускулярной структуры. Подобную задачу Эйнштейн сформулировал в итоговой характеристике специальной теории относительности. Подводя итоги общей теории относительности, он поставил другую задачу. Общая теория относительности — это теория тяготения. А другие поля? Когда создавалась общая теория относительности, кроме гравитационного поля было известно электромагнитное. Эйнштейн потратил тридцать лет на поиски единой теории, из которой вытекали бы не только законы тяготения, но и законы электромагнетизма. Эти поиски не привели к решению задачи. Единая теория поля не была построена. Было ли бесплодным величайшее напряжение самого гениального мозга, какой знает история физики? Были ли поиски единой теории поля бесперспективной тратой интеллектуальных сил? В 30—50-е годы многие думали, что эти поиски безрезультатны. Сейчас на поставленный вопрос уже нельзя ответить без некоторого уточнения понятия «результат», когда речь идет об усилиях физической мысли. Поиски единой теории остались безрезультатными в том смысле, что не были найдены уравнения, которые описывали бы не только гравитационное, но и электромагнитное поле. Более того, наука нашла множество иных полей помимо гравитационного и электромагнитного. Этим полям соответствуют различные виды элементарных частиц. Значит, задача теперь состоит не только в объединении теории тяготения и теории электромагнетизма, но в создании теории, выводящей значения массы, заряда и других свойств каждого типа частиц из единых уравнений.

Иногда поиски какого-то нового решения оканчиваются выяснением его невозможности. Таковы были поиски вечного двигателя. Таковы были впоследствии поиски явлений, демонстрирующих движение относительно эфира. В первом случае они окончились открытием сохранения энергии, во втором — теории относительности. Бывает и иначе. В истории науки безрезультатные поиски иногда были вопросом, на который наука еще не могла ответить, вопросом, объективно адресованным будущему. Эти вопросы, в отличие от ранее упомянутых, не умирают, они ставятся вновь и вновь и входят в наследство, которое каждая эпоха передает следующей. Это очень важный результат научной мысли каждой эпохи. Если иметь в виду не уровень знаний, а динамику, переход к новому уровню, то, что особенно важно для прогнозов, эта «вопрошающая» компонента науки оказывается не менее важной, чем положительные знания, чем «отвечающая» компонента.

Мы увидим позже, что основной прогноз на конец века — это получение ответа на поставленный Эйнштейном вопрос о единой теории поля, вернее, на вопрос о единой теории элементарных частиц, который приобретает в наше время все более настоятельный характер.

Конечно, нужно напомнить, что здесь «прогноз» — это только псевдоним констатации наметившейся тенденции.

Чтобы придать слову «прогноз» несколько более прямой смысл, нам недостаточно характеристики интеллектуального потенциала науки (констатации общности и широты ее исходных допущений и синтеза «углубления в себя» и «продвижения вперед») и характеристики тальвегов — назревших и нерешенных проблем. Нам нужно еще обратиться к тем силам развития науки, которые связаны с ее эффектом и с тем объемом интеллектуальных и материальных усилий, которые общество выделяет для решения научных проблем.

Мы говорили до сих пор об идеях относительности, идеях единой теории поля, об идейных коллизиях, о синтезе логического углубления идей и экспериментального постижения мира. Мы видели во всем этом исходные звенья научного прогноза. Следует ли отсюда, что идеи правят миром, что они могут объяснить ход научного и общественного прогресса?

Нет, идеи не правят миром. Движущей силой общественного прогресса служит в последнем счете развитие производительных сил человечества. Такая роль производительных сил подтверждена всей историей человечества, и в наиболее яркой форме — историей последних десятилетий. Сейчас все знают, что освобождение атомной энергии определило важнейшие технико-экономические, социальные и культурные процессы современности. Вместе с тем все знают, что к освобождению атомной энергии привело не логическое саморазвитие идеи в умах людей, а развитие промышленности и эксперимента. Наука сейчас не отличается от промышленности в том отношении, что она входит вместе с промышленностью в единый комплекс, где каждая отрасль не может существовать и развиваться без других. Что же касается эксперимента, то современная наука насквозь экспериментальна — больше, чем когда-либо. Здесь следует вернуться к уже удивившему нас эффекту экспериментальных схем с зеркалами, лучами света и кабинами лифта. Все дело в том, что сейчас величайшие революции мысли, величайшие преобразования стиля и логики научного мышления (самые крупные «углубления разума самого в себя») неотделимы от однозначного постижения все новых и новых фактов («продвижения разума вперед»). Этот синтез двух движений разума, которые когда-то противопоставил друг другу Лаплас, является главной тайной науки XX в., он получил наиболее отчетливое выражение в слиянии критериев «внутреннего совершенства» и «внешнего оправдания», а наиболее важным результатом их слияния была теория относительности. Основная идея этой книги состоит в том, что перспектива дальнейшего, еще более глубокого синтеза «углубления разума самого в себя» и его «продвижения вперед» является исходным пунктом прогнозов научного прогресса. Подчеркнем еще раз, что речь может идти отнюдь не о логическом саморазвитии идей как фундаментальной движущей силы прогресса. Такое саморазвитие всегда опиралось на эксперимент, промышленность, эмпирическую проверку — на «внешнее оправдание». Теперь же развитие идей само происходит в форме мысленных и реальных экспериментов. Для теории относительности характерно радикальное исключение из концепции мира всех понятий, которые принципиально не ведут к эксперименту, всех представлений (например, представления о движении в эфире и самого эфира), которые не могут стать объектом экспериментальной проверки. Именно поэтому изложение теории относительности обычно требует экспериментальных схем с зеркалами и лучами света, схем, которые оказываются в последнем счете столь важными для духовной эволюции и развития производительных сил человечества.

Из экспериментального стиля современного научного мышления, из синтеза «внутреннего совершенства» и «внешнего оправдания», из синтеза «углубления в себя» и «продвижения вперед» вытекает более высокая форма динамичности, свойственная современной науке. В свое время научные концепции выводились из логических схем, казавшихся незыблемыми. Экспериментальные данные входили в науку, не колебля ее исходных принципов. Сейчас эксперимент служит основой радикального пересмотра исходных принципов. Отсюда — новая динамика научного и технического прогресса. Уже говорилось о контрольных исследованиях в заводских лабораториях как гарантии заданного технического уровня, о поисках новых конструкций и технических приемов как гарантии ненулевой скорости технического прогресса, о поисках новых идеальных физических схем как гарантии его ускорения и о фундаментальных исследованиях, приводящих к возрастанию самого ускорения. Именно динамизм исходных принципов, которые стали объектом экспериментальной проверки (в этом и состоят фундаментальные исследования), характерен для науки XX в., и связан он с синтезом логики и эксперимента, «углубления разума самого в себя» и его «продвижения вперед».

С таким синтезом связан явный характер той зависимости научного прогресса от развития производства, которая была открыта еще в XIX в. Сейчас мы попытаемся, исходя из этой зависимости, определить, какой более высокий синтез «углубления в себя» и «продвижения вперед» вытекает из широкого производственного применения релятивистской и квантовой физики. Мы убеждены, что такой синтез и является главным прогнозом для науки конца XX в.

Атом

В первой части этой книги, в очерке «Начальные условия» уже шла речь о ноозонах, о тех областях, где законы одного ряда явлений переходят в иные законы, специфические для другого ряда, несводимые к первым. Теперь мы можем проиллюстрировать подобные переходы и вместе с тем показать, что именно здесь — наиболее пластичные зоны, где целесообразная деятельность человека создает начальные условия, упорядочивает мир, создает исходную негэнтропию, предопределяющую в той или иной мере ход объективных процессов. В современной науке и технике ноозонами становятся такие звенья иерархии дискретных частей вещества, которые раньше не могли испытать упорядочивающее воздействие человека. Сейчас речь пойдет об атомном ядре и ядерных реакциях. Здесь создается зона перехода от законов и соотношений, определяющих существование стабильных ядер, к законам деления и синтеза ядер, их превращения в иные ядра. Для реакций ядерного деления существенно наличие некоторой критической массы, при которой деление ядер приобретает характер цепной реакции. Получение делящегося вещества в блоках критической массы — пример создания начальных условий, предопределяющих ход используемого процесса. В случае синтеза ядер начальные условия включают очень высокую температуру. В обоих случаях речь идет о такой перекомпоновке исходных, начальных условий, при которой начинается заранее представимый (и поэтому могущий играть роль цели человеческой деятельности) процесс. Создание блоков делящегося урана или плутония в сущности аналогично созданию концентрированного перепада потенциала воды в верхнем и нижнем бьефах у плотины или перепаду температуры между котлом и конденсатором паровой машины. Только в ядерной энергетике мы сталкиваемся с несравненно большими концентрациями энергии, с несравненно большими перепадами, с пластичной, допускающей целесообразное вмешательство структурой в очень малых пространственно-временных областях. Однако здесь лучше остановиться и вспомнить о читателях, которые ожидают пояснений, чтобы понять, о чем идет речь, о каких ядрах, о каких процессах деления и синтеза. Таких читателей, вероятно, меньшинство: представления о ядерных процессах, освобождающих 2,2 тыс. квтч из каждого грамма делящегося вещества, сейчас широко распространены. Но интересы меньшинства должны учитываться, и краткие пояснения здесь уместны.

Теория относительности связала энергию тела с его массой соотношением Е = mс2. Это соотношение впоследствии позволило объяснить один важный результат ядерной физики. Масса ядра немного меньше, чем сумма масс ядерных частиц — протонов и нейтронов, из которых состоит ядро. Разность (ее назвали «дефектом массы») у одних элементов больше, у других меньше. С точки зрения теории относительности эту разность можно связать с энергией связи частиц в ядре, объяснить разностью энергии ядерных частиц, взятых порознь (т. е. суммарной энергией распавшегося ядра, суммарной энергией еще не соединенных воедино частиц, из которых состоит ядро), и полной энергией ядра. Энергия ядра меньше суммы энергий составляющих его частиц, поэтому и масса его меньше суммы масс частиц. Когда частицы соединяются в ядро, освобождается энергия и соответственно уменьшается масса. В одних ядрах частицы упакованы более компактно, разность между энергией ядра и суммарной энергией частиц, составляющих это ядро, здесь относительно больше и соответственно дефект массы больше. В ядрах других элементов частицы упакованы не так компактно и дефект массы меньше. Разумеется, речь идет не о различии, зависящем от сравнительной величины ядер (они могут состоять из нескольких частиц, из нескольких десятков частиц, вплоть до самых тяжелых элементов, где в ядрах сгруппировано больше двухсот частиц), а о дефекте массы, приходящемся на одну частицу, об удельном дефекте массы.

Предположим, что мы перегруппировали частицы и уложили их в ядре так, что дефект массы возрос. Тогда за счет подобной более компактной, более экономной упаковки часть энергии освободится. Каким переходам от одного элемента к другому соответствует такое освобождение энергии?

Таблица Менделеева начинается водородом, атомное ядро которого состоит из одного протона. Здесь дефект массы, конечно, отсутствует. У следующего элемента, гелия, ядро состоит из двух протонов и двух нейтронов, здесь есть значительный дефект массы, и синтез ядер гелия из ядер водорода (т. е. протонов) и нейтронов освободил бы относительно большое количество энергии. В середине таблицы Менделеева находятся элементы с большим удельным дефектом массы, чем в начале таблицы, у легких элементов, и большим, чем в конце таблицы, у тяжелых элементов. Поэтому, разделив ядро урана (238 ядерных частиц) на два ядра по 115–120 ядерных частиц, мы перешли бы к более экономной упаковке частиц и соответственно большему удельному дефекту массы. Энергия при этом выделилась бы. Такое выделение энергии освободило бы только небольшую часть энергии, соответствующей всей массе вещества. Здесь еще не используется энергия, близкая к массе частиц, умноженной на квадрат скорости света. Но освобождающаяся при таком делении энергия в миллионы раз больше, чем энергия, получаемая из того же количества вещества при перегруппировке атомов в молекулах, например при сгорании топлива. В атомной физике энергия обычно измеряется электронвольтами (эв). Электронвольт — это энергия одного электрона, которую он приобретает, пройдя разность потенциалов в один вольт. При делении одного ядра урана выделяется 200 млн. эв энергии — в несколько миллионов раз больше, чем. приходится на один атом при выделяющих энергию химических реакциях, например при горении топлива. Один грамм урана дает больше тепла, чем три тонны сгорающего угля.

Практическая возможность перегруппировки ядерных частиц в ядра с большим дефектом массы и использования разницы в дефекте массы стала вырисовываться в 30-е воды. В начале 30-х годов были открыты уже упоминавшиеся частицы, не имеющие электрического заряда, — нейтроны. Лишенные заряда, они не испытывают кулоновского отталкивания со стороны ядер и могут легко проникать в ядра и вызывать ядерные реакции. До конца 30-х годов были известны лишь ядерные реакции радиоактивного распада, при которых из ядра вылетают одна или несколько ядерных частиц и элемент переходит в соседнюю или близкую клетку таблицы Менделеева. В 1939 г. выяснилось, что при бомбардировке урана нейтронами ядро урана раскалывается на две почти равные половины — атомные ядра элементов, стоящих в середине таблицы Менделеева. Разница в дефекте массы уже указана — 200 млн. эв, так что на каждую ядерную частицу приходится около миллиона электрон-вольт «экономии». Освобождение этой энергии (соответствующее уменьшению массы ядра урана при его расщеплении) в виде кинетической энергии осколков урановых ядер и в виде излучений сопровождается вылетом из делящихся ядер новых нейтронов, которые попадают в другие ядра, и таким образом при известных условиях возникает цепная реакция, иначе говоря, первый же нейтрон (а они могут возникать в уране спонтанно либо под действием космических лучей) вызовет деление всей массы урана.

Цепная реакция не прекращается, если при делении ядра выделится число нейтронов, в среднем большее единицы, т. е. на каждый затраченный нейтрон выделится больше одного нового нейтрона. Развитию цепной реакции мешает захват нейтронов ядрами, которые при захвате не делятся. Если из каждой группы выделившихся новых нейтронов слишком много нейтронов будет захвачено ядрами без деления этих ядер, цепной реакции не произойдет. Обычный природный уран состоит в основном из двух изотопов: урана-238 с 238 ядерными частицами и урана-235 с 235 частицами (есть еще третий изотоп — уран-233 с 233 частицами; его в природном уране совсем мало). Урана-238 в 140 раз больше, чем урана-235. Ядра этих изотопов по-разному реагируют на попадание медленного (с энергией не больше 2 млн. эв) нейтрона. В уране-238 ядра, захватывая такой нейтрон, превращаются в ядра нового изотопа — урана-239. Таким образом, они не распадаются. Каждый новый нейтроне имеет во много раз больше шансов быть захваченный ядром урана-238, чем вызвать деление и участвовать 9 цепной реакции.

Поэтому в обычном, природном уране цепной реакции не происходит. Другое дело, если выделить уран-235. Ядра этого изотопа делятся при попадании нейтрона в ядро, и в выделенном, чистом уране-235 начинается цепная реакция. Но здесь требуется дополнительное условие. Если кусок урана-235 мал, большинство нейтронов уйдет из этого куска, не вызвав деления ядер: для цепной реакции нужен кусок урана-235 не меньше определенной, критической массы.

Теперь посмотрим, что происходит, когда ядро урана-238 захватывает нейтрон. Оно становится ядром урана-239. Этот неустойчивый изотоп очень быстро распадается и при этом переходит в изотоп нептуния-239 — нового, искусственно полученного элемента таблицы Менделеева, первого из более тяжелых, чем уран, элементов — трансуранов. Далее, нептуний, обладающий периодом полураспада 2,3 дня, превращается в изотоп плутония. Ядра плутония делятся под влиянием нейтронов, подобно ядрам урана-235.

Нейтроны с энергией ниже 2 млн. эв вызывают деление урана-235 и плутония. Они могли бы поддерживать цепную реакцию и в природном уране, если бы удалось уменьшить шансы захвата нейтронов ураном-238. Очень медленные нейтроны обладают такими уменьшенными шансами захвата. Но как добиться, чтобы сравнительно быстрые нейтроны, образующиеся при делении урана-235 (их энергия в среднем около 2 млн. эв), уменьшили свою скорость, чтобы их энергия достигла нескольких электронвольт и ниже до встречи с ядрами урана-238? С такой малой энергией нейтроны избегнут захвата ядрами урана-238, вызовут деление урана-235, и при надлежащих условиях начнется цепная реакция. Если пронизать толщу природного урана другим веществом, замедляющим нейтроны, но мало захватывающим их, то задача может быть решена. В качестве подобного замедлителя может фигурировать водород — его ядра при упругих столкновениях с нейтронами замедляют их. Но ядра водорода слишком часто захватывают нейтроны, образуя ядра тяжелого водорода — дейтерия. Поэтому, применив в качестве замедлителя воду, т. е. вещество, в котором много водорода, мы не получим цепной реакции в природном Стране; вода как замедлитель пригодна, если применяется' обогащенный уран, с большим, чем в природном уране, содержанием урана-235. Дейтерий, т. е. тяжелый водород, в ядре которого кроме протона есть еще нейтрон, меньше захватывает нейтроны, и если взять тяжелую воду (т. е. вещество, где водород заменен дейтерием), то можно пользоваться природным ураном. Можно еще использовать в качестве замедлителя графит; урановые стержни в графитовом блоке были применены уже в первом ядерном реакторе.

Теперь несколько слов о реакторах, в которых распад ядер урана используется для получения тепла и производства электроэнергии. Осколки ядер обладают большой кинетической энергией; они передают эту энергию окружающей среде, и температура последней повышается. Чтобы повышение температуры не разрушило реактора, в «активную зону», т. е. в пространство, где происходит деление урана, вводят кадмиевые стержни, которые сильно поглощают нейтроны. Ввод этих стержней позволяет регулировать реакцию и выделение тепла.

Отвод тепла производится с помощью теплоносителя — воды, жидкого металла или газа с малой химической активностью.

Начало атомной энергетики и начало атомного века — это отнюдь не атомные бомбы. Ведь началом эры тепловых двигателей было не огнестрельное оружие, которое можно рассматривать как цилиндр, из которого поршень под давлением расширяющихся газов вылетает наружу в виде снаряда или пули. Такой однотактный двигатель не был началом теплоэнергетики, хотя именно он заставил Лейбница, Гюйгенса и Папена подумать о промышленном двигателе, превращающем давление газа или пара в механическую работу. Первые реакторы, вырабатывавшие плутоний для атомных бомб, реализовали физическую схему, которая, трансформировавшись, стала основой собственно энергетического применения ядерных реакторов. Трансформация была достаточно глубокой, хотя и не столь коренной и уже совсем не столь длительной, как та, которая отделяла огнестрельное оружие от тепловых двигателей. В реакторах, где изготовлялся плутоний для атомных бомб, происходили два основных ядерных процесса. Первый состоял в делении ядер урана-235. Чтобы этот процесс продолжался и оказывался цепной реакцией, чтобы число нейтронов, выделяющихся при делении и вызывающих деление других ядер урана-235, не уменьшалось, нужно было, как уже говорилось, замедлять нейтроны. Но такое замещение, не позволяя ядрам урана-238 захватывать слишком много нейтронов, все же не полностью устраняло подобный захват. Он и был вторым (ас точки зрения производственной задачи — первым) основным процессом в реакторе. Захват нейтронов ядрами урана-238 превращал последний в конце концов в плутоний.

Предположим, что плутоний, который образуется в реакторе, используется в самом этом реакторе: он заменяет сгоревшее ядерное горючее, он делится, испускает новые нейтроны, и эти нейтроны частично попадают в ядра плутония и поддерживают цепную реакцию, а частично попадают в ядра урана-238 и превращают их в конце концов в новые ядра плутония.

Мы приходим к физической схеме, массовое практическое воплощение которой будет весьма радикальным переворотом в энергетике. Все дело в числе нейтронов, избыточных по отношению к необходимым для поддержания цепной реакции и создающих новое ядерное топливо. Плутоний создавался и раньше, в первых реакторах, где изготовлялись заряды атомных бомб. Он и был основной продукцией этих реакторов. Но плутоний не возвращался в реактор, не служил для пополнения ядерного горючего, не был таким горючим, не участвовал в управляемой реакции, не являлся источником энергии, базой атомной станции. Деление плутония не было управляемой цепной реакцией с постоянной скоростью, оно происходило в виде взрыва. Здесь полная аналогия с огнестрельным оружием (однократный акт выброса поршня) и тепловым поршневым двигателем (поступательно-возвратное движение поршня, поддерживающего повторяющееся расширение пара или газа).

Еще несколько слов об этой аналогии. Атомная бомба из плутония во время взрыва представляет собой чисто энергетический (производящий только энергию, а не атомное горючее) реактор на быстрых нейтронах. Разумеется, такое определение не менее условно, чем определение пушки как теплового двигателя: бомба — однократный реактор. Можно ли превратить его в управляемый реактор с постоянной отдачей энергии для производственного использования? Возможна ли атомная электростанция, в которой, нейтроны не замедляются?

Напомним, что замедление нейтронов было необходимо для поддержания цепной реакции. Без замедления нейтроны, образующиеся в природном уране при делении ядер урана-235, попадали бы в гораздо более многочисленные ядра урана-238 и захватывались этими ядрами без деления и дальнейшего образования нейтронов. Но если атомный реактор содержит только (или в очень большой мере) уран-235, то положение меняется. Теперь быстрые нейтроны уже не попадают в ядра урана-238 — последние отсутствуют или их очень мало в активной зоне реактора. Цепная реакция продолжается. При этом коэффициент воспроизводства нейтронов (вероятное число нейтронов, образующихся при делении, вызванном одним нейтроном) будет значительно большим, чем в случае медленных тепловых нейтронов. Но для управляемой реакции не нужны быстрое размножение нейтронов и соответственно охват делением увеличивающегося в геометрической прогрессии числа атомных ядер. Избыточного числа нейтронов хватит, чтобы возместить различные потери (поглощение нейтронов материалами, из которых сделано оборудование реактора, теплоносителем и т. п.) и, кроме того, чтобы часть нейтронов попала из активной зоны в окружающую уран-235 толщу природного урана и частично превратила преобладающий здесь уран-238 в уран-239, который превратится в нептуний, а затем в плутоний. Этот плутоний заменит находящийся в центральной активной зоне уран-235. Реактор сможет работать без нового, привносимого извне ядерного горючего — делящихся материалов. Более того, можно устроить так, чтобы число новых ядер плутония было больше, чем число разделившихся ядер урана-235 или ядер плутония, т. е. чтобы реактор производил больше ядерного горючего, чем он сам потребляет. Можно, например, сделать так, чтобы каждые два разделившихся ядра плутония вызывали образование новых трех ядер плутония из ядер урана-238. К такой особенности реакторов-размножителей мы вскоре вернемся.

Реактор, о котором идет речь, называется реактором на быстрых нейтронах. Ему, по-видимому, принадлежит будущее. Но только будущее. Сейчас реакторы ка быстрых нейтронах еще не могут успешно конкурировать с реакторами на медленных нейтронах. Применение последних имеет некоторые преимущества. Реактор на быстрых нейтронах обладает очень малыми размерами активной зоны, где происходит деление ядер и выделяется тепло. Отводить это тепло при малых размерах трудно и сложно. Реактор на медленных нейтронах лишен этого недостатка, и здесь отвод тепла легче, проще и соответственно дешевле. Но здесь уменьшается число нейтронов, вызывающих деление, уменьшается число новых нейтронов, и баланс их такой, что нельзя получить из урана-238 больше ядерного горючего, чем его израсходовано. Возможно, однако, и при использовании медленных нейтронов получить возрастание ядерного горючего. Уже давно было известно, что торий — элемент, чаще встречающийся в земной коре, чем уран, захватывая нейтроны, превращается в изотоп урана с ядром, состоящим из 233 частиц. Этот уран-233 является одной из составных частей природного урана, но его содержание еще во много раз меньше, чем содержание урана-235. Следующее обстоятельство сделало очень важным этот изотоп и возможность его получения из тория. Дело в том, что уран-233, подобно плутонию и урану-235, под влиянием нейтронов делится и представляет собой поэтому еще один вид ядерного горючего. Число нейтронов, образующихся при делении урана-233, сравнительно велико, и этих нейтронов хватит, чтобы вызвать возрастание запаса ядерного горючего даже при использовании медленных нейтронов. Можно окружить активную зону, где сгорает уран-235, торием. Нейтроны, попадающие в торий, вызовут образование урана-233.

Такая схема — использование вместо урана более распространенного тория и изготовление в реакторе большего количества ядерного топлива, чем потребляемое им количество, имеет первостепенное значение для проблемы энергетических ресурсов. Но, прежде чем коснуться этой темы, вернемся к уже сделанным в первой главе замечаниям о характере технического прогресса в атомном веке — об изменении не только конструкций и технологических схем, но и идеальных физических циклов, к максимальному воплощению которых стремится развивающаяся техника.

Именно такова эволюция реакторов. Наряду с чисто техническим прогрессом, т. е. все более полным техническим воплощением каждой физической схемы (выбор новой конструктивной формы реактора, нового замедлителя, нового теплоносителя), происходит смена самой идеальной физической схемы. Именно таков переход от реакторов, тратящих возобновляемое извне ядерное горючее, к реакторам-размножителям. Здесь используется новая физическая схема, технический прогресс становится научно-техническим прогрессом, он приносит не только технологическую информацию, но и информацию о закономерностях ядерных реакций, расширяет рамки техники, зависящие от физической схемы, состоит в приближении к идеальному циклу, который сам меняется, сам заменяется другим идеальным циклом.

Подобные изменения идеального цикла — канона, к которому стремится технический прогресс, происходили, как уже говорилось, и в классические времена. Но появление новых линий технического прогресса, связанных с новыми идеальными физическими схемами, было спорадическим. Физические схемы устанавливались на столетие, иногда больше, редко меньше. Это были схемы классической физики. Теперь, в атомном веке, на глазах одного поколения происходит моральное изнашивание не только конструкций, но и идеальных физических схем. Еще далеко не воплотилась в устойчивые формы схема освобождения атомной энергии за счет ядерного горючего, полученного путем разделения изотопов, как реакция захвата нейтронов и последовательного превращения ядер урана-238 стала практически применимой реакцией, затем на эту роль стала претендовать более сложная система реакций, приводящих к воспроизводству ядерного горючего, а в перспективе появилась термоядерная реакция как источник энергии. И каждое новое звено становится отправным пунктом если не экономических сдвигов, то экономических прогнозов, в планирующие учреждения приходят уже не только специалисты по прикладной физике, но и экспериментаторы и теоретики из областей чистой науки, и чем более «чистой», более общей является эта область, тем более коренные (хотя и более неопределенные) сдвиги она обещает.

Мы уже останавливались на этой иерархии все более общих научных концепций и связанных с ними все более радикальных и все менее определенных в настоящее время прогнозов. Реакторы-размножители занимают в этой иерархии среднее место. Мы можем оценить с большой достоверностью качественный эффект превращения этих реакторов в основную компоненту атомной энергетики. Что же касается количественных показателей такого превращения и его количественных результатов, то здесь приходится ограничиться лишь условными датами, указаниями на порядок цифр и очень далекими от достоверности вероятностями тех или иных масштабов[32].

Как уже было сказано, конец 60-х годов — это время, когда стоимость киловатт-часа на атомной станции приблизилась к стоимости киловатт-часа на классических тепловых станциях. Во второй половине 40-х годов раздавались голоса оптимистов, ждавших очень быстрого внедрения атомной энергии в энергетический баланс, и пессимистов, откладывающих такое внедрение на более позднее время; иногда при этом называли двадцатилетний срок. Такой прогноз оправдан действительной эволюцией, причем сейчас он весьма оптимистичен.

Приближение стоимости киловатт-часа на атомных станциях к его стоимости на классических станциях иллюстрируется, в частности, данными по США. Здесь имеются богатые и сравнительно доступные месторождения каменного угля, исчерпания угольных запасов в течение ближайших пятидесяти лет не предвидится, и даже переход к менее доступным, требующим больших затрат месторождениям вряд ли окажет существенное воздействие на стоимость угля до конца нашего столетия. Цены на топливо, по некоторым обоснованным прогнозам, должны стабилизироваться на уровне одного доллара за гигакалорию для угля, нефти и газа[33]. Что же касается атомной энергии, то для нее можно предвидеть существенное снижение как стоимости ядерного горючего, так и расходов на строительство станций и эксплуатационных расходов помимо ядерного горючего.

Во всем мире строительство более мощных атомных станций показало, что для них зависимость снижения стоимости киловатт-часа от укрупнения станций оказывается более резкой, чем для классических тепловых станций. Приведем данные о конкурентоспособности атомных электростанций США в зависимости от их мощности. Станция мощностью 190 Мвт может конкурировать с тепловыми электростанциями, если цена обычного топлива достигает 1,96 долл, за гигакалорию. Для станции в 300 Мвт эта цифра снижается до 1,64 долл. Атомная станция мощностью 800 Мвт будет успешно конкурировать с тепловой, если цена топлива на последней составит 0,8–0,96 долл, за гигакалорию, а станция в 1000 Мвт — при цене 0,52—0,8 долл[34]. Отсюда следует, что атомные станции мощностью 300–400 Мвт могут конкурировать с угольными станциями в районах со средней по стране ценой угля, а станции в 1000 Мвт смогут к 1985 г. конкурировать с угольными во всех районах, даже там, где цена на уголь ниже всего[35].

Эти расчеты, опубликованные в 1966 г., в общем подтвердились. Строительство и, отчасти, эксплуатация мощных станций в конце 60-х и в начале 70-х гг. показали, что с ростом масштабов стоимость установленного киловатта и стоимость киловатт-часа на атомных централях, действительно, снижается быстрее. Сейчас это уже не прогноз, а констатация, опирающаяся на опыт построенных станций.

Сопоставление удельных капитальных вложений, расходов на горючее и ремонтных расходов на атомных (введенных в 1970–1971 гг.) и классических станциях показывает, что все эти расходы на атомных станциях уменьшаются быстрее, чем на тепловых станциях.

Однако простого сопоставления расходов на производство киловатт-часа электроэнергии недостаточно для прогноза. Необходимо учесть дополнительные обстоятельства. Прежде всего — общую проблему истощения классических ресурсов. Это отнюдь не проблема далекого будущего. Речь идет об относительном истощении, т. е. о переходе к средоточиям, требующим при поисках и эксплуатации больших затрат труда. Когда речь идет о мировом хозяйстве в целом, следует учитывать, что нефть и газ с 1963 г. занимают в энергетическом балансе большее место, чем твердое топливо. В 1937 г. твердое топливо составляло 68,8 %, жидкое топливо —18,2, природный газ — 5,8 и гидроэнергия — 7,2 %. С 1937 по 1963 г. потребление энергетических ресурсов возросло в 2,5 раза. При этом доля твердого топлива упала до 44,8 %, гидроэнергии до 6,7, в то время как доля жидкого топлива удвоилась (достигла 32 %), а доля природного газа утроилась (16,5 %)[36].

Существенно, что нефть и газ стали топливом для электростанций. Но для этих видов энергетических ресурсов проблема истощения стоит острее, чем для угля.

Для урана эта проблема также является острой, если исходить из господствующего сейчас использования только части урана — делящегося изотопа, урана-235. В этом случае атомная станция требует в течение 20 лет 5,5 т урана на установленный мегаватт[37].

Имеющиеся рентабельные запасы урана могут обеспечить в течение двадцати лет атомные станции общей мощностью несколько больше 100 тыс. Мгвт. Если к 1980 г. атомные станции достигнут такой мощности, все известные сейчас рентабельные месторождения урана будут исчерпаны к началу XXI в. Уже сейчас проектируется гораздо более высокая мощность атомных станций на 1980 г., а в течение следующих двадцати лет, т. е. к 2000 г., она возрастет еще в 15–20 раз. Поэтому прогнозы такого роста исходят из коренного преобразования атомной энергетики, перехода в 80-е и 90-е годы к реакторам-размножителям как основному типу атомно-энергетических установок. В этом случае наличные запасы урана эквивалентны 4 миллионам миллиардов тонн условного топлива, а запасы тория представляются еще большими[38].

Таким образом, перспективы атомной энергетики иллюстрируют характерную черту атомного века: экономические прогнозы зависят не только от собственно технических тенденций (т. е. от эвентуального инженерного воплощения уже имеющихся физических схем), но и от более общих и радикальных трансформаций, включающих изменения исходных физических схем, целевых физических канонов технического прогресса.

Чтобы оценить эффект таких радикальных преобразований, нужно проводить эвентуальные «треки» технического и экономического прогресса, аналогичные тем трекам частиц, по форме и длине которых определяют тип возникающих частиц. Именно поэтому технические и экономические прогнозы (они и являются подобными «треками») становятся неотъемлемой частью анализа современных ситуаций. Та же парадоксальная ситуация: мы не только определяем будущее, исходя из настоящего, но и определяем настоящее, исходя из предвидимого (предвидимого с достаточно большой неопределенностью) будущего. Все дело в том, что в наш динамический век экономически определить современную тенденцию — значит, помимо прочего, определить ее ускоряющий эффект, ее значение не только для производительности труда, структуры производства и т. д., но и для производной по времени от величин, измеряющих производительность и структуру.

В число фактов, относящихся к настоящему, определяющих экономический смысл того, что происходит сейчас, входит радикальная смена атомно-энергетических прогнозов в конце 60-х годов. От прогноза, сделанного в начале 60-х годов, о киловатт-часе, более дешевом на атомной станции, чем на тепловой, в 1980 г., перешли к прогнозу о такой ситуации в 1970 г.[39] Подобный переход может показаться не слишком существенным: речь идет о неопределенных прогнозах, и различие прогнозов, быть может, находится в пределах их возможных отклонений от действительной динамики стоимости. Но на самом деле переход от одного прогноза к другому как раз и означает сокращение таких отклонений: прогноз на 1970 г. принципиально отличался от прогноза на 1980 г. своей относительной точностью; стоимость киловатт-часа в 1970 г. вычислялась на основе проектных данных, очень близких к реализации.

Указанный переход сделал весьма показательным различие между прогнозами, относящимися к мощности атомных станций в 2000 г., сделанными в начале 1966 г. и в 1966–1967 гг. Подчеркнем: не сами количественные прогнозы, а их различие. Оно-то нас сейчас и интересует, поскольку мы хотим увидеть в прогнозах перелом в реальных тенденциях сегодняшнего дня. Такой перелом наступил, и он действительно может быть назван реальным. Смена прогнозов на 2000 г. обоснована реальным снижением стоимости киловатт-часа на атомных станциях в конце 60-х годов.

Сейчас, когда прогноз реализован, можно видеть, насколько он был точным. Вообще история прогнозов в 60-х годах поучительна. В 1966–1967 гг. здесь произошел перелом. Очень неуверенные и неточные предположения уступили место более смелым. Сейчас можно видеть, насколько точными оказались прогнозы конца 60-х годов. Все дело в том, что именно в это время произошло существенное снижение стоимости киловатт-часа на атомных станциях. Оно позволило вскрыть некоторые закономерности, увидеть причины снижения и определить темпы дальнейших соотношений стоимости энергии на угольных и атомных станциях. Поэтому сейчас, когда некоторые прогнозы (на 1970–1972 гг.) уже реализовались, представляет существенный интерес анализ различий между прогнозами, относящимися к мощности атомных станций в 2000 г., сделанными в начале 1966 г. и позже — в 1967 г.

Мы приведем прогнозы Ф. Фремонта, сделанные в 1966 и 1967 гг.[40] (прогнозы 1966 г. в знаменателе, прогнозы 1967 г. в числителе).

1970 г. 1975 г. 1980 г.
Мощность всех электростанций мира в тысячах мегаватт 1118/1081 1578/1532 2207/2142
Мощность атомных станций 29,5/26 148/98 385/256
Процентное отношение мощности атомных станций к мощности всех станций 2,5/2,5 9, 4/6,4 17,4/11,9

Дополним эти очень красноречивые цифры одним из прогнозов на 2000 г. По мнению В. Вебстера, мощность всех электростанций на Земле достигнет в 2000 г. 5500 тыс. — 7500 тыс. Мгвт, а мощность атомных электростанций — 3000 тыс. — 4000 тыс. Мгвт, т. е. около половины или несколько больше половины мощности всех электростанций [41].

К этому следует прибавить, что 50 % мощности означает больше чем 50 % выработки электроэнергии, так как коэффициент нагрузки на атомных станциях превышает коэффициент нагрузки на тепловых станциях[42].

В США перелом в прогнозах выразился, в частности, в пересмотре доклада, представленного в 1962 г. Комиссией по атомной энергии президенту США. Составленное этой комиссией в 1967 г. дополнение к докладу[43] констатирует, что темпы роста атомных станций превысили предположения 1962 г. и, что еще важнее, данные о строящихся и проектируемых станциях дают основание пересмотреть долгосрочные прогнозы. Отсюда вытекала необходимость уже в 1968 г. увеличить мощность отраслей промышленности, обслуживающих строительство атомных станций.

В дополнении 1967 г. Комиссия по атомной энергии предполагает, что потребление энергии с 1965 по 1980 г. увеличится на 50 %, а к 2000 г. — на 250 %. Потребление электроэнергии сейчас составляет 20 %, к 1980 г. оно возрастет до 30 %, а к 2000 г. — до 50 %. Процент участия атомных станций в выработке электроэнергии был меньше одного в 1965 г., в 1980 г. он будет равен 23–30, а в 2000 г. — 50.

Прибавим к этим данным некоторые цифры, называвшиеся на Мировой энергетической конференции в 1968 г. Для всего энергетического баланса выработка энергии за счет сжигания угля составляет 32 % от всей энергии в 1970 г., 22 % в 1980 г. и 10–15 % в 2000 г. Природный газ и нефть соответственно будут давать 59, 66 и 58 %, гидроэнергия — 7, 5 и 2 %. Атомная энергия—2 % в 1970 г., 7 % в 1980 г. и около 25 % в 2000 г.[44]

Для темпов роста производительности труда имеет первостепенное значение доля атомной энергии в производстве электроэнергии. Во всей выработке энергии атомная энергия составит 25 %. Но эта доля в энергетическом балансе принадлежит атомным электростанциям. Удельный вес электричества как энергоносителя составит в 2000 г. более 50 % и половина этой доли — 50 % всей электроэнергии — будет, как уже говорилось, производиться на атомных станциях[45]. В форме электричества энергия будет обладать в последней трети столетия первостепенным реконструирующим, динамическим эффектом. Это связано с характером фундаментальных научно-технических тенденций.

Превращение атомной энергии в основную компоненту электроэнергетического баланса позволит перейти в промышленности и на транспорте, а также в земледелии и в добыче полезных ископаемых к методам, требующим больших, чем сейчас, удельных затрат электроэнергии. Такой переход вытекает из некоторых основных тенденций, о которых шла речь в этой книге. Решение продовольственной проблемы связано, как уже говорилось, с большими энергетическими затратами на производство удобрений, на орошение и водоснабжение. Относительное истощение сырьевых ресурсов означает увеличение удельных затрат энергии на добычу сырья. Во многих случаях это будет эффективнее, чем поиски энергетически более доступных месторождений, но требующие зато очень дорогой информации «знаю где». Электроника, превращаясь в основной рычаг реконструкции технологии, приведет к росту потребности в энергии в большом числе, отраслей. Таков же эффект применения полимеров и химии в целом, обещающих весьма радикальную революцию в использовании сырьевых ресурсов в технологии и в решении продовольственной проблемы. В последней трети нашего века темпы роста мощности электростанций и соответственно выработки электроэнергии будут, как ожидают, увеличиваться очень быстро и, что особенно важно, с заметным ускорением: мощность вырастет с 765 млн. квт в 1970 г. до 11 000 млн. квт в 2000 г. (из них 500 млн. — на атомных станциях). Особенно внушительное ускорение будет характерно для десятилетия 1990–2000 гг. Ввод новых мощностей более чем удвоит мощность электростанций (прирост — 6000 млн. квт — больше, чем вся мощность в 1990 г.), из них атомные станции дадут прирост 4000 млн. квт[46]. Таким образом, составив 50 % в общей мощности электростанций, атомные станции станут уже в 1990–2000 гг. не только преимущественной, но и преобладающей компонентой развития электроэнергетики. Теперь мы видим, что 2000 год как календарная дата достаточно близок к «2000 г.» как условной дате завершения основной научно-технической тенденции нового периода — периода технического воплощения неклассической науки.

Доклады на следующей, 8-й, Энергетической конференции (в Бухаресте в 1971 г.) позволяют видеть, что прогнозы 1968 г. в основном соответствовали реальным тенденциям[47].

В докладе Нафикса (председателя Федеральной энергетической комиссии США) «The Potential impact of environmental provisions atom elecfric utility systems» общая мощность намечена в объеме 668 млн. квт в 1980 г. и 1260 млн. квт в 1990 г., а мощность атомных станций составит 147 млн. квт в 1980 г. и 500 млн. квт в 1990 г.

В докладе Лякоста на той же конференции средний прирост мощности атомных станций на предстоящие 30 лет намечается на 7 % каждые 10 лет, и при выработке электроэнергии 10 триллионов квтч в 1980 г., 20 триллионов квтч в 1990 г. и 32 триллиона в 2000 г., доля атомных станций, равная 23 % в 1970 г., составит 30 % в 1980 г., 37 % в 1990 г. и 50 % в 2000 г.[48]

Физико-технический прогноз — возможность строительства реакторов-размножителей — позволяет правильно оценить тот экономический прогноз, который напрашивается при анализе проектировок 1967 г. Указанный прогноз — превращение атомной энергетики к началу XXI в. в преобладающую компоненту баланса электроэнергии. Из перспективы перехода к реакторам-размножителям следует, что подобное превращение является ступенью к еще более решительному преобладанию атомной энергетики. Можно представить себе, что реакторы-размножители будут обеспечивать нарастающее преобладание атомной энергетики, пока применение термоядерных реакций не снимет полностью проблему ограниченности и истощения энергетических ресурсов.

Перейдем к этой, более высокой ступени атомной энергетики. Она еще не может служить основой для прогнозов с такой степенью определенности, которая характерна для атомной энергетики, использующей деление тяжелых ядер. Мы и здесь встречаемся с соотношением: чем радикальнее прогнозируемая трансформация техники и экономики, тем неопределенней сам прогноз в смысле конкретных путей и сроков. Термоядерная энергетика обещает более глубокую трансформацию энергетики и более мощное «резонансное воздействие» на классическую энергетику, на характер труда и технологию, чем деление тяжелых ядер. Речь здесь идет о новой принципиальной физической схеме, которая гораздо больше отличается от всех путей использования тяжелых элементов, чем эти пути отличаются один от другого. Термоядерная энергетика, использующая примерно в десять раз большую долю внутренней энергии частиц, чем атомная энергетика, о которой до сих пор шла речь, основана не на делении тяжелых ядер урана и плутония, а на синтезе очень легких ядер. Уже говорилось, что в начале периодической таблицы Менделеева дефект массы (то, что было сопоставлено с компактностью упаковки ядерных частиц) быстро растет. Атомное ядро водорода, состоящее из одной частицы — протона, разумеется, не имеет дефекта массы, но уже более тяжелые ядра, содержащие две, три и т. д. частицы, обладают дефектом массы. Поэтому синтез легких ядер, образующий несколько более тяжелые ядра, освобождает энергию. Именно подобная реакция поддерживает энергию звезд. Звезды излучают энергию в пространство, но эта потеря энергии компенсируется синтезом легких ядер из водорода.

Наибольший интерес представляет следующая конкретная реакция синтеза. Перед нами — ядра дейтерия, уже известного нам изотопа водорода, т. е. ядра, каждое из которых включает кроме протона еще нейтрон и, таким образом, состоит из двух ядерных частиц. Существует изотоп водорода с тремя ядерными частицами в каждом ядре — протоном и двумя нейтронами. Он называется тритием. Дефект массы на одну частицу, т. е. удельный дефект массы, у трития несколько больше, чем у дейтерия. Если ядро дейтерия (один протон и один нейтрон) сталкивается с другим ядром дейтерия (еще один протон и еще один нейтрон), то могут образоваться одно ядро трития (протон и два нейтрона) и одно ядро обычного водорода (протон). Может быть и другой результат: слияние двух ядер дейтерия даст ядро изотопа гелия с тремя частицами — двумя протонами и нейтроном — и один свободный нейтрон.

Но, чтобы ядра слились, они должны приблизиться одно к другому на расстояние порядка их линейных размеров. Между тем ядра (в описываемом случае ядра дейтерия) имеют одинаковые электрические заряды и отталкивают друг друга. Такое отталкивание будет преодолено, если ядра обладают достаточно большой кинетической энергией, соответствующей температуре порядка ста миллионов градусов. Поэтому-то реакции синтеза легких ядер и называются термоядерными. При взрыве водородной бомбы иницирующий взрыв плутония или урана-235 создает температуру, необходимую, чтобы началась термоядерная реакция. Наиболее радикальная энергетическая революция, которую мы можем себе представить, исходя из уже известных нам физических принципов, состоит в использовании управляемой термоядерной реакции.

Синтез ядер гелия из ядер дейтерия становится интенсивным при температуре в несколько миллионов градусов, а чтобы этот синтез давал практически существенные количества энергии, требуются температуры в несколько сотен миллионов градусов. При таких температурах любое вещество становится плазмой, т. е. смесью атомов, потерявших свои электронные оболочки и оторвавшихся от атомов электронов. Когда температура достигает нескольких тысяч градусов, уже начинается отрыв электронов с внешних атомных оболочек. Эти электроны уравновешивают в нейтральном атоме положительный заряд ядра. Когда они отрываются, атом становится ионом, ионизируется. По мере дальнейшего повышения температуры доля ионов и электронов все возрастает, а доля нейтральных атомов уменьшается. При температуре в 20–30 тыс. градусов в плазме уже почти не остается нейтральных атомов. После этого дальнейшее повышение температуры срывает с атомов все более глубокие и тесно связанные с ядром электронные оболочки. Атомы тяжелых элементов, включающие десятки и даже сотню электронов, полностью ионизируются, когда температура достигает миллионов и десятков миллионов градусов.

Термоядерные реакции происходят в плазме. Например, в звездах, которые представляют собой плазменные образования. Но, когда речь идет о лабораторных или промышленных установках, плазма, по-видимому, должна быть заключена в сосуд. Здесь-то и возникает кардинальное затруднение. В свое время в средневековой Европе велся схоластический спор о неком всерастворяющем веществе. Где хранить это вещество? Ведь оно растворит любой сосуд. Несколько аналогичный, хотя вовсе не схоластический, вопрос возникает, когда речь идет о плазме. Любой содержащий плазму сосуд испарится и, более того, сам превратится в смесь ионизированных атомов и электронов. Путь к преодолению такого затруднения состоит в следующем. Если силовые линии магнитного поля окружают плазму со всех сторон, она, находясь в вакууме, не будет распространяться, не приблизится к стенкам сосуда и сосредоточится в ограниченном пространстве, окруженная пустотой. При прохождении тока через плазму, содержащуюся в вакуумной трубке, магнитное поле тока удерживает плазму, не дает ей коснуться стенок трубки, и в трубке образуется тонкий плазменный шнур. Можно создать термоизоляцию плазмы с помощью внешних магнитных полей, не связанных с током, проходящим через плазму. Беда в том, что плазменный шнур, о котором идет речь, неустойчив, он деформируется и в течение миллионных долей секунды меняет свою форму, касаясь стенок трубки. Неустойчивым оказывается и плазменный сгусток в ловушке, созданной внешними магнитными полями.

Заставить плазму, сконцентрированную и сжатую магнитными полями, сохраниться в таком состоянии хотя бы доли секунды — в этом и состоит основная задача на пути к термоядерной энергетике. Пока удалось удержать лишь очень разреженную плазму с температурой в десятки миллионов градусов в магнитной ловушке в течение сотой доли секунды. Подобный результат имеет принципиальное значение. Он делает весьма вероятной реализацию схемы термоядерных реакций в течение ближайших десятилетий. Если нельзя проектировать на конец XX столетия преобразование энергетического баланса на основе термоядерной энергетики, то можно высказать подобный прогноз для первой половины XXI в. Такой прогноз не влияет на выбор путей технической политики в наши дни, но он влияет на выбор путей научного эксперимента. На этом следует остановиться.

Результат эксперимента в общем случае не известен исследователю. Если бы он был известен с достоверностью (можно сказать: с вероятностью, равной единице), то не было бы нужды производить эксперимент. В этом смысле был прав А. Байков, когда на вопрос об ожидаемых результатах эксперимента ответил: «В науке имеют ценность только неожиданные результаты». С другой стороны, если некоторый результат заведомо не может быть получен, т. е. вероятность его равна нулю, эксперимент также теряет смысл: такая, равная нулю вероятность эквивалентна достоверному отрицательному ответу.

Направление сил и средств в экспериментальной работе определяется вероятностью некоторого результата и вероятным эффектом последнего. Но не только этим. Существует независимое от результата «резонансное воздействие» самого эксперимента, каким бы ни был его результат. В зависимости от оригинальности методов исследования, от эйнштейновского «внутреннего совершенства», от проверяемых в экспериментах исходных концепций, от общности подлежащей решению проблемы, эксперимент может оказать более или менее существенное воздействие на смежные и более отдаленные области исследования и практики. Такое воздействие можно иллюстрировать на примере классической энергетики и ее эволюции в предстоящие десятилетия.

Нельзя думать, что воздействие атомной энергетики па классическую сводится к вытеснению последней. Наряду с таким вытеснением (отчасти в противовес вытеснению) происходит другой, более сложный процесс. Резонансный эффект атомной энергетики приводит к большой интенсивности собственных, имманентных тенденций в других областях. В данном случае речь идет о том, что атомная энергетика увеличивает «собственные колебания», собственные тенденции классической энергетики.

Вероятно, поиски новых классических циклов со значительно более высокими коэффициентами полезного действия стимулируются перспективой снижения стоимости киловатт-часа на атомных станциях. Но не в этом состоит основное воздействие атомной энергетики на научно-техническую и экономическую мысль в классической энергетике. Атомная энергетика не только требует от классической энергетики повышения полезного действия установок (требует под угрозой вытеснения), но и дает классической энергетике некоторые физические и технические схемы. Они высказываются в форме прогнозов; физические и технические схемы еще не получили в некоторых случаях практического воплощения, но уже оказывают ускоряющее воздействие на классическую энергетику. В самом деле, очень важная для классической энергетики линия развития — непосредственное получение энергии электрического тока за счет тепловой энергии газа — использует плазму, которая (правда, при иных температурах) является ареной термоядерных реакций.

Прямое преобразование тепловой энергии газа в энергию электрического тока основано на следующей схеме.

Исходная позиция — газ, нагретый до сравнительно высокой температуры, ионизированный, состоящий в некоторой (возможно большей) мере из атомов, потерявших внешние электроны, и из этих ставших свободными электронов. Иначе говоря, — это плазма. Но не высокотемпературная плазма, подобная веществу звезд, а низкотемпературная, ее температура измеряется не миллионами, а только тысячами градусов. При такой температуре ионизация газа и его электропроводность невелики. Поэтому в газ вводят пары некоторых металлов, атомы которых легко теряют внешние электроны. Таким образом, получается в большей степени ионизированная и хорошо проводящая электричество плазменная струя. Она выходит через сопло в вакуум. Далее поток проходит через магнитное поле, положительно и отрицательно заряженные компоненты плазмы отклоняются в противоположные стороны и в плазме возникает электрический ток.

Ионизированный газ заменяет обмотку ротора в обычном генераторе, в которой при вращении ротора индуцируется электрический ток. Этот ток замыкается через электроды, соединенные с внешней нагрузкой. Электроды соответствуют щеткам, снимающим ток с обмотки ротора в обычном генераторе.

Такая установка — магнитогидродинамический генератор — может работать за счет классических источников тепла, но может также использовать энергию атомного реактора. Смесь газов (например, гелий с добавкой легко ионизируемых паров цезия) служит теплоносителем, отводящим тепловую энергию реактора, а частичное превращение этой энергии в кинетическую энергию горячей струи и затем в энергию электрического тока в магнито-гидродинамическом генераторе делает реактор атомной электростанцией.

Подобное соединение реактора с магнитогидродинамическим генератором требует, чтобы реактор работал при высоких температурах: газ с недостаточно высокой температурой не будет обеспечивать высокий коэффициент полезного действия в магнитогидродинамическом генераторе. Таким образом, мы видим не только воздействие атомной энергетики на выбор путей в классической энергетике, но и обратное воздействие. Атомная энергетика дает классической энергетике экономические стимулы. Плата за вход в атомный век — снижение удельных расходов на киловатт-час, причем нормативами становятся удельные расходы на атомных станциях. Далее атомная энергетика передает классической энергетике некоторые существенные результаты исследований плазмы с соответствующим переходом от высокотемпературной плазмы к низкотемпературной (разумеется, это не относится к основным проблемам: задача магнитной ловушки и стабильности сжатой плазмы отсутствует в случае низкотемпературной плазмы).

В свою очередь классическая энергетика обещает атомным станциям более экономичную «классическую компоненту», т. е. схему использования тепла ядерного реактора, его превращения в энергию электрического тока.

Квантовая электроника

Рп(‘.смотрим научно-технические тенденции, которые заставляют несколько развить и уточнить ранее сформулированную характеристику второй половины XX в. Атомная энергетика теснейшим образом связана с теорией относительности и сама по себе может дать основание назвать новую, вырастающую на наших глазах цивилизацию релятивистской цивилизацией. Другое фундаментальное направление современной научной мысли — квантовая физика — также связана с атомной энергетикой. Процессы, приводящие к делению и синтезу ядер, могут быть поняты лишь с помощью квантовых представлений. Столь же тесная и, может быть, еще более явная связь соединяет квантовую физику с резонансами атомной энергетики. Квантовая электроника является определяющей линией перестройки промышленной технологии и связи в прогнозе на 2000 г. Как уже говорилось, эта условная дата означает существование некоторого комплекса связанных друг с другом научных, экономических и культурных проектировок. Для энергетики такая проектировка состоит в превращении атомных станций в основную составляющую энергетического баланса. Для промышленной технологии и связи общий приуроченный к 2000 г. комплекс исходит из превращения электроники в основную базу преобразования этих отраслей. Подобный прогноз опирается не только на тенденции теоретической физики. Он опирается и на возможности физического эксперимента, которые появятся в 70—80-е годы.

С этой стороны мы и подойдем к квантовой электронике.

После того как Максвелл отождествил свет с электромагнитными колебаниями, были открыты различные по частоте излучения. Излучения с наименьшей частотой применяются для передачи радиосигналов. Гораздо большей частотой (и соответственно меньшей длиной волны) отличаются тепловые, инфракрасные лучи, еще большей частотой — видимые лучи, свет в более узком смысле, занимающий диапазон от наибольшей частоты фиолетовых лучей до наименьшей в видимой части спектра частоты красных лучей. Излучение еще большей частоты, чем фиолетовый свет, уже не воспринимается глазом. Оно называется ультрафиолетовым излучением. Еще короче волны и еще больше частота рентгеновского излучения. Наиболее высокочастотное электромагнитное излучение — это гамма-лучи, испускаемые, в частности, ядрами атомов при некоторых ядерных реакциях.

В 1900 г. Планк открыл, что вещество излучает электромагнитные волны дискретными минимальными порциями. Энергия излучения не может возрастать сколь угодно малыми приращениями, она всегда является кратной минимальным порциям, которые получили название квантов. Но Планк вовсе не думал, что электромагнитное поле состоит из отдельных частиц, он предположил только, что это поле излучается наименьшими, далее неделимыми порциями — квантами и такими же квантами электромагнитные волны поглощаются. Отсюда еще не следует, что само электромагнитное поле состоит из неделимых частиц. Как писал Филипп Франк: «Если пиво всегда продают в бутылках, содержащих пинту, отсюда вовсе не следует, что пиво в бочонке состоит из неделимых частей, равных пинте»!. Весьма парадоксальное предположение о дискретности самого электромагнитного поля было высказано в 1905 г. Эйнштейном. В сущности, уже в этом предположении содержалась, как в зародыше, наиболее парадоксальная идея неклассической физики: свет, который является волнами континуальной среды (это доказывается интерференцией, исчезновением света там, где гребни волн одного луча совпадают с провалами другого луча, и усилением света там, где гребни одного луча совпадают с гребнями другого), вместе с тем оказывается множеством дискретных частиц. Эти частицы Эйнштейн назвал квантами света, а впоследствии они получили название фотонов. Если перейти от корпускулярной картины фотонов к континуальной картине электромагнитных колебаний, то энергия фотона соответствует частоте колебаний, она пропорциональна частоте.

Вскоре квантовая теория света пересеклась в своем развитии с теорией атома. В 1915 г. Бор создал модель атома, в котором вокруг ядра обращаются электроны, при переходе которых с одной орбиты на другую атом излучает электромагнитные волны той или иной частоты, иначе говоря, фотоны той или иной энергии. [49]

Ближайшей к ядру орбите соответствует наименьшая энергия, более отдаленным орбитам соответствуют еще большие энергии. Когда атом поглощает свет (имеется в виду не только видимый свет, но и электромагнитное излучение других типов), электроны переходят на орбиты с большей энергией, энергия атома возрастает за счет поглощенных фотонов. Когда атом излучает фотоны, электроны переходят на орбиты с меньшей энергией, энергия атома уменьшается. По энергии излучения, иначе говоря, по его частоте можно судить о том, что происходит в атоме. Частоты излучения образуют спектр излучения.

В начале нашего столетия было накоплено очень много данных о спектрах излучения атомов различных элементов. В 1913 г. Бор охватил все это множество наблюдений единой картиной дискретного излучения атомов. Мысль о дискретных уровнях энергии и соответственно о дискретной иерархии орбит, допускающих лишь скачки от одной орбиты к другой, могла быть высказана лишь на основе гениальной интуиции. Такова оценка модели Бора в автобиографических заметках Эйнштейна. Квантование орбит, т. е. выделение дискретных «разрешенных» орбит и дискретных уровней энергии, нельзя было вывести из более общего принципа. «Мне всегда казалось чудом, — пишет Эйнштейн, — что этой колеблющейся и полной противоречий основы оказалось достаточно, чтобы позволить Бору — человеку с гениальной интуицией и тонким чутьем — найти главнейшие законы спектральных линий и электронных оболочек атомов, включая их значение для химии. Это кажется мне чудом и теперь. Это — наивысшая музыкальность в области мысли»[50].

В 20-е годы дискретность уровней энергии атома и электронных орбит получила строгое обоснование. Если Эйнштейн в 1905 г. обнаружил корпускулярные свойства электромагнитного поля, то Луи де Бройль в 1923–1924 гг. пришел к мысли о волновых свойствах частиц, прежде всего электронов. Вскоре после этого, в 1926 г., Шредингер предложил уравнение, где некоторая величина — волновая функция — непрерывно меняется при переходе от одной точки пространства к другой и от одного момента времени к другому моменту, подобно тому как от точки к точке и от мгновения к мгновению меняются уровень воды в волнующемся море, плотность воздуха при распространении звука или напряженность электромагнитного поля. Но уравнение Шредингера определяет не распространение смещений или деформаций в какой-то среде. Оно определяет движение электрона или другой частицы вещества. Что же означает континуальная величина — волновая функция, если рассматривать корпускулярную картину — картину движущихся частиц? Ответ на этот вопрос был дан Максом Борном. Он рассматривает волновую функцию как меру вероятности найти электрон в данной точке в данный момент. Эта величина колеблется, и для каждой точки и момента мы получаем с помощью уравнения Шредингера значение амплитуды колебаний. По этой амплитуде можно судить о вероятности пребывания электрона в той точке и в тот момент, для которых вычислена амплитуда.

Разумеется, это самый радикальный переворот в характере физического мышления. Для классической науки природа подчинялась системе точных закономерностей, определяющих однозначным образом положение каждой частицы в любой момент времени. Идеал научного исследования состоял в максимально точном отображении таких однозначных локализаций частиц в пространстве-времени. Презумпция классической науки состоит в возможности сколь угодно близко подойти к объективным точным значениям положения частицы и ее импульса в любой момент. Оказывается, в природе нет однозначно определенных пространственно-временных локализаций и импульсов частиц. Идеалом является точное определение не самой локализации частицы и ее динамических переменных в целом, а лишь точное определение вероятности этих динамических переменных. Стремление к классическому идеалу вело науку к новым представлениям и воплощалось в практические применения, которые сами становились движущей силой научного прогресса. Теперь стремление к неклассическому идеалу ведет науку к новым представлениям о пространстве, времени, движении, веществе, эволюции Вселенной и эволюции жизни. Эти представления воплощаются в новые звенья технического прогресса, и эти звенья становятся исходными импульсами для дальнейшего развития науки.

Приведем следующий пример. В ядерной физике рассматривается такая ситуация, когда частица, чтобы приблизиться к ядру атома, должна преодолеть сильное отталкивайие, должна преодолеть потенциальный барьер, больший, чем ее кинетическая энергия. Это так же невозможно, как невозможно для шара, скатившегося с холма, взобраться на вершину более высокого холма и перекатиться через его вершину. Невозможно с классической точки зрения. В квантовой физике речь идет о вероятностях, и невозможность оказывается малой вероятностью проникновения частицы в атомное ядро. Но при бомбардировке большим числом частиц такие маловероятные проникновения будут иметь место, причем они вызовут ядерные реакции, чрезвычайно важные для новой неклассической техники.

Нечто аналогичное происходит и в других областях. Технически применимые процессы (и тем более процессы, которые в принципе, пока еще неопределенным образом, могут оказаться применимыми в будущем) нельзя найти, если не перейти к квантовым неклассическим представлениям.

В 40-е годы радиотехника вплотную подошла к задачам, которые нельзя было решить без квантовых представлений. В обычных радиоприемниках прием передачи затрудняется изменением частоты, «наползанием» одной станции на другую, вообще тем обстоятельством, что «спектральная линия» радиопередатчика широка, т. е. интервал частот очень велик.

Многие применения радиотехники (в их числе — наиболее перспективные, определяющие будущее) требуют, чтобы интервал частот электромагнитных колебаний при радиопередаче был очень узким, чтобы радиостанции не мешали друг другу при одновременной работе. В спектроскопии существует представление о монохроматическом свете с очень узкой спектральной полосой. Теперь понятия спектроскопии проникли в радиофизику. Оказалось, что. при разработке новых методов получения весьма монохроматических и стабильных по частоте колебаний нужно пользоваться понятиями квантовой физики. Дело в том, что широкие интервалы частот объясняются макроскопическим характером передатчиков. Этот макроскопический характер радиотехники заслоняет дискретный характер излучения, существование отдельных квантов электромагнитного поля. В 50-е годы стали подходить к очень слабым сигналам, представляющим собой весьма стабильные по частоте волны с очень малым разбросом частот. Их научились усиливать. Но теория таких сигналов оказалась в значительной мере за пределами классической физики. За ее пределами оказались новые принципы генерации когерентного излучения квантовых систем, которое имеет не только одну и ту же частоту, но и одну й ту же фазу в каждый момент.

Ключом к получению монохроматического и когерентного излучения были созданные в середине 50-х годов приборы, основанные на индуцированных переходах атомных систем с одних энергетических уровней на другие. Теория таких переходов — квантовая теория. Она вытекает из модели Бора, а сами переходы были предсказаны Эйнштейном. Речь идет о так называемом индуцированном излучении. В 1916 г. Эйнштейн опубликовал статью «Испускание и поглощение излучения по квантовой теории» [51]. В ней речь идет о квантовой системе, т. е. системе частиц, которая испускает и поглощает кванты излучения, изменяя свою структуру. В качестве конкретного примера квантовой системы можно взять атом, состоящий из ядра и электронов и обладающий двумя уровнями энергии. Эти уровни можно представить себе как две электронные орбиты, одна из которых ближе к ядру (нижний уровень), а другая дальше от него (верхний уровень). Разумеется, можно было бы взять не атом, а молекулу, которая при одной конфигурации атомов обладает более высокой, а при другой — меньшей энергией. Но мы будем пока рассматривать в качестве примера излучения не молекулы, а атома.

Переходы электронов с одного уровня на другой могут быть спонтанными, но могут быть вызваны и действием излучения, потока фотонов. Существует двоякое взаимодействие атома с излучением. В одном случае фотон просто поглощается атомом, а в другом — атом излучает новый фотон. В 1927 г. Дирак заметил, что новый фотон неотличим от старого, он обладает той же энергией и тем же направлением. Если на верхнем уровне находится большое число электронов, они все синхронно переходят на более низкий уровень и тогда излучаются фотоны той же энергии и того же направления, но таких фотонов будет больше, чем в падающем излучении. Таким образом, создается возможность усиления излучения-за счет индуцированного излучения квантовых систем. Подобная возможность реализована в лазерах (название «laser» составлено из начальных букв английского названия эффекта: light amplification by stimulated emission of radiation — усиление света вынужденным излучением).

Лазеры — это приборы, основанные на принципе индуцированного излучения в оптическом диапазоне. Этим они отличаются от мазеров, использующих такое излучение в радиодиапазоне и представляющих собой другую ветвь квантовой электроники. Применение индуцированного излучения в оптическом диапазоне ближе и более явным образом связано с неклассической физикой, с квантовыми представлениями, чем в радиодиапазоне.

В чем же состоят особенности этого светового луча, усиленного вынужденным, индуцированным излучением, позволяющие видеть в нем провозвестника новой эпохи научного и технического прогресса?

Это прежде всего узкая полоса частот, высокая монохроматичность излучения. Далее, когерентность — тот факт, что вынужденное, индуцированное излучение разных атомов происходит согласованно, в одной фазе. Лазер позволяет получить мощное монохроматическое излучение. Свойством лазерного луча является его острая направленность, тот факт, что луч лазера не расширяется, вернее, очень мало расширяется. Лазер может давать пучок света большой мощности и высокой направленности излучения[52].

В этой книге последовательно, с различных сторон раскрывается концепция начальных условий и ноозон. Общая тенденция неклассической науки и ее применений состоит в переходе за пределы классической иерархии дискретных частей вещества. Эта классическая иерархия оканчивалась, с одной стороны, атомами, перегруппировка которых создает разнообразие химических соединений, а с другой — механикой небесных тел. Ноозоной этой иерархии были перегруппировки атомов в молекулах в макроскопических масштабах, т. е. химические процессы и движения макроскопических тел в узком слое литосферы, гидросферы и атмосферы. В этом слое и создалась то, что В. И. Вернадский назвал ноосферой. Ноосфера, т. е. совокупность скомпонованных макроскопических структур, охватывала очень небольшой интервал атомных, молекулярных и макроскопических процессов. Этот интервал был ограничен небольшими концентрациями энергии.

Наряду с ноозоной иерархии дискретных частей вещества существовала ноозона континуальных процессов. Это совокупность целесообразно скомпонованных гидродинамических процессов, тепловых потоков и других перебросок энергии (электрический ток), включая радиосигналы, акустические и оптические явления. Здесь атомистические представления, констатации существования атомов и молекул не были существенными для целесообразной компоновки макроскопических процессов. Атомистические представления не фигурировали в качестве целевых представлений, определяющих выбор тех или иных начальных условий. В свою очередь конкретные представления, определяющие ноозоны дискретной иерархии, не включали континуальных концепций. Целесообразная компоновка дискретных тел могла игнорировать континуальную картину мира, а компоновка континуальных процессов — атомистическую.

Классическая иерархия дискретных частей вещества оканчивается атомным миром, где дискретные элементы атома обладают явными и существенными волновыми, континуальными свойствами. Классическая иерархия континуальных процессов оканчивается там, где излучения обладают явными и существенными корпускулярными свойствами. Неклассические зоны находятся в ультра-микроскопических порах классической иерархии, и они же объемлют ее: когда речь идет о возникновении и гибели звезд и галактик, наука уже не может обойтись без неклассических представлений.

Научно-техническая революция XX столетия состояла в выходе ноозон за пределы классической иерархии. Ноо-зоны дискретного мира и ноозоны континуального мира потеряли свою независимость. Корпускулярно-волновой дуализм стал не только физическим, но и физико-техническим принципом. Неклассическая модель, где корпускулярные и волновые характеристики неотделимы друг от друга, это уже не только констатация того, что происходит в мире, но и целевая модель, определяющая активные воздействия разума на ход объективных процессов. Конкретная история и предыстория атомной энергетики и квантовой электроники показывает, что ни один из этих основных фарватеров современной научно-технической революции не мог появиться без заранее сформулированных существенно неклассических моделей, в одном случае модели ядерного деления или синтеза, а в другом — переходов квантовых систем на более высокие уровни и индуцированного излучения фотонов той же энергии. Когда цель — отличие труда от стихийных процессов — может быть сформулирована лишь в виде существенно неклассической модели, последняя приобретает не только физическое, но и физико-техническое бытие, характеризует не только сущее, но и должное, входит в область, где применимы понятия «лучше» и «хуже», понятия оптимума и оптимизма.

Деление атома — совокупность процессов, объясняющих этот эффект, — неклассическая зона, продолжающая дискретную иерархию, зона, где дискретные представления уже не могут существовать без синтеза с волновыми. Индуцированное излучение — это неклассическая зона иерахии континуальных представлений, где волновая картина невозможна без дискретного, корпускулярного аспекта.

Отметим еще, что в квантовой электронике — ноозоне электромагнитного спектра — мы видим связь между широтой, общностью и неклассичностыо новых идеальных физических схем, с одной стороны, и ускорением научно-технического прогресса — с другой.

Посмотрим теперь, что означают перечисленные особенности лазерного луча (оставляя в стороне другие, быть может столь же существенные, особенности) для применения лазеров. Мы постараемся разграничить воздействие такого применения, во-первых, на ускорение технического прогресса и, во-вторых, на неопределенное, не имеющее количественного выражения возрастание ускорения технического прогресса.

Лазер может резко изменить систему связи и передачи информации. Уже давно радиосвязь переходит от длинных волн ко все более коротким. Это позволяет по одной линии связи передавать, например, большее число телефонных разговоров, радиосообщений, телевизионных программ и т. д. Объем передаваемой информации растет очень быстро при переходе от диапазона сантиметровых волн к во много раз более коротким волнам оптического диапазона.

Далее, лазеры в будущем смогут значительно увеличить эффект счетно-решающих и управляющих машин. Здесь тоже речь идет по существу об информации. Сложные счетные машины могут быть более эффективными и быстродействующими при такой скорости передачи информации от одного элемента счетной машины к другому, которая доступна лазеру.

Одной из наиболее важных тенденций технического прогресса в последней четверти нашего столетия будет распространение лазеров в область промышленной технологии. По-видимому, механические методы обработки металлов и других материалов уступят первенство лазерным лучам. Тонкий, монохроматический и в то же время мощный лазерный луч позволяет довести размеры деталей и точность этих размеров до нескольких микронов. Квантовая электроника открывает, кроме того, возможность очень глубокой перегруппировки молекул в кристаллических решетках и атомов в молекулах. Такая перегруппировка может дать сверхтвердые детали, сверхтвердые поверхности. Поэтому совершенствование лазеров является источником широкой реконструкции, охватывающей все основные технологические отрасли. Квантовая электроника находится только в начале инженерного воплощения той идеальной физической схемы, которая вытекала из идеи, высказанной в 1916 г. Эйнштейном, и приобрела конкретные формы в середине столетия. Можно представить себе, что за оставшиеся до конца века десятилетия появятся лазеры, превращающие энергию самых различных рассредоточенных источников в энергию, концентрированную в сколь угодно мощные направленные потоки когерентных электромагнитных волн. Расширится диапазон лазерного излучения, будут созданы лазеры, работающие в новых диапазонах. Быть может, лазерные лучи, достигнув большой мощности, заменят в будущем металлические провода при передаче электроэнергии.

Теперь отметим существенную обратную связь научного прогресса с индуцируемым им техническим прогрессом. В квантовой электронике мы видим очень мощное и перспективное воздействие технического воплощения физических идей на развитие самих этих идей. Лазеры могут стать эффективным средством эксперимента для разработки фундаментальных проблем. Тот факт, что экспериментальные установки в квантовой электронике отделены от практически применимых очень небольшим интервалом, увеличивает сумму интеллектуальных и материальных усилий, направляемых человечеством в эту область. В последнем счете это приближает решение фундаментальных проблем. В одной из следующих глав этой книги при анализе указанных проблем мы увидим, что их решение связано со все более точным отсчетом пространственных и временных интервалов в ультрамикроскопических и космических пространственно-временных областях. Лазерное излучение позволяет измерять время и пространство с очень большой точностью. Не исключено, что такие измерения позволят пролить свет па структуру Вселенной и на процессы, происходящие в ультрамикроскопических (может быть, минимальных, далее неделимых) пространственно-временных клетках.

Квантовая электроника является частью более общего направления современного научного прогресса. Современная наука все глубже изучает потоки частиц различного типа, которые она рассматривает как кванты различных по своей природе полей. Уже в 1905 г. выяснилось, что электромагнитные поля представляют собой потоки фотонов. Как уже говорилось, двадцать лет спустя де Бройль нашел, что электроны, ноторые являются дискретными частицами, обладают волновыми свойствами и некоторые закономерности их поведения можно обнаружить, рассматривая электроны как средоточия колебаний другого, уже не электромагнитного поля. Эти волны де Бройля интерферируют, как и всякие другие волны: там, где на экран попадают гребни двух волн, интенсивность света возрастает, а там, где гребень одной волны совпадает с впадиной другой волны, свет исчезает и такие точки образуют на экране темную интерференционную полосу. Волны дифрагируют; дифракция состоит в изменении их фронта, когда волны огибают края помещенного перед ними тела, или в изменении первоначального направления при проходе сквозь узкое отверстие. Двойная корпускулярно-волновая природа электрона была использована при создании электронного микроскопа, позволяющего увидеть такие детали структуры и поведения вещества, которые недоступны оптическому микроскопу.

Впоследствии было открыто большое число элементарных частиц различных типов (помимо тех, о которых нам уже известно из этой книги) и соответственно большое число волновых полей, средоточиями которых служат эти частицы. Современная техника использует потоки этих частиц в технологии и в медицине; эксперимент пользуется ими для изучения атомных ядер, атомов, молекул и клеток; астрономия и астрофизика исследуют эти излучения, чтобы определить строение и проследить эволюцию звезд, галактик и Метагалактики.

Мы можем считать растущее изучение и применение мощных излучений различной природы основным (наряду с использованием цепных ядерных реакций) направлением научно-технического прогресса в атомном веке.

Молекулярная биология

В 50—60-е годы почти одновременно с рядом открытий, создавших квантовую электронику, произошла весьма радикальная революция в биологии. Она обладала особенностью, характерной для второй половины нашего столетия. В классической науке серия следующих одно за другим фундаментальных открытий обычно открывала сравнительно спокойную полосу разработки частных проблем на основе новой концепции, новых понятий, новых экспериментальных методов. В наше время в тех областях науки, где середина века изменила фундаментальные представления, эти перемены вызывают значительно большое число новых вопросов, чем число вопросов, на которые был получен ответ. В XIX в. существовала надежда достичь, углубляясь в природу вещей, самого глубокого первозданного слоя. Эта надежда никогда не была общей, но она существовала. Во второй половине XX в. науке, по-видимому, суждено оставить даже надежду на длительную остановку процесса углубления знаний.

Это и придает современной науке ее специфический прогнозный стиль. Раньше характеристика перелома в науке укладывалась в предложение типа «мы теперь уже знаем…» И теперь сохранилась эта составляющая характеристики, но акцент передвинулся на предложение типа «мы теперь видим, что нам еще предстоит узнать». Этот перенос акцента характерен и для биологии, причем под прогнозной рубрикой «что нам предстоит узнать» стоит самый общий и кардинальный вопрос «что такое жизнь?» Он складывается из тысяч конкретных вопросов о структуре и поведении различных организмов, тканей, клеток и молекул, но все они явным образом связаны с кардинальной проблемой сущности жизни. С ней связаны и прикладные вопросы. Продолжением и конкретизацией формулы «что нам предстоит узнать?» служат вопросы: «Как уничтожить рак?», «Как существенно, на десятилетия, продлить среднюю продолжительность жизни людей?», «Как управлять наследственностью?».

Чтобы подойти к этим проблемам (можно также сказать «к этим прогнозам»), следует, как и в предыдущих главах разъяснить некоторые специальные понятия. Но без деталей и самым кратким и беглым образом. Эта книга не претендует на роль обзора современного состояния физики, химии и биологии; задача ее состоит в том, чтобы попытаться ответить на вопрос: как изменяются фундаментальные представления о природе и что может дать человечеству их изменение? А поскольку этот вопрос интересует всех, попытка должна быть сделана в популярной форме, что опять-таки требует ограничить изложение минимумом специальных понятий и терминов.

Тесная связь специальных теоретических (в том числе математических и физических) конструкций и экспериментальных данных с кардинальным вопросом о сущности жизни сближает биологию с натурфилософской мыслью. Но только по широте поднимаемых вопросов, отнюдь не по характеру исследования. Современная биология связывает частные концепции с общей проблемой и с общими постулатами и таким образом достигает «внутреннего совершенства» своих концепций. Но эти общие постулаты обладают непосредственной или опосредствованной возможностью экспериментальной проверки и критерием «внешнего оправдания». Это относится прежде всего к вопросу: какое звено в иерархии дискретных частей материи обладает специфической способностью воспроизводить живое вещество той же структуры? Таким звеном являются очень большие молекулы, состоящие из многих тысяч атомов. Их называют биополимерами и макромолекулами. По своему составу они являются белками (комбинациями аминокислот) и нуклеиновыми кислотами. Существуют очень серьезные аргументы, чтобы приписать этим большим молекулам функцию самовоспроизведения. Современное учение о наследственности приписывает эту функцию хромосомам — образованиям, находящимся в ядрах клеток. В структуре хромосом содержится «генетический код», т. е. эта структура определяет структуру и судьбу клеток, возникающих из данной, а если данная клетка зародышевая, то ее хромосомы определяют эволюцию организма. Эта эволюция не сводится к росту организма, как это происходит, например, с кристаллами. Из весьма общих соображений о коде, предопределяющем поведение миллиардов клеток, из судеб которых складывается эволюция организма, из соображений о численности элементов структуры, в которой закодированы онтогенез и наследственность, из соображений об устойчивости этой структуры, из некоторых принципов квантовой механики и аналогий с квантовой механикой возникло представление о макромолекуле, в которой группировка атомов и радикалов служит генетическим кодом.

Остановимся на том изложении представлений о макромолекуле как носителе генетического кода, которое было сделано Шредингером в середине 40-х годов[53].

Шредингер сближает молекулу с элементом твердого тела — кристаллом. Молекулы в кристалле и атомы в молекуле связаны силами одной и той же природы. Шредингер подчеркивает квантовый характер этих связей — их нельзя представить, исходя из непрерывности энергии и из непрерывного перехода от одной конфигурации частиц к другой конфигурации, обладающей энергией, сколь угодно отличающейся от первоначальной. Далее Шредингер говорит о построении кристалла из молекул. Молекулярная структура может повторяться при все большем участии частиц, вырастая в трех направлениях. Хромосомное волокно (образование, в котором запечатлена информация о наследуемых признаках) представляет собой результат другого пути. Молекула может переходить в апериодическое твердое тело, в апериодический кристалл.

«Другой путь, — пишет Шредингер, — это построение все более и более увеличивающегося агрегата без скучного механизма повторения. Это случай все более и более сложной органической молекулы, в которой каждый атом, каждая группа атомов играет индивидуальную роль, не вполне равнозначную роли других атомов и групп. Мы можем совершенно точно назвать это образование апериодическим кристаллом или твердым телом и выразить нашу гипотезу словами: «…целое хромосомное волокно представляет собой апериодическое твердое тело»[54].

Далее Шредингер разъясняет, почему очень небольшая частица может вместить в себя зашифрованную информацию, определяющую развитие организма. Причина состоит в большом числе комбинаций при сравнительно небольшом числе атомов в молекуле. Поэтому именно молекула (апериодический кристалл, где возможны самые различные группировки одних и тех же атомов) может определить однозначным образом вариант развития организма из колоссального числа возможных вариантов. «Хорошо упорядоченное объединение атомов, наделенное достаточной устойчивостью для длительного сохранения своей упорядоченности, представляется единственно мыслимой материальной структурой, в которой разнообразие возможных («изомерных») комбинаций достаточно велико, чтобы заключить в себе сложную систему детерминаций в пределах минимального пространства»[55].

Шредингер приводит пример азбуки Морзе. Точки и тире, всего два знака в группах из двух, трех и четырех знаков дают 30 сочетаний, 30 букв. Но три различных знака в группах по десять дали бы 30 тыс. комбинаций, а число сочетаний пяти разных знаков в группах по 20 достигло бы 372 529 029 846 191405.

Шредингер энергично подчеркивает отличие молекулы, в которой запечатлен код наследственности, от статистического ансамбля физики. Хромосомные молекулы «представляют наивысшую степень упорядоченности среди известных нам ассоциаций атомов (более высокую, чем у обычных периодических кристаллов) в силу той индивидуальной роли каждого атома и каждого радикала, которую они здесь играют»[56].

Это очень далеко от статистической физики, где «индивидуальная роль каждого атома» пренебрежима и упорядоченность может быть реализована, когда в игру вступает колоссальное число индивидов. Следует заметить (об этом речь будет идти в последних главах этой книги), что «индивидуальная роль каждого атома» исключается не только статистической физикой. Роль каждого индивида отрицается любой классически статистической концепцией, и, чтобы обобщить характеристику, данную Шредингером, достаточно поставить слово атом в кавычки.

Однако Шредингер не считает принцип «индивидуальной роли атома» нефизическим. «Новый принцип — это подлинно физический принцип; на мой взгляд, он не что иное, как опять-таки принцип квантовой теории»[57].

Приведенные соображения исходят из очень общих постулатов, но принципиально допускают возможность экспериментальной проверки. Такая возможность реализовалась в 50—60-е годы с помощью электронного микроскопа и меченых атомов. Об электронном микроскопе уже говорилось, по поводу меченых атомов следует напомнить, что ядерные реакции (в том числе деление ядер) приводят к появлению радиоактивных ядер. По излучениям таких меченых атомов их легко обнаружить и идентифицировать с теми атомами, которые были помещены в те или иные ткани организма. Меченые атомы позволяют проследить миграцию различных веществ в организме и на основе таких наблюдений определить физиологические и патологические процессы вплоть до микропроцессов в клетках.

В 40-е и еще более в 50—60-е годы ответ на вопрос, что такое жизнь, приобрел весьма конкретный вид в том смысле, что указываются пе только функции, но и те структуры, для которых они характерны. О таких структурах уже шла речь. Теперь мы остановимся на них несколько систематичнее, если это слово сколько-нибудь подходит для весьма беглых и отрывочных справок.

Живое вещество состоит из клеток — комочков протоплазмы, окруженных мембранной оболочкой, с ядром и некоторыми другими вкраплениями. Это довольно сложная структура, которая обменивается энергией и веществом с окружающей средой, делится на части — дочерние клетки такой же структуры, дифференцируется (из зародышевой клетки образуются разнообразные клетки многоклеточного организма), перемещается, меняет свою структуру и поведение при изменении внешней среды. В ней синтезируются молекулы белка. Состоит клетка главным образом из макромолекул белка и нуклеиновых кислот. Таких молекул в ней несколько десятков миллионов. Электронный микроскоп позволил довольно детально изучить структуру клеток и даже увидеть некоторые наиболее крупные молекулы.

Как уже было сказано, генетическая загадка — повторение структуры и поведения организма — может быть разрешена и уже отчасти разрешена при изучении клеточных ядер. Их структура — существование в ядре надмолекулярных образований, структура этих образований и структура самих молекул, входящих в эти образования, — исходный пункт современной теории наследственности. Ядро содержит постоянное для каждого вида число уже упоминавшихся хромосом, состоящих главным образом из нуклеиновой кислоты, которая называется дезоксирибонуклеиновой. Ее сокращенное название — ДНК — стало сейчас не менее известно широким кругам, чем названия и символы наиболее часто упоминаемых элементов периодической системы или элементарных частиц, что соответствует фундаментальному значению ДНК и состоящих из нее хромосом для управления работой клетки и для передачи наследственных признаков организмов.

В хромосомах и содержится генетическая информация, которая передается другим элементам клетки, где происходит синтез белка.

Он происходит во внеядерных образованиях, находящихся в окружающей ядро протоплазме и содержащих наряду с другими элементами рибосомы — частицы молекулярных размеров, состоящие из молекул другой нуклеиновой кислоты, рибонуклеиновой (сокращенное название, также широко известно, — РНК). Рибосомы можно увидеть в электронный микроскоп.

Таинственные процессы передачи закодированной в ДНК генетической информации приводят к тому, что при делении клетки образуются дочерние клетки той же структуры и, что особенно важно, с такими же хромосомами. Перед делением клетки каждая хромосома удваивается. Такое удвоение изучено довольно детально с помощью электронного микроскопа и еще детальнее с помощью меченых атомов. Хромосома состоит в основном из молекул ДНК, и удвоение хромосомы определяется удвоением этих молекул. Образование новых молекул ДНК (иначе говоря, синтез ДНК) носит матричный характер. Под этим термином подразумевается следующее. Для биологического синтеза характерны процессы, когда состав синтезируемого вещества определяется некоторой посторонней внесенной извне системой. Эта система аналогична готовой форме, в которую укладывается или в которой застывает исходный материал. В случае синтеза ДНК такой матрицей служит сама молекула ДНК, которая как бы отбирает из окружающей среды необходимые атомы и укладывает их так, чтобы получить другую молекулу.

Удвоение молекул ДНК объясняет сохранение генетического кода, той информации о структуре и поведении организмов, с теми или иными вариациями, повторяющимися от поколения к поколению. Но как действует эта информация, как она заставляет укладываться в определенные сочетания белок, являющийся наряду с нуклеиновыми кислотами основной частью живого вещества? Белок состоит из аминокислот. Их молекулы, распределенные в пространстве, создают всю самосогласованную систему клеток, тканей и органов.

Далее размножение и дифференциация клеток, рост и развитие тканей и органов определяются компоновкой во времени процессов синтеза и распада аминокислот, их взаимодействием с окружающей средой, поведением молекул белка.

Структура клеток, тканей, органов и самих организмов, как и их поведение, определяется наследственной, генетической информацией. Как же эта информация, закодированная в ДНК, определяет структуру и поведение белков?

Здесь мы переходим к проблеме, которую называют проблемой транскрипции. Этот термин, который обычно обозначает изображение некоторого слова буквами другого языка, вполне уместен, поскольку в генетике широко пользуются понятиями кода и другими понятиями теории информации. Специфически биохимический смысл транскрипции состоит в синтезе уже известных нам РНК, т. е. рибонуклеиновых кислот. Дело в том, что ДНК непосредственно не могут служить матрицами для синтеза аминокислот, из которых состоят белки. Здесь имеют место промежуточные процессы. Молекула ДНК служит матрицей для образования молекулы РНК. Это и есть транскрипция, перевод генетического кода на другой язык. Структуре молекулы ДНК, в которой закодированы структура и поведение организмов, соответствует образовавшаяся на этой молекуле, как на матрице, молекула РНК. Такая РНК называется матричной. Ее синтез происходит в хромосомах.

Матричная РНК еще не может передать генетическую информацию белку. Она передает ее другой РНК, которая называется транспортной, и эта последняя уже определяет синтез аминокислот — процессы, происходящие в клетке за пределами ее ядра.

Теперь мы можем вернуться к вопросу о макромолекуле как единственной структуре, способной хранить генетический код, гарантирующий с теми или иными отклонениями самовоспроизведение организмов. Сейчас можно многое прибавить к аргументам Шредингера. Приведем высказанные М. В. Волькенштейном соображения об организме, состоящем из небольших молекул, содержащих малое число атомов[58]. Это не может быть жидкое или газообразное тело. Неупорядоченные движения молекул жидкости или тем более газа не могут гарантировать хранение генетической информации. Другое дело — кристаллическое тело с упорядоченным поведением молекул. Изменения кристаллических решеток под влиянием внешней среды могут быть достаточно однозначными. Вполне представимы быстрые реакции кристаллического «организма» на внешние воздействия, которые меняли бы, например, проводниковые и полупроводниковые свойства проводимости кристаллов. Эти реакции могли бы стать условными рефлексами. Далее, упорядоченная низкомолекулярная система из многих кристаллических решеток могла бы изменять свою структуру так, чтобы в ней запечатлялся генетический код, чтобы она могла воспроизводить себя и, более того, эволюционировать, создавать более совершенные кристаллические организмы. Речь идет, очевидно, о металлическом или состоящем из Других низкомолекулярных материалов кибернетическом роботе. Но, как замечает М. В. Волькенштейн, кристаллический организм не мог бы возникнуть самопроизвольно. Так возникают макромолекулы. В процессах полимеризации малые молекулы превращаются в большие, и только эти последние могут образовывать живые надмолекулярные системы. Теперь их эволюция подошла к тому критическому моменту, когда уже не стихийные силы, а сознательная компоновка самых различных, в том числе кристаллических, немакромолекулярных объектов может создавать самовоспроизводящиеся и самосовершенствующиеся кибернетические системы.

В изложенном беглом очерке клетки, ядра, а также аминокислот, нуклеиновых кислот и их синтеза допущено немало упрощений и неточностей. Существуют вирусы, претендующие на титул живого вещества, но не сформированные в клетки. Существуют бактериальные клетки, они не имеют ядер. Таких оговорок можно было сделать очень много. Но они не изменят тех выводов, к которым мы сейчас подойдем.

Эти выводы относятся к соотношению между современной молекулярной биологией, нашедшей в макромолекулах основные жизненные функции самовоспроизводимости и саморегулирования, и неклассической физикой. Но существуют ли непосредственные логические связи между картиной взаимодействий макромолекул, их синтеза и перекодирования генетической информации, с одной стороны, и принципами квантовой механики — с другой?

Существование макромолекул, так же как и малых молекул, обязано микропроцессам и микровзаимодействиям квантовой природы. На вопрос, что объединяет атомы и радикалы в молекулы, нельзя ответить без ссылок на уровни энергии и орбиты электронов, на их положения и движения, на волновые свойства микрочастиц, на модель атома, вообще на квантовые понятия. Но это еще не делает молекулярную биологию квантовой теорией. Тот факт, что вещество состоит из элементарных частиц, атомов и молекул, т. е. из квантовых систем, еще не придает квантового характера макроскопическим процессам, при объяснении которых можно не принимать во внимание волновые свойства частиц и корпускулярные свойства излучений. Чтобы объяснить сдувание песка с вершины дюны и передвижение дюны, нет нужды ссылаться на атомистическую структуру песчинок. Но, если требуется указать причину формы кристаллических песчинок, придется сослаться на структуру молекул, на расположение атомов, на свойства квантовых систем.

Значительную, даже преобладающую часть биологических и биохимических процессов можно описать, не принимая во внимание ни поведение отдельных электронов, связанное с их волновыми свойствами, ни особенности излучений, связанные с их корпускулярной природой. В частности, процессы удвоения хромосом, синтеза РНК, синтеза белковых молекул по матрицам РНК не являются квантовыми процессами.

Однако есть биологические процессы, которые необъяснимы (и соответственно невоспроизводимы в эксперименте) без квантовых представлений. Эти процессы представляют особенно большой интерес для прогноза и для определения ноозон в молекулярной биологии, в механизме наследственности.

Таковы, в частности, изменения генетического кода в хромосомах, вызванные квантами коротковолновой радиации. [59]

Рассмотрим основные механизмы изменения хромосомы под влиянием излучения [59].

Во-первых, квант энергии может быть поглощен атомом или группой атомов внутри молекулы ДНК. В этом случае вызванная излучением перегруппировка атомов и их связей — серия радиохимических реакций — приведет к разрыву цепи радикалов либо к стойкому локальному изменению структуры молекулы ДНК. Такое структурное изменение является изменением генетического кода и приводит к новым наследуемым признакам. Иными словами, в результате поглощения кванта энергии возникает мутация — внезапное возникновение новой формы, сохраняющейся затем у потомства.

Во втором случае поглощенная энергия не вызывает изменений там, где она была поглощена, но она переходит дальше по молекуле ДНК и где-то вызывает локальное поражение, серию радиохимических реакций и как результат — хромосомную перестройку и мутацию.

В третьем случае эффект поглощения кванта будет косвенным. Этот квант действует не непосредственно на хромосому, а на молекулы окружающей среды. В результате в этой среде появляются новые химически активные агенты, которые действуют на хромосомы как мутагены, т. е. вызывают перестройку генетического кода и мутацию.

В подавляющем большинстве вызванные радиацией мутации вредны. Новые наследуемые признаки препятствуют жизнедеятельности и размножению организмов. Беспорядочная, «энтропийная» радиация, радиационный фон — это одна из строк, написанных на угрожающей стороне той надписи, которая символизирует будущее цивилизации. На другой стороне этой надписи, в программе безопасности, процветания и прогресса проектируется снижение радиации. Прогноз на 2000 год исходит из последовательного снижения фона радиации в результате прекращения ядерных испытаний, строго контролируемого использования атомной энергии, исключающего повышение радиации, и специальных, доста- [60] точно эффективных мероприятий, направленных на ее снижение.

Но, может быть, радиационная генетика, используя упорядоченные и контролируемые излучения, может войти в число конструктивных методов? Она уже вошла в это число. Упомянем о радиационной селекции, о применении радиоактивных изотопов и других источников ионизирующих излучений для увеличения числа разнообразных мутаций и в искусственном отборе тех мутаций, которые повышают жизнедеятельность, скорость размножения и экономическую ценность животных и растительных организмов.

На уровне клеток применение радиации включает радиотерапию. Мы упомянем здесь о радиотерапии рака.

Применение различных излучений для лечения рака могло стать научным, а не чисто эмпирическим методом только на основе молекулярной биологии. Непосредственным объектом радиотерапии служит поведение клеток. Но это поведение запрограммировано в молекулах ДНК. В настоящее время существуют мутационная концепция происхождения рака и другая концепция, возлагающая ответственность за злокачественные новообразования на вирусы. Первая из этих концепций исходит из изменений в генетическом коде как из исходного процесса. Вторая концепция считает исходным процессом проникновение в организм вируса. Но возможно, что вирус воздействует на хромосомы, нарушая их структуру, и видоизмененная, генетическая информация предопределяет способность клеток к злокачественному росту [61]. Во всяком случае без представления о хромосомах и генетическом коде ни этиология, ни терапия рака не могли бы развиваться.

Вместе с тем радиотерапия рака не могла бы развиваться как научная, а не чисто эмпирическая дисциплина без детального представления о воздействии различных по интенсивности и частоте излучений и различных по типу частиц на возникновение радиохимических реакций на молекулярном. уровне. Заметим, что речь идет о существенно квантовых процессах.

Можно думать, что современное применение излучений в сельском хозяйстве и в медицине еще очень далеко и по масштабу, и по характеру от того, что будет достигнуто в последней четверти столетия. Здесь нужно вспомнить о квантовой электронике. Не исключено, что уже в конце XX в. человечество шагнет далеко вперед по пути радикального увеличения продовольственных ресурсов, лечения рака и существенного удлинения жизни людей с помощью квантовой электроники и молекулярной биологии.

Дж. Томсон говорит, что современная радиационная генетика напоминает попытку улучшить статую, обстреливая ее с дальнего расстояния из пулемета[62]. Действительно, применяемые сейчас излучения — это стрельба наугад, с тем чтобы из большого числа неожиданных мутаций выбрать положительные, закрепив их отбором в течение сравнительно долгого времени на ряде поколений животных или растений. Мы не можем вести прицельную стрельбу по хромосоме, во-первых, потому, что у нас нет прицельного оружия (излучение охватывает большой участок живой ткани), и, во-вторых, потому, что у нас нет точно локализованной цели (мы еще не знаем достаточно детально внутреннюю структуру молекулы ДНК и роль ее элементов в образовании тех или иных мутаций).

По-видимому, квантовая электроника может помочь и в прицельности стрельбы, и в локализации цели. Электронный микроскоп позволяет изучать очень малые участки. На таком участке можно сконцентрировать пучок электронов или тонкий пучок квантов электромагнитного излучения. Это будет не только прицельная стрельба, но и метод локализации цели, потому что электроника здесь позволит экспериментально изучать функции элементов молекулы ДНК в создании тех или иных мутаций, исследовать механизм их возникновения и в конце концов получать заранее определенные мутации, воздействуя на соответствующие элементы молекулы.

Речь идет не только о квантовой электронике в узком смысле, но и о всей совокупности излучений различных по типу частиц, различных по энергии, из различных источников. Квантовая электроника позволяет направить на клетку и далее на хромосому луч, чрезвычайно сконцентрированный в пространстве. С другой стороны, можно точнее локализовать излучение во времени, пользуясь релятивистским эффектом: время бежит для бомбардирующей частицы быстрее или медленнее в зависимости от скорости движения частицы; соответственно можно регулировать время ее жизни и фиксировать длину пробега. Быть может, в терапии рака будет широко применяться облучение релятивистскими частицами, которые распадаются там, где это необходимо, и не поражают здоровые ткани.

Сейчас трудно предвидеть конкретные формы «прицельной» радиационной генетики, «прицельной» радиационной терапии. Нас и интересуют здесь не эти конкретные формы, а принципиальное значение этой тенденции для общего прогноза на 2000 г. Оно состоит в переходе к сознательной перестройке детальной структуры биополимеров. Если квантовая электроника концентрирует неупорядоченное и в этом смысле «энтропийное» множество источников излучения, то квантовая биохимия, применяющая тонкие лучи коротковолновых излучений и тонкие потоки различных по типу и энергии частиц, уменьшает неупорядоченность воздействий на генетические изменения.

Наиболее энтропийной, неупорядоченной, неконтролируемой формой таких изменений являются мутации, вызываемые радиационным фоном. Конец XX в. будет временем уменьшения этой энтропийной формы воздействия на жизнь и возрастания концентрированных форм такого воздействия.

В одной из дальнейших глав мы остановимся на проблеме информации и ее накопления и концепции как стержневой линии прогресса во всех областях. Сейчас, забегая вперед, можно отметить следующее.

Природа пошла довольно далеко в статической упорядоченности наследственности. Генетический код обладает высоким уровнем стабильности. Молекула ДНК располагает значительной «памятью» об эволюции вида и неплохо «знает», какие детали организмов будут повторяться в будущем. Но информация об изменении наследственности невелика. Мутации органических форм не запрограммированы. Эволюция органической жизни упорядочена только статистически: из большого, статистически репрезентативного множества случайных мутаций отбираются и воспроизводятся изменения, которые увеличивают вероятность выживания организмов. В некоторой мере это объясняется неупорядоченностью, случайностью, «энтропийностью» воздействий, в частности радиационных воздействий, на живое вещество и генетические коды организмов. Фундаментальная задача нашего столетия — передать следующему веку значительный запас информации о динамике генетической информации. Задача эта в известной мере решается упорядочением, концентрацией радиации, уменьшением ее энтропии (за счет ее роста в окружающей среде), т. е. квантовой электроникой, и аналогичными ей методами. Подчеркнем только, что теоретической основой и более детального изучения биополимеров, и дальнейшего прогресса электроники служит квантовая физика.

Из всего сказанного о воздействии квантовой электроники на молекулярную биологию и о неклассическом характере процессов изменения наследственного кода вытекает следующее.

Ноозоны существуют не только в ряде дискретных частей материи и не только в спектре излучений. Они существуют и в органической жизни. Классическая наука знала о переходах от физических и химических закономерностей к собственно биологическим закономерностям онтогенеза, и здесь, в этой точке перехода, она создавала начальные физико-химические условия для онтогенеза — ноозоны онтогенеза, условия орошения и удобрения, которые вместе с выбором климатических условий для различных культур определяли вероятность определенной онтогенетической эволюции. Классическая наука знала и о начальных условиях филогенеза, а практика комбинировала условия отбора таким образом, чтобы возникали новые, заранее представленные в виде цели селекции видовые особенности. Современная молекулярная биология делает ноозоной переход от физических воздействий на молекулу к структуре молекулы, содержащей генетический код, изменение этого кода.

Но возможность управления изменениями кода вытекает из неклассической природы воздействий и неклассической природы молекулы живого вещества.

Существует еще одна связь между квантовой физикой и биологией. Ее нельзя представить в виде серии экспериментальных приемов и физических схем, переходящих из физики в биологию. Речь идет о повышении интеллектуального потенциала науки в целом, в частности биологии, в результате вызванного квантовой механикой резкого расширения того, что можно было бы назвать ассоциативными валентностями научного мышления. Когда ученый ищет модель, раскрывающую природу некоторого процесса, у него возникает то или иное число ассоциаций. Он может скомпоновать имеющиеся в его распоряжении понятия и факты в соответствии с каждой из этих ассоциаций. Когда Карно думал о границах усовершенствования паровых машин и о переходе теплорода от топки к конденсатору, естественной матрицей для термодинамической схемы была механическая модель жидкости, переливающейся из сосуда с более высоким уровнем жидкости в сосуд с менее высоким уровнем. Когда Фарадей создавал свою концепцию поля, силовые линии ассоциировались с упругими трубками. Ученый выбирает из меньшего или большего числа возможные ассоциации. Число этих ассоциаций во много раз возрастает при появлении новых концепций, которые означают не только «продвижение разума вперед», но и его «углубление в самого себя».

Сейчас мы остановимся на обратной связи между физикой и биологией.

Когда мы говорим об итогах той революции в представлениях о жизни, которой ознаменовалась середина столетия, на первый план выступает воздействие на биологию экспериментальных средств физики и химии, классических и квантовых физико-химических понятий и общего подъема интеллектуального уровня, вызванного теоретической физикой. Но когда мы говорим о перспективах, происходит некоторый сдвиг акцента. По-видимому, в десятилетия, оставшиеся до конца века, значительно вырастет обратное воздействие биологии на физику, химию и связанную с физикой и химией экспериментальную и производственную технику.

Это воздействие возможно на молекулярном и на надмолекулярном уровнях. На молекулярном уровне, вероятно, будет происходить совершенствование синтетических полимеров, причем «целевой схемой» окажутся биополимеры, т. е. макромолекулы живого вещества. Последние обладают рядом преимуществ, например не достигнутой в химии однородностью состава. Биополимеры состоят из молекул, совпадающих по составу и строению. В синтетических полимерах — синтетических каучуках, пластмассах, волокнах — встречаются цепи с различными длинами, с различным расположением радикалов и атомов. Можно предположить, что синтетические материалы в ближайшие десятилетия расширят область своего применения за счет приближения на молекулярном уровне к материалам органического происхождения. Вместе с тем молекулярная биология позволит расширить число синтетически получаемых материалов с заранее заданными свойствами и самый спектр этих свойств.

Не исключено, что на надмолекулярном уровне обратное воздействие биологии на физику приведет к возможности имитировать в силовом аппарате производства двигательные реакции живого вещества.

Чисто механическая или электромагнитная схема не может приблизиться ни по коэффициенту полезного действия, ни по дифференцированности движений к мышце с ее механохимическими функциями.

Дж. Томсон сравнивал руку обезьяны, срывающей с дерева апельсины, с машиной, которая выполнила бы ту же функцию с помощью электроники. Электронная машина, вероятно, с трудом помещалась бы на грузовике и потребляла бы много энергии. Обезьяна весит 20 кг и потребляет 500 г орехов в день[63]. Но это рука обезьяны. А рука человека? Рука, которая «достигла той высокой степени совершенства, на которой она смогла, как бы силой волшебства, вызвать к жизни картины Рафаэля, статуи Торвальдсена, музыку Паганини»?[64]

Быть может, движения мышц, уступающие движениям механизма по точности повторений, но превосходящие их при выполнении дифференцированных распоряжений мозга, станут образцами для производственной и экспериментальной техники. Быть может также, устройства, имитирующие мышцу по функциям, будут имитировать ее и на молекулярном уровне, состоять из синтетических макромолекул и действовать с помощью механохимических процессов. Но все же наиболее вероятная по направлению реконструкция силового аппарата обойдется, по крайней мере в ближайшие десятилетия, без синтетических полимеров, имитирующих механохимические функции мышц, и функции рабочих мышц будут выполнять системы, состоящие из кристаллических решеток.

Об этом уже говорилось. Обратное воздействие биологии на физику состоит в том, что функции живого организма образуют как бы матрицу, или целевую схему, к которой направлено конструирование кибернетических механизмов. Разумеется, эти механизмы смогут (и уже могут) делать то, что недоступно человеческому организму. Но это не лишает организм роли целевой схемы по той простой причине, что кибернетика всегда будет иметь своей главной целью преобразование человеческого труда.

Кибернетика

Основная линия преобразования характера труда в конце XX — начале XXI в. будет связана с квантовой физикой. Речь идет о кибернетике. Она далеко оторвалась от своих исторических антецедентов — старинных механических имитаций животных и человека. Кибернетика оторвалась от них не только по сложности механизмов, не только по физико-техническим основам, но и по функциям. Она видит свою главную задачу отнюдь не в имитации биологических функций организмов, не в имитации биологического поведения.

Речь идет о главной задаче, лежащей в основе прогноза, условно привязанного к 2000 г. Забегая вперед, скажем об этой задаче. Она состоит в программировании не только самовоспроизведения механизмов, но и последовательной их эволюции, последовательного совершенствования, последовательного перехода к иным параметрам. Такое динамическое программирование принципиально отличается от биологического филогенеза. Биологический филогенез опирается на статистические законы отбора. Иными оказываются законы филогенеза техники, технического прогресса, изменения технического уровня в каждом новом поколении машин. Технический прогресс выводит человека из-под власти статистических закономерностей естественного отбора. Высшим выражением программирования технического прогресса будет ряд сменяющих друг друга поколений машин, которые смогут создавать схемы, более совершенные, чем те, которые реализованы в них самих. Мы позже увидим, что такая замена человека в его динамической, реконструирующей функции является апофеозом человека в его собственно человеческой сущности.

Эволюция кибернетики была тесно связана с изучением закономерностей органической жизни на уровне молекулы, клетки, мышцы, нервной системы. Эти закономерности обобщались; физиологические и психологические понятия объединялись с физическими и с еще более общими понятиями теории информации. В книге Норберта Винера «Кибернетика или управление и связь в животном и машине»[65], особенно во введении, мы встречаем живой и содержательный рассказ о первых шагах кибернетики, из которого видно значение биологических проблем и понятий для генезиса новой науки. Но вместе с тем уже на ранних стадиях своего развития, а потом все больше кибернетика раскрывала свою принадлежность к активному преобразованию природы, к тому «искусственному приспособлению», которое Маркс противопоставлял естественному, биологическому приспособлению.

Для живого вещества уже на молекулярном уровне характерны структуры с очень большим числом элементов. Это характерное отличие живого вещества связано с хранением генетической информации, которая обеспечивает онтогенез организмов и их самовоспроизведение — сохранение и эволюцию видовых признаков в филогенезе.

Структура молекулы ДНК определяет структуру РНК, а затем структуру и поведение клетки, ткани организма. Но эта структура в общем случае меняется только под влиянием внешних воздействий, например тех или иных излучений. Она может измениться и спонтанно, но и спонтанные мутации не запрограммированы генетическим кодом. В молекуле ДНК нет механизма обратной связи, которая вызывала бы перестройку хромосомы, перестройку генетического кода и выбор иного пути филогенеза.

Теперь обратимся к кибернетическому механизму, не забывая при этом, что речь идет о перспективе, о тех тенденциях, которые уже существуют, по получат завершенный вид в будущем. Для счетно-решающего устройства, которое становится управляющим устройством, характерна следующая операция. В каждый момент механизм способен вычислять результаты некоторой директивы, которую этот механизм может направить самому себе (предопределить некоторую перестройку своей собственной структуры) или же адресовать внешним рецепторам. При этом он может вычислить результаты различных директив и выбрать одну из них в качестве оптимальной, т. е. приводящей к максимальному или минимальному значению некоторых запрограммированных величин. Примером может служить машина, играющая в шахматы. Она обладает способностью выбора очередного хода из ряда возможных и способностью до этого рассчитать результаты каждого варианта. Речь идет об обратной связи. Но нужно подчеркнуть, что эта связь не имеет эмпирического характера, свойственного в общем случае поведению живых организмов. Когда выбор живого организма определяется условным рефлексом, эмпирическая природа выбора очевидна. Но даже в том случае, когда зверь выбирает дорогу, ведущую к водопою, к добыче или к безопасному убежищу, в сознании зверя сопоставляются эмпирические впечатления, отложившиеся в его памяти.

Напротив, результаты выполняемых машиной счетных или логических операций могут не находиться в памяти машины. Здесь имеет место прогнозная информация, «генетический код» с неэмпирической обратной связью.

Благодаря неэмпирическому характеру обратной связи кибернетический механизм может получить набор параметров, который никогда еще реально не существовал, и затем, сопоставив с другими эвентуальными наборами параметров и остановив на нем свой выбор, создать новую реальную систему, не имеющую реальных прецедентов. Таким образом, динамическая функция — изменение структуры и поведения системы, то, что в органическом мире не программируется генетическим кодом, в кибернетике определяется ante factum, входит в прогнозную информацию, соединенную обратной неэмпирической связью с эвентуальными, а не реальными «factum». Динамический «генетический код» искусственного приспособления может включать более или менее глубокие изменения. Кибернетическая машина, вычисляя и выбирая оптимальные параметры новой машины, может менять детали, их компоновку, темп технологического процесса и т. д. без изменения идеального цикла, но может также предопределить переход к другому циклу. К иерархии все более глубоких динамических сдвигов при автоматической оптимизации производства мы вскоре вернемся.

Очень существенно различие между ролью отдельного элемента живого вещества в органической эволюции и ролью отдельного элемента кибернетического устройства. Элемент органической структуры — отдельная молекула ДНК, РНК или белка — так же мало влияет на направление органической эволюции, как отдельная молекула — на направление термодинамических процессов. Судьба органической молекулы, например нарушения ее структуры, может вызвать мутацию, но, чтобы мутации повлияли на филогенез, на судьбу вида, на органическую эволюцию, требуется механизм естественного отбора с его принципиально макроскопическими, статистическими закономерностями. Иное дело в случае искусственного отбора, например в случае радиационной селекции. Здесь уже на счету отдельные мутации.

В кибернетических машинах элементарными индивидами служат вакуумные или кристаллические приборы, реагирующие определенным образом на различного рода сигналы. Возможна неправильная реакция отдельного элементарного прибора, она направляется или компенсируется; кибернетические машины включают специальные контрольные и компенсирующие устройства. Но они основаны не на игнорировании, а на учете поведения индивидуальных элементов машины.

Линия разграничения пренебрежимых элементов и учитываемых элементов проходит между «прицельной» генетикой и генетикой, воздействующей на макроскопические «площади обстрела». О них шла речь в предыдущей главе. Что касается кибернетики, то она вся лежит в области «прицельных» процессов и учета индивидуальных процессов и индивидуальных судеб. Стохастические процессы в кибернетике (в частности, обеспечивающие надежность управления) не вытекают из игнорирования индивидуальных процессов.

У Бредбери есть рассказ о путешествии в прошлое, в иную геологическую эпоху с помощью некой машины времени. Один из участников этого путешествия убивает мелкое животное, и в результате все биологическое и историческое развитие на Земле меняется. Меняется в худшую сторону: вернувшись в настоящее, путешественники узнают о победе фашистского кандидата на президентских выборах в США. По-видимому, такая фантастическая картина не соответствует закономерностям биологической эволюции. В последней все зависит от макроскопических процессов и результаты индивидуальной судьбы одного отдельного организма погашаются энтропийной стихией, которой противостоит лишь макроскопическая упорядоченность бытия. Но в кибернетических устройствах элементарный процесс играет отнюдь не пренебрежимую роль и к нему вполне применима концепция Бредбери. Элементарный процесс в кибернетической машине, находящей оптимальное решение, может изменить это решение. Как уже говорилось, кибернетические машины включают устройства для контроля и нейтрализации случайных нарушений элементарных реакций, но такие устройства основаны не на макроскопическом усреднении и игнорировании отдельных элементарных процессов, а на их учете. Основа кибернетики — упорядоченность микропроцессов.

Нужно только учесть, что упорядоченность микропроцессов отличается от макроскопической упорядоченности бытия. Когда речь идет об упорядоченном поведении статистического ансамбля молекулы, это значит, что в среднем все молекулы движутся единообразно и образуют движущееся (в некоторой системе отсчета неподвижное) тело. Но здесь нет неопределенности положения или импульса этого макроскопического тела. Энтропия характеризует неупорядоченность составляющих это тело молекул.

Когда речь идет об объектах, не состоящих из большого числа частиц, об объектах микромира, о кристаллических решетках, о молекулах, состоящих из небольшого числа атомов, о самих атомах, их ядрах и, наконец, об элементарных частицах, энтропийное отсутствие информации вытекает отнюдь не из игнорирования каких-то более дробных частиц, а из неконтролируемого воздействия макроскопических тел на частицы. Мы встречаемся здесь с неопределенностью отдельного, единичного события. Речь идет в этом случае не об ограничении упорядоченности и соответственно информации, а, скорее, о переосмыслении самих понятий упорядоченности и информации, когда некоторый разброс значений становится дополнительным определением этих понятий. Но об этом — позже.

Кибернетика могла появиться и могла поставить перед собой производственно-технические и исследовательские задачи благодаря тому, что наука получила возможность активно вторгаться в этот квантовый мир упорядоченных микропроцессов, воздействовать на отдельные микропроцессы, непосредственно сталкиваться с дискретностью вещества и излучения.

Обычно применяемые цепи математических и логических операций кибернетической машины в двоичной системе исчисления напоминают известную игру, когда имя человека находят после конечного числа вопросов, на которые получают в ответ либо «да», либо «нет». В элементарной ячейке кибернетического устройства — оно включает тысячи таких ячеек — происходит некоторый процесс, который означает «да» или «нет», и последовательно приближается ответ на заданный машине вопрос. Ответ может заключать в себе решение системы уравнений, имеющее самый различный смысл, вплоть до медицинского диагноза, расписания поездов на всей железнодорожной сети, параметров нового кибернетического механизма или вероятностей различных ядерных реакций. Все дело в том, что эти элементарные процессы являются парадоксальными: с классической точки зрения они вообще невозможны.

С констатации подобных парадоксальных процессов начало свою историю учение о квантах электромагнитного поля. После того как Планк открыл дискретность излучения и поглощения электромагнитных волн, Эйнштейн пришел к представлению о квантах электромагнитного поля, исходя из необъяснимых в рамках классической физики особенностей фотоэлектрического эффекта. Этот эффект состоит в том, что свет выбивает электроны с поверхности некоторого тела, например с поверхности металлической пластинки. Энергия выбитого светом электрона соответствует энергии, принесенной электромагнитной волной. Казалось бы, чем дальше расходятся электромагнитные волны, тем меньшая энергия содержится в каждой точке расходящейся волны — плотность энергии на фронте волны уменьшается. Таким образом, энергия электромагнитной волны в той точке, где она выбивает с поверхности пластинки электрон, должна зависеть от расстояния между пластинкой и источником света. На самом деле энергия электрона, выбитого с поверхности металла, не зависит от этого расстояния. Как заметил Крамере, получается так, будто матрос бросился с корабля в море, от места всплеска воды во все стороны пошла круговая волна, она дошла до другого матроса, купавшегося на другом конце моря, и ее энергии хватило, чтобы выбросить этого матроса из воды на палубу его корабля. Парадоксальный с классической точки зрения факт оказался естественным, когда Эйнштейн предположил, что свет существует в виде квантов, получивших название фотонов.

Процессы, подобные в этом отношении фотоэлектрическому эффекту, парадоксальные в рамках классической теории и естественные в квантовой физике, становятся основными технически применяемыми процессами в квантовой электронике и в радиационной генетике. Именно они позволили кибернетике стать основным фактором преобразования характера труда.

В первом поколении кибернетических машин применялись вакуумные приборы. Если впаять в стеклянную трубку электроды и выкачать из этой трубки воздух, то электрический ток будет проходить через трубку, когда один из электродов испускает электроны, которые доходят до другого электрода. Для этого нужно нагреть один из электродов. В обычной лампе накаливания раскаленный волосок наряду с квантами света испускает электроны. Можно впаять в стенку лампы другой электрод и включить лампу в цепь так, чтобы волосок был катодом, а второй электрод — анодом. В этом случае отрицательные заряды — электроны — будут переходить с катода на анод и лампа станет проводником.

Варьируя и комбинируя подобные схемы, можно получить приборы, пропускающие ток только в одном направлении, или приборы, которые проводят ток или, наоборот, становятся изоляторами, когда к ним приложено напряжение, или приборы, которые включают ток или выключают его при получении двух одинаковых или двух различных импульсов. Вообще такие вакуумные приборы как бы отвечают «да» или «нет» (включают или выключают сеть), получая два импульса (это соответствует союзу «и» в заданном вопросе) или при получении одного из импульсов (это соответствует союзу «или»). Реакция подобного прибора аналогична положительному или отрицательному ответу на вопрос, в котором изложены условия, выраженные какой-то логической операцией. Нужно подчеркнуть скорость такого ответа. В биологической эволюции среда дает отрицательный или положительный ответ на вопрос организмов, испытавших мутации. Она дает положительный ответ — мутации закрепляются отбором или отрицательный — среда отвергает их. Ответ требует массового эксперимента в течение долгого ряда поколений, и этот ответ задерживается на тысячелетия. Можно построить макроскопический механизм типа замка, который отпирается (утвердительный ответ) или не отпирается (отрицательный ответ), или прибор, где якорь притягивается либо не притягивается электромагнитом. Но в обоих этих случаях макроскопический характер приборов требует для их функционирования больших энергий и длительных сроков при каждом элементарном процессе. Макроскопическая упорядоченность процессов означает, что частицы, собранные в громадные ансамбли, действуют единообразно. Эти ансамбли — рычаги, валы, зубчатые колеса, якоря электромагнитов и т. д. — движутся в макроскопической пространственной шкале миллиметров и сантиметров и в макроскопической временной шкале секунд. Даже при очень больших энергиях скорости реакций макроскопических механизмов не могут быть высокими.

Электроника исходит из микроскопически упорядоченных процессов, которые приводят к макроскопическим эффектам. Возьмем уже упоминавшиеся электронные приборы. Исходный процесс — эмиссия электронов. Это существенно микроскопический процесс. Его результатом служит замыкание или размыкание электрической цепи, которая может быть достаточно мощной, чтобы вызвать перемещения макроскопических масс. Микроскопические события, в которых участвуют дискретные частицы вещества и излучения, разыгрываются в весьма дробной пространственной и временной шкале. Здесь существенны тысячные и миллионные доли сантиметра и секунды. В этих пространственно-временных интервалах происходят события, которые становятся исходным пунктом таких макроскопических процессов, как изменение режима работы десятков гигантских электрических станций.

Сигналы, изменяющие сопротивление электронных приборов, могут быть световыми и при этом действовать на холодные катоды. Фотоэлектрический эффект (тот парадоксальный с классической точки зрения эффект, который привел к мысли о квантах света) лежит в основе фотоэлементов, где свет срывает с анода электроны, проводящие ток через вакуумную трубку. Применение световых сигналов не только включает в число исходных сигналов для электронных приборов всю сферу зрительных впечатлений, в том числе препараты, лежащие под объективом микроскопа, и наблюдаемое через телескоп звездное небо. Фотоэлемент реагирует и на электромагнитные колебания за пределами видимого спектра. Они позволяют, как уже говорилось, соединять элементы кибернетических устройств средствами «прицельной» квантовой электроники, лазерными лучами, в том числе ультрафиолетовыми и еще более коротковолновыми лучами.

На смену электронным лампам пришли другие приборы. Их появление и распространение связано с быстрым развитием квантовой теории твердого тела. Классическая физика рассматривает твердое тело как совокупность частиц, которые представляют собой те же твердые тела, очень малые, но не отличающиеся от макроскопических по характеру своего поведения. Квантовая физика твердого тела описывает специфические процессы, которых не знает макроскопическая картина мира. Именно эти парадоксальные с точки зрения классической физики процессы используются в кибернетических приборах. Квантовая теория позволяет значительно точнее представить себе специфические процессы изменения проводимости кристаллов и в значительно большей мере управлять этими процессами. Далее существует ряд веществ, которые являются полупроводниками. Их проводимость зависит от состава и внешних воздействий, например от поглощения света. Поэтому системы полупроводниковых приборов могут выполнять все операции, которые выполняют системы вакуумных приборов, принимая и перерабатывая информацию, содержащуюся в поступающих извне сигналах.

Полупроводниковые приборы, распространившиеся первоначально в радиотехнике, сейчас стали основными элементами кибернетических устройств. Они потребляют гораздо меньше энергии, чем электронные лампы, в которых значительная энергия тратится на нагревание катода — источника электронов. Еще большее значение имеет то обстоятельство, что электронные процессы в кристалле происходят гораздо быстрее, чем в вакууме. Полупроводниковые приборы в качестве элементарных ячеек кибернетических машин позволили увеличить число операций от тысяч до сотен тысяч и миллионов в секунду.

Наряду с полупроводниками возможности кибернетических машин расширены и другими применениями квантовой теории твердого тела. Мы упомянем применение криотронов — приборов, использующих усиление сигналов в проводниках, охлажденных до очень низкой температуры. Криотрон — это проводник с обмоткой, по которой проходит слабый ток. Вблизи абсолютного нуля самые незначительные изменения тока в обмотке вызывают крайне резкие изменения проводимости. Таким образом, криотрон выполняет ту же функцию, что и электронная лампа, что и полупроводниковый транзистор. В криотронах, как и в электронных лампах и полупроводниковых устройствах, используются процессы, которые с классической точки зрения кажутся парадоксальными. Феноменологическое описание процессов, используемых в кибернетических приборах — вакуумных лампах, кристаллических устройствах, криотронах, возможно было бы и без углубления в неклассическую теорию. Но для кибернетики характерны почти непрерывный переход к новым физическим принципам, систематическое конструирование все новых (причем новых во все более радикальном и фундаментальном смысле) приборов и, на этой основе, автоматизация все более сложных операций. Такой прогресс кибернетики, обеспечивающий не только ненулевую скорость, но и ненулевое ускорение научно-технического прогресса в целом, требует, чтобы наука не ограничивалась феноменологическим описанием указанных процессов.

Нет нужды продолжать дальше характеристику элементарных приборов, из которых состоят кибернетические машины. Нет нужды описывать схемы этих устройств, схемы автоматического решения математических задач, приема и переработки информации, запоминающих блоков и управляющих механизмов. В этой книге рассматриваются только два вопроса: связь научно-технического прогресса в конце XX столетия с неклассической наукой и результаты этого прогресса. Беглые характеристики физико-технических принципов, воплощенных в вакуумные лампы, полупроводниковые приборы и криотроны, иллюстрируют связь кибернетики с квантовой механикой. Теперь следует перейти к экономическому эффекту кибернетики. Речь идет не о перечислении или систематизации того, что может дать кибернетика промышленности, транспорту, связи и т. д. Речь идет об интегральном результате, который может быть определен без перечисления и суммирования конкретных производственных применений кибернетических машин.

Таким интегральным результатом является автоматизация неустановившихся производственных процессов и более высокая по рангу динамичность производства. В 30-е годы, когда началось сравнительно широкое применение фотоэлементов, на многих произвел сильное впечатление фотоэлемент, с помощью которого слабый луч далекой звезды включал освещение и силовые установки большой международной выставки. В то время перспективы автоматизации связывали с включением и выключением сильноточных цепей при возникновении, прекращении или изменении интенсивности световых лучей. Сейчас речь идет о другом, гораздо более радикальном и общем преобразований производства, культуры и научного эксперимента. Сигналы и вызванные ими электронные процессы становятся началом длинных серий других электронных процессов, где каждый следующий связан с предыдущим, как звено логического или математического умозаключения. Эти длинные серии приобретают характер вычислений, решения систем уравнений, нахождения новых оптимальных конструкций, оптимальных технологических процессов, оптимальных грузопотоков, оптимального размещения промышленности и т. д. Уже первое поколение кибернетических машин могло быть основой принципиально нового по сравнению с первой половиной века прогноза характера труда. Кибернетические машины не заменяют человека в операциях, состоящих во включении и выключении электромагнитного прибора. Такая замена была под силу фотоэлектрическим реле 30—40-х годов. Кибернетические машины уже в первом своем поколении были способны на большее. Они могут заменить человека в его динамических функциях. Разъясним это понятие.

В производстве, как и в природе, мы встречаем ряд процессов, каждый из которых можно рассматривать как повторение одного и того же неизменного акта. Над ним надстраивается другой процесс, состоящий в изменении такого акта, который теперь уже не повторяется в неизменном виде. Пусть процессом неизменного повторения будет движение по инерции — равномерное и прямолинейное. Повторяющимся актом будет здесь прохождение каждого из разных отрезков, на которые разделен путь, в течение одного и того же времени. Неизменна здесь скорость. Теперь представим себе, что над движением тела надстраивается другой процесс — изменение его скорости, ускорение. Этот процесс является динамическим по отношению к движению по инерции, но и в нем нечто может оставаться неизменным: это нечто — само ускорение. Если ускорение с течением времени увеличивается, мы встречаемся с динамическим процессом более высокого ранга. В случае непрерывности этих процессов им соответствуют в качестве неизменных характеристик производные все более высокого порядка о г пройденного пути во времени: первая производная (скорость), вторая (ускорение), третья (скорость возрастания ускорения) и т. д.

В производстве мы можем представить себе повторение одних и тех же операций; затем динамический процесс перехода от одних операций к другим с изменением конструкции машин и технологических методов, но при неизменной физической или химической схеме; затем изменение самой схемы. Об этом говорилось в начале книги. По-видимому, кибернетика будет постепенно регулировать динамические процессы все более высокого ранга.

Фотоэлементы 30—40-х годов регулировали автоматический переход от одной операции к другой, но они не меняли того набора операций из которых складывался технологический процесс. Иная, динамическая, функция состоит в переходе к новому набору операций, к новой технологии на основе конструирования новых механизмов. Эту функцию можно в большой степени автоматизировать с помощью кибернетических машин, которые, исходя из заданных программ, высчитывают более совершенные параметры конструкций и технологических методов. Отсюда вытекает переход к более высокому по рангу динамизму в производстве и сосредоточение человеческого труда на более динамичных функциях. Кибернетическая машина, управляющая установившимся, ста^ ционарным процессом, выполняет сравнительно несложные серии операций. Но, если объектом управления является неустановившийся процесс, его регулирование требует более сложных цепей передачи информации. Когда кибернетическое устройство меняет нагрузку промышленных агрегатов, меняет грузопотоки, перераспределяет потоки энергии в электрическом кольце и т. д., это требует очень длинных логико-математических цепей. Чтобы такое перераспределение нагрузок выполнялось непрерывно, нужна большая быстрота элементарных операций. Поэтому применение быстродействующих приборов позволяет автоматизировать всё более динамичные процессы, переходить от регулирования установившихся процессов к непрерывной оптимизации процессов в зависимости от меняющихся условий. Дальше идет оптимизация уже не за счет перераспределения нагрузки имеющихся агрегатов, а за счет перехода к более совершенным агрегатам — автоматическое проектирование и изготовление новых машин. Здесь цепи элементарных процессов в ячейках кибернетических устройств должны передавать информацию о последовательных состояниях и эффекте систем, состоящих из множества деталей, должны сопоставлять лавинообразно нарастающее число вариантов. Это равносильно игре в шахматы на доске с колоссальным числом клеток, колоссальным числом фигур и непрерывно меняющимися правилами игры, причем игре непрерывной, безостановочной, без интервалов для продумывания ходов.

Отсюда виден возможный эффект перехода в кибернетических машинах от вакуумных приборов к полупроводниковым. Этот эффект виден не слишком отчетливо, без деталей, но он может быть сформулирован в общем виде: современные кибернетические устройства позволяют автоматизировать не только установившиеся процессы и не только динамические процессы перегруппировки нагрузок агрегатов, но и динамические процессы проектирования новых агрегатов и изменения производственной технологии.

Можно представить себе, что в течение ближайшего десятилетия завершится автоматизация установившихся процессов и автоматизация их регулирования. Случайные нарушения установившегося ритма и установившейся последовательности операций будут устраняться автоматически. Однако основной функцией кибернетических механизмов должно быть регулирование динамических процессов. Таковы прежде всего упомянутые уже перераспределения нагрузок. Здесь регулирование включает решение задач типа: как должны измениться нагрузки различных агрегатов, чтобы потребность в их работе была удовлетворена наилучшим образом? Возьмем в качестве примера кольцо, состоящее из электростанций, соединенных высоковольтными электропередачами. Чтобы котлы на станциях работали регулярно и чтобы автоматически устранялись случайные нарушения режима, достаточно сравнительно простых термоэлектрических, фото электрических и т. п. приборов. Перераспределение нагрузок между станциями и агрегатами при меняющемся потреблении энергии или при других переменных условиях требует уже быстрого решения математических задач и автоматического выполнения оптимальных решений. Это же относится к газоснабжению, водоснабжению, теплофикационным системам, грузообороту и во все растущей степени к добыче топлива и сырья, к непрерывным технологическим процессам в промышленности и т. д. Можно представить себе, что в течение одного или двух десятилетий во всех основных отраслях производства будет осуществлено динамическое регулирование в виде перераспределения нагрузок с помощью кибернетических устройств.

Но это только первая интегральная производственная задача кибернетики. Перераспределение нагрузок делает динамичными отдельные производственные процессы, работу отдельных агрегатов и отдельных предприятий, но производство в целом остается установившимся процессом, и характеризующие его интегральные параметры (в том числе важнейший — производительность общественного труда) не меняются. Здесь нет единой для производства в целом необратимой динамической эволюции — технического и технико-экономического прогресса.

Такая эволюция гарантируется переходом к новым конструкциям и новым технологическим процессам. Может ли кибернетика взять на себя решение такой задачи? Здесь нужно прежде всего устранить возможные недоразумения. Речь ни в коем случае не идет о реальном воплощении машины Джона фон Неймана, т. е. кибернетической машины, которая воспроизводит себя в виде серии машин с теми же параметрами. Речь не идет и о кибернетическом конструкторе, который вытеснит живого конструктора. Речь идет о том, что живой конструктор будет пользоваться кибернетическими машинами, которые очень быстро (во временной шкале конструкторской работы — практически мгновенно) будут находить конкретные параметры, соответствующие каждому новому варианту разрабатываемого нового агрегата, будут вычислять эффект каждого варианта, сопоставлять их друг с другом и находить оптимальный. Не так уж существенно, сколько живых конструкторов будут пользоваться помощью кибернетических машин. Существенно другое. Темп конструкторской работы и разработка новых технологических процессов увеличатся во много раз. Технический прогресс станет непрерывным, даже если брать отдельные отрасли производства и наблюдать их эволюцию в течение сравнительно небольших интервалов времени.

Когда речь идет о производстве и эволюции его технических и технико-экономических показателей, понятие непрерывности имеет специфический смысл. Меняются статистически усредненные величины, усредненные, например, для всего производства в целом. С такой оговоркой (для производства в целом) уже в первой половине нашего столетия технический уровень поднимался в некоторые периоды непрерывно. Теперь кибернетика, примененная в конструкторских бюро, технологических лабораториях и проектных институтах, позволяет достичь непрерывного технического прогресса не только в производстве в целом, но и в отдельных отраслях.

Радикальный поворот в ходе технического прогресса — это переход от непрерывного повышения уровня техники к непрерывному ускорению этого процесса. О нем уже говорилось в главе: «Почему 2000-й». Основа такого ускорения — появление все новых идеальных физических и химических схем, приближение к которым и составляет самую сущность технического прогресса. От чего зависит появление новых идеальных схем, т. е. прогресс науки в областях, непосредственно связанных с прикладными проблемами? Темп научного прогресса в этих областях зависит от обратной связи, от применения результатов исследований в производстве, от фундаментальных исследований, которые сами по себе, непосредственно не дают прикладных результатов, от скорости передачи научной информации и в очень большой степени от скорости сопоставления теоретических выводов с экспериментом. Кибернетика фигурирует во всех этих ускоряющих научный прогресс факторах. Мы остановимся только на последнем — на скорости экспериментальной проверки теоретических выводов. При современной математизации почти всех отраслей науки путь от некоторой теоретической концепции до выводов, которые могут стать предметом экспериментальной проверки, включает в большинстве случаев длинные ряды вычислений. Иногда они требуют от вычислителей месяцев и даже лет труда. Машины выполняют такие вычисления в течение минут. Применение вычислительной техники — одно из оснований, чтобы проектировать на последние десятилетия XX в. практически непрерывный поток новых физических и химических схем, которые будут целевыми схемами технического прогресса.

Научный прогресс определяет своей скоростью не скорость, а ускорение технического прогресса. Последний может обладать некоторой скоростью и быть практически непрерывным и при неизменных идеальных схемах, к которым стремится техническое творчество, конструкторская и технологическая мысль. Если непрерывно меняются сами идеальные схемы, то технический прогресс приобретает непрерывное ускорение.

Можем ли мы наметить еще большую динамизацию производства и предусмотреть возрастание самого ускорения прогресса? Об этом уже говорилось выше. Пока мы не пойдем так далеко. Для такого темпа технического прогресса нужно, чтобы само научное творчество все с большей скоростью, т. е. с ускорением, приближалось к своим идеалам, чтобы сами идеалы науки были подвижными. Что такое «идеалы науки»? Приобрели ли они подвижность? Приобретут ли ее в будущем? На эти вопросы придется вскоре ответить. Пока заметим, что размышления о конечных идеалах научного познания не станут в обозримом будущем функцией кибернетического устройства, хотя они и будут в растущей степени опираться на вычисления и наблюдения, производимые электронными машинами. Фигура кибернетического робота, размышляющего о фундаментальных принципах и идеалах науки, остается фантастической по крайней мере для XXI в. Но об этих принципах и идеалах — позже.

Из сказанного видно, что замена человека в той или иной функции — это наименее содержательная характеристика воздействия кибернетики на характер труда. Существенная сторона дела состоит в качественном преобразовании труда человека и в колоссальном расширении сферы его применения, расширении круга тех сил природы, которые целесообразно скомпонованы человеком. Преобразование труда состоит в его сосредоточении па все более творческих функциях. Иерархия динамических процессов — изменение режима и нагрузки агрегатов, изменение техники, изменение идеальных схем, т. е. целевых функций технического прогресса, изменение принципов науки — является лестницей, по которой человек последовательно поднимается со ступени на ступень. Труд всегда включал более высокие динамические компоненты: изменения техники, науки, фундаментальных принципов. Но они были дискретными поворотами. Ступенями лестницы прогресса служат моменты, когда все более динамическая функция реализуется как непрерывный процесс. Прогноз, приуроченный к 2000 г., включает переход к непрерывному ускорению технического прогресса на основе непрерывного появления все новых и новых идеальных схем механических, физических и химических циклов.

Нетрудно увидеть, что высшие динамические функция не реализуются без низших. Научные исследования будут источником ускорения технического прогресса, если существуют конструкторские бюро, технологические лаборатории и проектные институты, которые являются рецепторами ускоряющих технический прогресс новых идеальных схем, которые по своему уровню и мощности могут подхватить эти схемы, рассчитать варианты их инженерного воплощения, сопоставить эти варианты, выбрать оптимальные. И, конечно, рассчитать, сопоставить и выбрать с той высокой скоростью, какой можно достичь с помощью счетно-решающих электронных машин.

В свою очередь конструкторские бюро, лаборатории и проектные институты реализуют свою динамическую функцию, если промышленность может с очень большой скоростью превратить новые конструкции в серии эксплуатируемых агрегатов. Во всех случаях: и при реализации научных открытий, и при освоении новых типов машин и станков и новой технологии — необходимым элементом реализации и освоения будут кибернетические устройства, которые переводят идеальные схемы в параметры новых конструкций, а эти последние — в технико-экономические эксплуатационные показатели, сопоставляют эти показатели и дают оптимальные решения. Именно кибернетика превращает науку, технику и эксплуатацию оборудования в нечто единое, без разделяющих эти компоненты временных интервалов, и притом в нечто комплексное, где отдельные компоненты не реализуются друг без друга.

«Знаю как» и «знаю где»

Напомним о понятиях энтропии и негэнтропии, о которых шла речь в очерке «Оптимизм, бытие, движение» в первой части этой книги. Там говорилось, что понятия энтропии и негэнтропии могут быть обобщены и отнесены не только к движению молекул и температурным перепадам, но и к другим беспорядочным процессам (энтропия) и их упорядоченности (негэнтропия).

В середине нашего столетия эти понятия были с большим эффектом применены в теории связи. Сигнал, т. е. совокупность упорядоченных микропроцессов (например, определенные модуляции звуковых или электромагнитных волн), — негэнтропийное понятие, ему противодействует и мешает шум — энтропийные, неупорядоченные микропроцессы. Линия связи передает энергию и импульсы, но ее задача состоит не в этом. Передача энергии происходит с помощью механических трансмиссий или высоковольтных сетей. Напротив, телефонные провода и радиоволны передают информацию, и чем меньше при этом передается энергии, тем лучше. Передача информации не сводится к передаче энергии, хотя и неотделима от нее. Речь не сводится (по крайней мере не всегда сводится) к передаче энергии воздушных колебаний к сотрясению воздуха. Соответственно радиопередача не всегда сводится к сотрясению эфира.

Здесь нет нужды определять понятие информации. Мы уже знаем, что оно обобщается и может быть применено, например, к кибернетическим устройствам и даже, как мы видели, к структуре молекул ДНК и РНК — они содержат информацию о наследуемых признаках организмов.

В главе о кибернетике разграничивались два вида информации и соответственно два типа негэнтропии. В одном случае «генетический код» (это биологическое понятие может быть обобщено и поставлено в кавычки) не вызывает длинных цепей элементарных процессов, которые позволили бы видеть, куда ведет тот или иной вариант предстоящей эволюции, и на основе обратной связи уже сейчас выбрать оптимальный вариант. Такой возможности обратной связи нет в генетическом коде без кавычек, в генетической информации, содержащейся в молекуле ДНК и в молекуле РНК. Здесь эволюция организма и вида реализуется без предварительной динамической модели и молекула не сопоставляет различные варианты эволюции. Другой вид информации мы встречаем в том случае, когда в мозгу или в кибернетическом устройстве возникают, практически одновременно, различные варианты эволюции, предваряющие ее и позволяющие выбрать тот или иной вариант.

Такая информация в условном наклонении («если бы имели место такие-то акты сейчас, то произошли бы такие-то явления в будущем») — прогнозная информация — характерна для труда, для техники, для производства. Иначе говоря, для целесообразной деятельности, которая — напомним еще раз слова Маркса — отличает самого плохого архитектора от самой лучшей пчелы, превосходящей его аккуратной архитектурой сот. В мозгу человека возникают образы того, что будет сделано при намеченной последовательности трудовых актов, и он выбирает последовательность, которая дает оптимальный вариант. Кибернетическое устройство может получить аналогичную прогнозную информацию, выбрать оптимальный вариант и таким образом имитировать функцию человека.

Подойдем к указанной функции с понятием негэнтро-шш. Труд увеличивает негэнтропию. Упоминавшиеся примеры макроскопических структур (упорядоченное направление волокон в ткани вместо беспорядочного переплетения их в хлопке; упорядоченное распределение тепла: в котле теплее, чем в конденсаторе, в доме теплее, чем вне его; упорядоченное расположение металлов в сплаве и в металлическом изделии и т. д.) обладают более высокой негэнтропией. Она достигнута за счет увеличения энтропии. Но не это возрастание энтропии характерно для труда. В замкнутой системе негэнтропия уменьшается и соответственно энтропия растет. Но производство — не замкнутая система. Производство — это рост негэнтропии за счет уменьшения ее, т. е. возрастания энтропии в более широкой системе.

Негэнтропийные процессы, какими являются намеченные сейчас пути технического прогресса, связаны с прогнозными вариантами, с оптимизацией, с выбором оптимального варианта.

Атомная энергетика повышает температурные перепады до уровней, каких не было в классической энергетике. Лазеры превращают рассеянную энергию спонтанного излучения ламп в концентрированную энергию индуцированного когерентного излучения, достигающего огромной плотности. Радиационная генетика позволяет перейти от рассеянного и неупорядоченного множества спонтанных мутаций к упорядоченным и поэтому управляемым сериям искусственно вызванных мутаций. Кибернетика повышает ранг упорядоченности бытия, она сравнивает очень длинные цепи упорядоченных процессов, выбирая оптимальный результат.

Перечисленные негэнтропийные ряды упорядочивают не только последовательность физических процессов, но и последовательность изменений такого упорядочения. Поэтому генетическая информация в технике включает не только констатации типа: «если пропустить ток через имеющийся проводник, он нагреется и будет светиться…», — но и констатации типа: «свет, излучаемый при прохождении тока, следующим образом зависит от выбора металла для проводника…» Такие констатации позволяют переходить в лампах накаливания от одного металла к другому, вычислять результаты и выбирать новые, наиболее совершенные варианты. То, что мы назвали генетической информацией, включает даже констатации типа: «эффективность светового потока таким-то образом зависит от перехода к таким-то новым принципиальным схемам индуцирования света». Подобная информация позволяет прогнозировать (т. е. находить эффект) и планировать (т. е. определять оптимальный вариант из числа прогнозируемых) переход, скажем, от ламп накаливания к газосветным лампам.

Если растет не только технический уровень производства (за счет приближения к идеальной схеме), но имеет место ускорение технического прогресса (за счет перехода к новой физической схеме), то растет информация, необходимая для такой более высокой динамики. Речь идет об информации, обеспечивающей выбор оптимального результата производственных циклов. Система контрольных и регулирующих приборов дает информацию об изменении скоростей, напряжений, давлений, температур, состава сырья, параметров изделий и т. д. Она, эта система, содержит также информацию о нормативах, о параметрах, которые не должны нарушаться. Контрольная и регулирующая аппаратура получает сигналы о нарушении нормального режима или вообще об отступлении параметров от нормативных. Такие сигналы автоматически вызывают приближение реальных параметров к нормативам. Но здесь нет информации о том, к чему приведет изменение режима, и нет выбора оптимальных изменений. Роль оптимума играет неизменный режим, неизменные параметры. Регулирование приближает реальные параметры к этим неизменным не потому, что они лучше, а потому, что они соответствуют установившемуся технологическому процессу. Информация в этом случае — статическая информация.

Динамическая информация — о результатах изменения режима и изменения технологического процесса — соответствует решению экстремальных задач, получению оптимальных вариантов. В динамическом производстве с практически непрерывным изменением уровня техники получение такой информации становится постоянной задачей производства. Завод должен не только непрерывно выпускать продукцию, но и непрерывно накоплять информацию об оптимальных методах перехода к новому уровню производительности труда. Конечно, еще больший поток такой информации будет исходить из конструкторских бюро, технологических лабораторий и проектных институтов.

Производство динамической информации, производство прогресса становится все более мощной составляющей индустрии, а к 2000 г. может стать вровень с самыми основными отраслями, — с энергетикой, транспортом, машиностроением и т. д. Что входит в состав динамической информации?

Как уже было сказано, сюда входят параметры новых конструкций и технологических процессов, вычисленные результаты и динамика перехода к новой технике и новым идеальным схемам и определение оптимальных конструкций, технологических процессов и схем оптимальной динамики их внедрения.

Прежде всего эта информация включает то, что называют know how — «знаю как». Обычно этот термин обозначает сведения об условиях и наилучших путях освоения новых технологических методов. Накопление know how — это результат длительного эксперимента, заводских испытаний, опыта пробной эксплуатации, опыта первого периода после пробной эксплуатации и т. д. Но выражению know how можно придать и более общий смысл: «знаю, как перейти к более высокой производительности труда», — т. е. можно включить в know how и сами параметры новых конструкций, и технологическую рецептуру.

Существует и другой поток динамической информации. Подъем производительности труда приводит к расширению объема производства, расширенному воспроизводству и освоению новых сырьевых и энергетических ресурсов. К этому же непосредственно ведет технический прогресс и еще больше — научный прогресс и ускорение технического прогресса. Расширенное воспроизводство требует расширения сырьевых ресурсов. Это возможно при быстром накоплении сведений о новых энергетических, сырьевых и продовольственных базах. Вопрос состоит в том, где можно получить уголь, нефть, газ, уран, торий, железо, химическое сырье и т. д. Информацию об этом по аналогии с know how — «знаю как» можно назвать know where — «знаю где». Она требуется сейчас в очень большом объеме. При ускоренном подъеме производительности труда и быстром росте населения вовлечение естественных ресурсов в производство становится также ускоренным. В этом отношении атомный век характеризуется истощением ресурсов, по преимуществу относительным истощением, т. е. необходимостью перехода к менее удобным, чаще всего менее концентрированным, средоточиям. Последние, как правило, требуют при эксплуатации больших удельных затрат энергии. Такой переход компенсируется удешевлением энергии. В предстоящие десятилетия очень важной будет еще одна форма относительного истощения — переход к менее разведанным, менее известным средоточиям. В этом смысле проблема истощения ресурсов — это проблема информации, информации о новых ресурсах. С этим и связано уже начавшееся превращение информации «знаю где» в очень большую по масштабам и затратам отрасль производства информации. Подобно информации «знаю как», информация «знаю где» — геологические, почвоведческие, гидрологические и географические изыскания и разработка соответствующих теоретических дисциплин — становится сопоставимой с основными отраслями народного хозяйства отраслью баланса труда. Поэтому такая информация, как и информация «знаю как», обладает овеществленной в ней частью распределенного гомогенного труда.

Попытаемся несколько развить и конкретизировать эти беглые замечания об информации в атомном веке. Прежде всего несколько слов о взаимодействии информации «знаю как» и информации «знаю где». Это взаимодействие довольно сложное, оно иногда включает обратную связь. Информация о ресурсах (информация «знаю где») может быть аргументом для изменения технической политики, для изменения технологии и соответственных поисков новой информации «знаю как». Но чаще информация «знаю как» играет роль независимого переменного.

Близость понятий информации и негэнтропии видна очень явственно и в «знаю как», и в «знаю где». Если даже придавать информации традиционный смысл, то все равно информация в обоих случаях — это информация о негэнтропии, о какой-то макроскопической упорядоченности. Возьмем ядерную энергию. Она представляет собой по своему происхождению, по своей физической природе энергию связи нуклонов в атомном ядре. Существование атомных ядер, объединение элементарных частиц в эти более сложные структуры, представляет собой некоторую негэнтропию, некоторую упорядоченность бытия.

Само деление ядер — энтропийный процесс, но он создает промежуточные формы негэнтропии, прежде всего температурные перепады.

Любая энергетическая система использует некоторый запас негэнтропии. Классическая энергетика в последнем счете пользуется температурным перепадом между Солнцем и Землей. Неклассическая энергетика — энергетическим перепадом между степенями концентрации энергии в различных ядрах, различиями в «упаковочном коэффициенте», в удельной энергии связи. Эти перепады, эти формы негэнтропии образовались, когда появились различные элементы периодической системы.

Информация о ядерных реакциях включила на некотором этапе сведения о превращении тория в уран-233, что дает возможность строить реакторы-размножители на тории. Такое приращение информации «знаю как» вызвало интерес к оценке запасов тория и к уточнению этих оценок. Тория оказалось много, и это стимулировало дальнейшие исследования и строительство опытных размножителей на тории. Возможность их применения расширяет программу дальнейших поисков тория и в значительной мере снимает проблему истощения запасов урана и на длительный срок — всю проблему исчерпания ресурсов ядерного горючего.

Термоядерные реакции изменили бы еще радикальнее проблему этих ресурсов. Для термоядерного синтеза нужен дейтерий. Здесь проблема «знаю где» даже не ставится. В обычной воде дейтерий содержится в сравнительно постоянной концентрации, его содержание в воде — одна часть на семь тысяч частей, около 0,014 %.

Уже сейчас или, вернее, в ближайшие десятилетия могут существенно уменьшиться абсолютные расходы на разведку новых топливных ресурсов для «классических» станций в связи со снижением стоимости энергии на атомных станциях.* Классические станции, использующие богатые и легкодоступные месторождения топлива, будут в течение какого-то срока успешно выдерживать конкуренцию атомных станций. Но новые станции в районах, где их постройка требует предварительных поисковых работ, окажутся, по всей вероятности, нерентабельными.

Это не уменьшит объема информации «знаю где», но изменит направление ее потоков. Атомная энергетика сделает более широкими поиски сырья. Конечно, и здесь возможно будет отказаться от поисков малоизвестных в смысле их местонахождения ресурсов сырья, если это сырье может быть заменено другим. Химия развивается в направлении, которое обещает в пределе получать все из всего или по крайней мере знать, как это делается. Из всех вариантов, число которых быстро растет, будут выбирать, да и сейчас уже выбирают варианты, гарантирующие наименьшие затраты. Такие варианты, видимо, охватят в качестве исходного сырья все или почти все элементы периодической системы.

При этом будут использоваться и многие бедные месторождения. Проблема относительного истощения сырьевых ресурсов, как уже говорилось, — энергетическая проблема. Переход к бедным месторождениям — это переход к большим затратам энергии на то же количество добываемого сырья. Изучение недр для поисков большинства содержащихся в них минералов, изучение, охватывающее все районы, меняет стиль информации «знаю где», приближает эту информацию к фундаментальным естественнонаучным знаниям.

Здесь мы сталкиваемся с одной из самых важных особенностей науки конца XX столетия. Энергетика атомного века использует процессы, происходящие в ядерных масштабах. Квантовая электроника использует частоты, приближающие исследователя к минимальным простран ственно-временным областям. Кибернетика еще далека от ядерных масштабов, но она уже использует процессы, происходящие в течение миллионных долей секунды, а будет использовать процессы, происходящие в течение миллиардных долей. Чем в меньшие пространственно-временные области проникает исследователь, чем в меньших пространственно-временных ячейках он находит и устанавливает негэнтропию, тем ближе он к проблемам, которые в это время представляются фундаментальными.

Но есть и другая сторона дела. Макроскопические закономерности, определяющие распределение элементов таблицы Менделеева в земной коре, с одной стороны, связаны с закономерностями космической химии, а с другой — с законами микромира. При детальном изучении недр (включая распределение редких элементов) отдельные точки месторождений соединяются в линии, полосы и районы и возникает геохимическая картина распределения минералов, тесно связанная с картиной их генезиса.

Но проблемы генезиса молекул и кристаллических решеток ведут исследователя к фундаментальным проблемам бытия.

В число основных проблем конца XX в. входит продовольственная проблема. Можно было бы сказать, что это проблема номер один, если бы такая характеристика не могла быть отнесена к проблемам энергетики, технологии, связи и множеству других. Воспользуемся случаем и отметим (чтобы еще вернуться к этому) полную непригодность присвоения иерархических званий отдельным элементам того глубоко комплексного преобразования, которое мы имеем в виду, когда говорим об атомном веке. В частности, нужно подчеркнуть связь между атомной энергетикой и продовольственной проблемой. Продовольственная проблема — это энергетическая проблема прежде всего потому, что производство искусственных удобрений — это энергоемкое производство. Искусственное орошение также требует больших затрат энергии. Заметим мимоходом, что получение и доставка пресной воды — энергетическая проблема. Резкое удешевление электроэнергии в конце столетия позволит поднять урожайность по меньшей мере вдвое за счет искусственных удобрений, расширить посевные площади за счет поливного земледелия и снабдить пресной водой далекие от рек населенные районы.

Вернемся к проблеме относительного истощения природных ресурсов в целом, к проблеме перехода к менее концентрированным средоточиям в пределах данного вида сырья, или данной формы использования почв, или данного вида энергии. Добыча менее богатых руд, эксплуатация более глубоких и менее мощных пластов угля, возделывание менее плодородных земель, постройка гидростанций на низких перепадах и аналогичные проявления относительного истощения ресурсов увеличивают удельные вложения и эксплуатационные расходы. Этот процесс будет перекрываться, а иногда вовсе устраняться техническим прогрессом и мелиорацией. Но есть одна сторона дела, тесно связанная с производством информации, которая требует специального внимания. Речь идет о стоимости информации «знаю как» и информации «знаю где».

Для почв и гидроресурсов информация «знаю где» не имеет решающего значения. Для руд значение этой информации больше, а для угля, нефти и газа еще больше.

По-видимому, до 2000 г., а скорее всего и позже снижение удельных расходов на информацию «знаю как» будет сопровождаться увеличением удельных расходов на информацию «знаю где». В последнем счете это объясняется принципиальным различием двух форм информации.

Информация о параметрах, операциях и режиме работы некоторой новой машины всегда имеет в качестве отправного пункта сравнительно точно известные начальные условия и программу. Нам заданы цели технологического процесса, некоторый спектр возможных видов сырья, а мы ищем среди принципиально допустимых схем наиболее эффективную, из допустимых конструктивных решений — оптимальное, из вариантов технологии — оптимальную технологию. Это информация о будущем, прогнозная информация об оптимальном режиме, конструкции и технологических операциях. Она дополняется экспериментом, испытаниями, опытом эксплуатации. Но всегда информация «знаю как» строится по схеме: «если заданы такие-то параметры, то прибор, станок, агрегат, цех, завод будут работать таким-то образом». Подобную схему можно реализовать с помощью кибернетического устройства, которое, получив в программе некоторые исходные параметры, будет перерабатывать информацию, получать варианты итоговых показателей, сравнивать их и находить оптимальный вариант. Таким образом, информация «знаю как» может быть основана на неэмпирической обратной связи, реализуемой в течение кратких интервалов времени.

Иная схема в случае информации «знаю где». Здесь нет ни программы переработки информации, ни исходных точных сведений. Распределение минералов в земной коре — это результат геологической и геохимической эволюции, о которой нам известно очень мало. Мы не знаем ни начального состояния Земли, ни современной геохимической и геологической структуры ее коры с той детальностью, которая позволила бы получить однозначные данные о средоточиях ископаемых. Информация об этих средоточиях — не совсем эмпирическая, довольно много известно о закономерностях совместного нахождения минералов, о структуре земной коры. Не исключено, что когда-нибудь станет возможным моделировать геологическую и геохимическую эволюцию, высчитать координаты месторождений, запасы и характеристики содержащихся в них полезных ископаемых. Мы к этому будем приближаться и когда-нибудь приблизимся. Но это еще очень долгосрочный прогноз.

Конструктор, технолог, испытатель машины, ищущий информацию «знаю как» о ее оптимальных параметрах и режиме, может очень далеко отстоять от лапласовского высшего разума, знающего координаты и скорости частиц Вселенной и предсказывающего все детали ее будущего. Он может располагать данными всего о тысячах деталей, о тысячах степеней свободы, о тысячах параметров, из которых складывается исходная информация. И при этой весьма ограниченной исходной информации он получит с помощью миллионов логико-математических операций точные сведения об оптимальных параметрах производственного процесса. В ином положении геохимик или геолог, который хочет получить информацию «знаю где». Он должен гораздо больше приблизиться к лапласовскому высшему разуму, причем последний уже знает, как распределены сейчас атомы Вселенной, а геологу еще нужно узнать это распределение, правда, не для всей Вселенной, а только для Земли. Эта задача принципиально разрешима, и мы можем представить себе вычислительную машину, выслушивающую информацию о результатах изысканий и однозначно указывающую наиболее вероятные координаты месторождений всех необходимых ископаемых. Но пока информация «знаю где» — еще весьма эмпирическая информация, она опирается на очень большие трудовые затраты и стоит очень дорого. Одной из задач технического прогресса в предстоящие десятилетия будет частичная замена информации «знаю где» информацией «знаю как». Пример такой замены в пределах нашего столетия — переход от урана к торию. Пример, может быть выходящий за пределы нашего столетия, — термоядерные реакции и использование дейтерия. В подобных случаях переход к новой технической схеме (иногда к новому физическому циклу) позволяет использовать ресурсы, о которых мы больше знаем, которым непосредственно не угрожает относительное истощение.

Таким образом, относительное истощение в большинстве случаев выражается в повышении стоимости информации «знаю где». Удельной информации — на весовую единицу или на киловатт-час энергии. Что же касается информации «знаю как», то здесь стоимость единицы информации упадет. Но зато вырастет объем информации. Информация по стоимости, т. е. по овеществленному в пей труду, становится сопоставимой с основными отраслями народного хозяйства. Она входит в основную схему распределения труда, в основную структуру производства.

Перейдем к вопросу об этой структуре и ее динамике.

Два потока информации, о которых шла речь, — поток информации «знаю как» и поток информации «знаю где» — не содержат ответа на один кардинальный вопрос. На вопрос «зачем?» Зачем нужно получать информацию, зачем нужно переходить к новым конструкциям и процессам, зачем нужно искать и осваивать новые источники и новые средоточия энергии и сырья? Этот вопрос совсем не метафизический. Это очень важная (практически важная) экономическая составляющая вопроса о смысле жизни человечества, о смысле его эволюции, о смысле цивилизации и прогресса. В заключительной главе этой книги мы подойдем несколько ближе к этому более общему вопросу. Сейчас нам нужен ответ на вопрос «зачем?» применительно к темпам и направлениям научно-технического прогресса. Без этого нельзя говорить об оптимизации производства и о его оптимальной динамике.

Когда речь идет об оптимальной конструкции или оптимальном технологическом процессе, т. е. о системе геометрических, физических, технических и экономических величин (о расстояниях, интервалах времени, массах, энергиях, скоростях, ускорениях, напряжениях, температурах, давлениях, удельных расходах и т. д.), ни одна из этих величин не фигурирует в качестве целевой нормы, к максимальному значению которой стремится конструктор. Максимальное значение должна приобрести какая-то итоговая функция этих величин. Ее максимальному значению соответствуют их оптимальные значения, оптимальная технология. Вопрос «зачем?», от которого неотделима трудовая, целесообразная деятельность человека, решается здесь как вариационная задача нахождения максимального или минимального значения целевой нормы. Новая конструкция вводится, чтобы получить наибольший коэффициент полезного действия при заданных затратах или наибольшую скорость (ускорение, грузоподъемность) на единицу мощности и т. д. В общей форме целевой нормой является возрастание негэнтропии при компенсирующем возрастании энтропии.

Попытаемся задать этот же вопрос «зачем?» применительно к народному хозяйству в целом. Кажется естественным рассматривать потребление как цель производства и брать уровень потребления в качестве функции, максимальному значению которой соответствует оптимальная структура производства. Но речь не может идти только о пище, жилище, вообще о том, что называют непроизводительным потреблением. Структура производства, которая обеспечивала бы максимально высокий уровень удовлетворения указанных потребностей за счет минимальных вложений в энергетику, металлургию и машиностроение, — такая структура обеспечивала бы высокий уровень потребления очень недолго; поэтому она не может претендовать на титул оптимальной структуры. Значит, нужно взять общий уровень потребления, включая производительное потребление сырья, энергии и машин. Тогда потребление становится псевдонимом производства, а его структура — псевдонимом структуры производства, и нам снова нужно искать величину, максимальное значение которой означало бы оптимальное соотношение затрат на различные отрасли народного хозяйства — его оптимальную структуру.

В качестве целевой нормы народного хозяйства может фигурировать производительность общественного труда. Производство, которое своей структурой обеспечивает высокую производительность труда, исключает снижение потребления после краткого периода изобилия; оно включает достаточно мощные отрасли энергетики, металлургии, машиностроения и добывающей промышленности, чтобы гарантировать длительное неснижающееся изобилие. Вместе с тем высокая производительность труда требует высокого уровня личного потребления. По-видимому, высокая производительность труда с гарантированным сохранением технического уровня производства может быть целевой функцией производства: максимальному уровню производительности общественного труда соответствует оптимальная структура производства.

Но неужели неизменный уровень производительности труда является целью производства? Неужели человечество удовлетворится такой целью? Даже самый высокий уровень производительности труда, если он не повышается дальше, не может удовлетворить человека, после того как на глазах одного поколения изменились условия и эффект его производственной деятельности. Сейчас целевая норма производства должна включить кроме меры производительности труда меру возрастания этой величины, показатель скорости технического и экономического прогресса. Для структуры народного хозяйства это означает включение новой мощной отрасли — производства технологической и геолого-географической информации.

Однако для человека второй половины XX в. и этого недостаточно. Он современник не только технической, но и научной революции. Причем научной революции, которая с середины столетия приводит к ускорению прогресса. Показатели производительности труда и скорости ее возрастания должны быть дополнены показателем ее ускорения. Целевой нормой стационарного или квазиста-ционарного (медленно развивавшегося с незаметными для поколения изменениями) производства мог быть уровень общественого богатства. Для равномерно (с эпизодическими ускорениями) развивающегося производства его целевая норма включает скорость прогресса. Для производства в атомном веке — ускорение прогресса.

Итак, ответ на вопрос о целевой норме производства и его динамики указывает на некоторую величину, компонентами которой служат производительность общественного труда, скорость ее возрастания и ускорение возрастания. Мы не будем здесь уточнять, каким образом входят указанные компоненты в целевую норму производства — фундаментальный экономический индекс[66]. Цель каждого изменения структуры вложений, структуры национального дохода, структуры потребления состоит в приближении этого индекса к максимальному значению. В частности, в этом состоит цель вложений в науку, в систему конструкторских, технологических и проектных институтов (информация «знаю как») и в изыскания (информация «знаю где»).

Мы видим, что вопрос «зачем?», отнесенный к производству и его динамике, оказывается программой еще одного потока информации. Нужно получить информацию об эффекте каждой экономической акции, каждого пере распределения интеллектуальных и материальных усилий и ресурсов. Нужно ответить на вопрос: что дает каждая акция, в какой мере она повышает уровень жизни людей, в какой мере она повышает их власть над природой, в какой мере она ведет к возрастанию темпа прогресса? Иными словами: каков эффект каждой акции, выражающейся в максимальном возрастании фундаментального экономического индекса? К потоку научно-технической информации («знаю как») и потоку информации о природных ресурсах («знаю где») прибавляется поток экономической информации: «знаю зачем».

Значение ее невозможно переоценить. Речь идет о смысле научного и технического прогресса. Он характеризуется сейчас переходом к атомной энергетике. Отсюда название «атомный век». Атомный век отличается новой технологией, применением квантовой электроники, управлением эволюцией живых организмов. Он характеризуется большим сдвигом в характере труда. Атомный век можно назвать веком кибернетики. Это век информации. Но определения атомного века должны быть дополнены фундаментальным определением цели и эффекта всех перечисленных научно-технических тенденций. Это экономическая информация, позволяющая оптимизировать структуру производства. Научные и технические возможности в атомном веке стали так велики, что вопрос об их оптимальной реализации стал для человечества самым кардинальным вопросом. Поэтому атомный век — это век экономики.

Оптимизация использования научно-технических тенденций — это экономическая и эконометрическая задача. Она состоит в следующем. Периодически, с помощью вычислительных машин и учитывая, что могут дать наметившиеся научно-технические тенденции, определяется оптимальное изменение структуры производства и потребления. При этом принимают во внимание, как повлияют на структуру переход к атомной энергии, развитие новой технологии, применение новой электронной автоматики, в какой мере должны измениться бюджеты семей, какие новые культурные потребности должны войти в эти бюджеты, каким темпом надо развивать научно-технические исследования, геологические изыскания, экспериментальные и теоретические работы по фундаментальным проблемам. Из большого числа вариантов выбирают оптимальный, который обеспечивает максимальное значение фундаментального экономического индекса, т. е. уровня производительности труда, скорости и ускорения его роста. Если представить себе пространство п измерений, где каждая точка определяется п координатами, то можно считать такую точку описанием структуры производства: координаты точки — это объемы каждой из п планируемых отраслей производства. Можно ввести еще одно измерение — время — и получить (п +1) — мерное пространство динамики структур. Переход из одной точки в другую, с другими координатами — это переход к новой структуре, изменение структуры производства. Если соединить различные точки, соответствующие ряду предстоящих лет, мы получим кривую, описывающую динамику структуры на эти годы.

Без таких кривых, без прогнозов на предстоящие годы нельзя определить тенденции производства, тенденции, которые ведут к росту производительности труда, к ускорению этого роста. Поэтому для динамической оптимизации производства (преследующей в качестве цели не только рост уровня, но и рост скорости — ускорение производительности общественного труда, учитывающей тенденции, стремящейся не только к оптимальному состоянию, но и к оптимальной динамике) прогнозы являются необходимым методом.

Но, как уже говорилось, прогнозы, исходящие из сдвигов в науке, не могут быть однозначными. Существует довольно явственная связь между широтой научных проблем и неопределенностью экономического эффекта их решения. Контрольные исследования в заводских лабораториях дают однозначный результат — соблюдение установленных нормативов. Конструкторские и технологические поиски новых машин и процессов приближают технику к идеальным циклам, но мера приближения не может быть точно определена заранее. Собственно научные исследования, безусловно, вызывают ускорение технического прогресса, но конкретные результаты каждого исследования выясняются лишь ретроспективно.

Для фундаментальных исследований неопределенность усугубляется. Здесь эксперимент может не только привести к неожиданному ответу на заданный природе вопрос, но и показать бессмысленность вопроса. В общем, как уже было сказано, можно считать, что чем динамичнее эффект исследования, чем на более высокую по порядку производную уровня производительности труда (скорость, ускорение, скорость ускорения) воздействует это исследование, чем глубже этот эффект, тем он неопределенней. Но именно из таких эффектов (уровень, скорость, ускорение роста производительности труда) складываются компоненты фундаментального экономического индекса.

Отсюда неизбежность многошаговой оптимизации экономической структуры. Каждый прогноз вытекает из локальной констатации. Но в силу неопределенности результатов научно-технических тенденций через некоторое время требуется вновь определить эти тенденции, вновь прогнозировать их результаты, вновь сравнивать различные варианты, вновь выбирать оптимальный вариант. Современная наука, способная сообщить производительности труда непрерывный подъем и даже непрерывное ускорение, заставляющая вводить в целевую норму производные от уровня производительности труда, требует многошаговой (а практически непрерывной) оптимизации.

При этом каждая новая корректировка прогнозов и корректировка оптимальной динамики производства будет предусматривать некоторый комплекс сдвигов в энергетике, технологии, транспорте, связи, информации, науке, потреблении и культуре, сдвигов, приуроченных к некоторому единому сроку. Современная оптимизация производства — это комплексная оптимизация. Она включает большие, долгосрочные концентры предвидимых сдвигов, связанных друг с другом и приурочиваемых примерно к одному и тому же условному времени. В настоящее время такой концентр определяется как практическое воплощение неклассической науки. Он включает, как уже говорилось, атомную энергетику как преобладающую составляющую энергетического баланса и другие прогнозы.

В заключение несколько слов об главной причине превращения информации в одну из основных отраслей народного хозяйства. Основная причина лежит в характере неклассической науки, в свойственной ей тенденции отыскивать и устанавливать гармонию, негэнтропию, упорядоченность в микромире. Об этом уже говорилось. Классическая статистика игнорирует индивидуальные микрообъекты и микропроцессы. Соответственно то, что превращает энергетику и технологию в нечто упорядоченное, имеет в классических рамках существенно макроскопический характер. Возьмем некоторую серию производственных процессов, каждый из которых определяет характер следующего за ним процесса. Уголь, поднятый на поверхность, грузится в вагоны и отправляется на электростанцию. Негэнтропия — сосредоточение в угле химической энергии — переходит в негэнтропию температурного перепада между котлом и конденсатором на электростанции и затем в перепад электрических потенциалов. Энергия перемещается по высоковольтной линии и вместе с ней — негэнтропия, которая определяет направление технологических процессов в предприятиях-потребителях. Закон сохранения энергии при этом гарантирует лишь эквивалентность исходных и конечных значений энергии. Какие именно процессы происходят на каждой стадии в переходе от шахты до потребителя электроэнергии — это определяется не энергией, а негэнтропией, упорядоченностью, перепадами. Роберт Эмден в очень интересной заметке «Почему мы топим зимой» писал: «Будучи студентом, я с пользой прочитал книгу Ф. Вальда «Царица мира и ее тень». Имелась в виду энергия и энтропия. Достигнув более глубокого понимания, я пришел к выводу, что их надо поменять местами. В гигантской фабрике естественных процессов принцип энтропии занимает место директора, который предписывает вид и течение всех сделок. Закон сохранения энергии играет лишь роль бухгалтера, который приводит в равновесие дебет и кредит»[67].

В фабрике искусственных процессов, т. е. в пределах фабрики в прямом смысле, положение становится особенно ясным. Ходом процессов руководит закон энтропии. Он заставляет тепло переходить от топки к конденсатору и превращаться при этом в механическую работу, а энтропия в более широком смысле управляет и другими процессами. Как именно действует энтропия, это зависит от исходных перепадов — от негэнтропии. Негэнтропия переходит от одного процесса к другому, и такой переход превращает производство в нечто упорядоченное.

В классической физике фигурирует макроскопическая негэнтропия. В применениях классической физики характер производственных процессов определяется макроскопической упорядоченностью бытия, макроскопическими средоточиями массы и энергии. Поэтому все формы классической негэнтропии связаны с большими масштабами передаваемой энергии или перебрасываемых масс. Производственные процессы в указанном выше примере связываются подъемом на поверхность и перевозкой по железной дороге больших масс угля и передачей по проводам больших количеств энергии.

Чтобы обеспечить упорядоченность производственных процессов без такой переброски значительных масс и энергий, можно воспользоваться информацией, которая в «классическом» производстве всегда проходит через человека. В «неклассическом» производстве она может быть автоматической. Это значит, что в единую цепь связанных друг с другом производственных процессов включаются процессы, переносящие очень небольшую энергию и очень большую негэнтропию. Примером может служить управление производством через реле, включающие сильноточные цепи, через сервомоторы и т. д. Более сложные команды требуют, чтобы перемещения масс и энергий были минимальными, а объем информации очень большим.

В этом отношении, как и во многих других, образцом для техники служит мозг человека. Дж. Томсон приводит следующий пример. Человек разложил колоду карт в определенном порядке. Он очень сильно изменил энтропию системы из 52 карт, которая перешла от полного беспорядка к полной упорядоченности. При этом в мозгу затрачивается энергия меньше той, что выделяется при сгорании молекулы царифина — 6,4 10-12 эрг [68].

Все большее использование процессов, которые в какой-то, пока небольшой, мере приближаются к такому соотношению между энергией и негэнтропией, будет очень важной линией прогресса в конце XX в. Речь идет об «инспираторах», о переносах малых энергий, инспирирующих события, в которых участвуют большие энергии. При такой инспирации процесс, несводимый к передаче энергии (речь, радиосигнал, фотосигнал и т. д.), вызывает собственно энергетические процессы. Схема этого процесса воплощается («кодируется») в другой размерности, в явлениях другой физической природы, совершенно других пространственных и временных масштабах, а затем становится «инспиратором» запрограммированных событий.

Чтобы такие процессы, передающие большую негэнтропию при малых перебросках энергии, могли передавать информацию об очень сложных схемах, нужно было воспользоваться динамической неустойчивостью электронов в вакууме и в кристаллических решетках, т. е. перенести активное вмешательство в процессы природы и исследование этих процессов в очень малые пространственно-временные области. Это и позволило в широких масштабах заменить передачу энергии и масс передачей информации. В содержание информации входит сейчас не только поведение макроскопических тел, но и поведение отдельных частиц. Мы уже говорили, что квантовая неопределенность этого поведения имеет мало общего с классической неопределенностью поведения отдельных частиц в статистических ансамблях.

Прямой и явной целью производства становится нег-энтропия, упорядочение, не только макромира, но и микромира. Такая констатация позволяет нам разъяснить часто встречающееся недоразумение.

Один из основных прогнозов, изложенных в этой книге, — это непрерывный рост и, более того, непрерывное ускорение роста производительности общественного труда. Как долго может продолжаться такое ускорение? Если производство домов, машин, продовольствия, одежды, телевизоров и т. д. будет расти с ускорением достаточно долго, то ограниченная площадь земной поверхности не вместит изделий и Вселенная станет свидетельницей потока всевозможных товаров, несущихся в мировое пространство со все растущей скоростью, причем только закон сохранения вещества убережет нашу планету от такой ситуации. При всей своей карикатурности она отражает серьезное затруднение прогноза динамической экономики. Некоторые экономисты предполагают, что рост экономических потенций может смениться периодом стационарного состояния. Если говорить о периоде, который следует за атомным веком, о послеатомной цивилизации, то в этой книге, в ее последующих главах, содержится другой прогноз. Атомному веку свойственно непрерывное ускорение, послеатомному — непрерывное возрастание самого ускорения, ненулевая третья производная от производительности труда.

Что же касается призрака всемирного потока изделий, то нужно напомнить, что развивающееся на Земле производство — это производство негэнтропии, это упорядочение мира (макромира и микромира). Число упорядоченных сочетаний частиц, из которых состоят гидросфера, литосфера, атмосфера и т. д. — ближайшие объекты преобразующей деятельности человека, практически бесконечно. Соответственно бесконечно число тех начальных условий, которые определяют структуру и динамику ноозон — прежде всего рационально преобразованной гидросферы, литосферы, иначе говоря ноосферы. Мы видели, что это введенное В. И. Вернадским понятие сейчас обобщается: рациональное преобразование охватывает области далеко отстоящие от Земли, ноосфера оторвалась от нее, упорядоченные сочетания частиц и волн (в том числе пронизывающие космос волны радиостанций) охватывают астрономические расстояния, и, с другой стороны, негэнтропийное упорядочение бытия охватывает не только новые концентрические слои, окружающие Землю, но и новые зоны спектров и новые типы дискретных элементов вещества. Рост негэнтропии ограничен только астрономической шкалой времени, т. е. практически может быть бесконечным даже при ускорении и росте ускорения. Он охватывает микромир, и здесь упорядочение хромосом путем «прицельного» облучения или когерентные лучи в оптическом, ультрафиолетовом и рентгеновском диапазонах указывают на неисчерпаемость прогресса. Мы возвращаемся, таким образом, к уже рассмотренной связи между оптимизмом и безграничностью познания и преобразования мира.

Следует отметить, что современное представление об информации расширяет понятие ноосферы еще в одном отношении по сравнению со старым понятием. Это старое понятие имело характер констатации: такая-то часть поверхности и недр Земли отражает в своей структуре происходившее в течение ряда лет воздействие человеческого разума. Теперь понятие ноосферы имеет и другой смысл — прогнозный; в современной жизни существенное значение приобрела информация об эвентуальной ноосфере, о предвидимых изменениях в структуре, поверхности и недрах Земли в результате намеченных экономических начинаний. Эти изменения должны создавать действительно ноозоны, зоны разума, заранее рассчитанные и оптимальные для человека структуры в атмосфере, гидросфере и атмосфере. Подобные расчеты становятся важным элементом информации «знаю где», а следовательно и информации «знаю как».

De rerum natura

Для современной эпохи характерно сближение самых общих гносеологических задач науки с ее прикладными задачами. Поиски общего ответа на вопрос о природе вещей приобретают непосредственное значение для экономического развития, для его ускорения. В круг практически необходимой информации, создающей ноозоны, повышающей негэнтропийную упорядоченность мира, входит информация о все более общих закономерностях мира. Вместе с такой информацией в число непосредственных факторов прогресса входят идеалы науки.

Будем рассматривать науку с чисто гносеологической стороны, не касаясь ее практических целей, как процесс объяснения наблюдаемых явлений. Это слово — «объяснение» — меняет свой смысл, никогда не сводясь к феноменологическому указанию на ближайшие другие явления и никогда в действительности не включая последней причины явлений. Изменение смысла «объяснения» связано с изменением научного идеала. «Идеал» — это имманентный импульс развития науки, то, к чему стремится наука. Позже, в конце этой части книги, в особом очерке, речь будет идти о проблеме цели в науке, о науке как целесообразной деятельности, о связи науки с целесообразным преобразованием мира. Здесь же речь идет о внутренних имманентных импульсах, о научных идеалах.

Каждая эпоха в науке характеризуется некоторыми идеалами физического объяснения природы. Эйнштейновское «внутреннее совершенство» физических теорий измеряется связью этих теорий с универсальными принципами такого идеального объяснения. Прогноз на 2000 г. должен ответить на вопрос: к какому идеалу научного объяснения будут стремиться в последние десятилетия нашего столетия? Когда речь идет о фундаментальных исследованиях, мы можем очень мало сказать о предвидимых результатах, но направление этих исследований видно яснее, оно определяется современным идеалом науки, который сейчас вырисовывается все отчетливей.

Современный идеал науки отличается от классического идеала не только своим содержанием, но и своей явной динамичностью. Современная наука видит в том идеале научного объяснения мир, к которому она стремится, нечто меняющееся уже на глазах одного поколения. Чтобы сформулировать современный идеал научного объяснения, его следует сравнить с теми идеальными схемами, которые определяли в прошлом стиль и направление научной мысли.

В прошлом наука всегда искала объекты, существование и поведение которых в последнем счете объясняют все происходящие в природе процессы. В греческой натурфилософии появились две концепции: мир подобен воде и мир подобен песку. Первая, континуальная, концепция считала реальной основой явлений изменения, деформации и смещения частей непрерывной субстанции. Этим частям приписывали различные качественные предикаты либо считали субстанцию гомогенной. Вторая, атомистическая концепция по большей части выдвигала в качестве кирпичей мироздания движущиеся дискретные части гомогенной субстанции, окруженные демокритовым «небытием» — пустым пространством.

Первоначально господство принадлежало континуально-качественному ответу на вопрос о субстанции. Аристотелевы стихии — качественно различные части непрерывной субстанции — своими сочетаниями образуют весь окружающий нас многокрасочный мир. Идеал науки — свести это многообразие к сочетаниям четырех элементов. Такой взгляд продержался до XVII в. Другой ответ на вопрос о субстанции — атомистика. Идеал атомистики — сведение всех явлений к пространственной группировке частиц, не обладающих никакими качественными признаками. Этот ответ на вопрос о субстанции и этот идеал научного объяснения оказали колоссальное воздействие на мировую культуру, на запросы человека, познающего и подчиняющего себе природу, и даже на прогнозы, в которых наука рисует свое будущее, вплоть до современных прогнозов. Частично дошедшие до нас фрагменты Демокрита и Эпикура и сохранившийся шедевр поэтической речи и научной мысли — поэма Лукреция «О природе вещей» (De rerum natura) остались не только памятником мысли, ищущей последние начала бытия, но и импульсом, ускоряющим эти поиски. Современная мысль ищет новые фундаментальные принципы бытия, зная, что они не последние. Но это только значит, что поэма Лукреция и все, что за ней стоит, будет всегда сохранять свое «импульсное», ускоряющее значение для человеческой мысли, которая хочет знать, в чем состоит rerum natura, природа вещей.

Идеалы античной атомистики были подняты наукой XVII в. и легли в основу классического учения о субстанции и классического идеала науки. Впрочем, ответ Декарта — субстанция тождественна с пространством — исключил из картины мира пустое пространство, фигурировавшее в античной атомистике. Но это мало изменило дело. Если атомы не обладают качественными предикатами, их трудно отличить от окружающего пустого пространства. Здесь то же самое затруднение, с которым не мог справиться Декарт, не нашедший границы, отделяющей тело от окружающих тел. Его пытались устранить Лейбниц и Ньютон. Лейбниц приписал телам отличающие их от частей пространства динамические свойства. Тела обладают инерцией — они сопротивляются силам, которые стремятся изменить их состояния. Они способны влиять на состояние других тел. Части пространства лишены такой способности. В этом — отличие субстанции, разделенной на дискретные тела гомогенной материи, от пространства.

Ньютон, пользуясь понятием силы, нарисовал картину взаимодействующих тел. Все процессы в природе сводятся к перегруппировке тел и объясняются взаимодействиями тел. Найти эту подоснову всех процессов — таков классический идеал науки, то, что Эйнштейн назвал программой Ньютона.

Декарт, Лейбниц и Ньютон объясняли взаимодействием тел их поведение, положения, импульсы и ускорения. Что же касается существования тел, то оно было выведено за пределы физики и объяснялось метафизически. Только один мыслитель XVII в. хотел ввести существование тел в пределы физики. Это был Спиноза. Он рассматривал природу как причину своего собственного существования (causa sua), как нечто взаимодействующее с собой и не требующее внешней причины для своего существования. Эта идея не нашла воплощения в классической физике.

С мыслью о Всбленной, которая сама является причиной существования каждой из составляющих ее частиц, мы встретимся при изложении современных неклассических идей. Сейчас мы только отметим, что идея Спинозы находится в главном фарватере физической мысли, несмотря на то, что ей пришлось два столетия дожидаться своего физического воплощения, т. е. появления теории, которая связывает, хотя бы гипотетически, концепцию существования тел с экспериментальными наблюдениями и претендует на объяснение экспериментальных результатов, не находящих иного объяснения.

Классическая наука объясняла существование тел тем, что некоторые более простые тела сгруппировались и образовали единое тело. Его свойства объясняются структурой, составом, расположением, взаимодействиями и движениями составляющих его элементов. Но такое объяснение отсылало от одной ступени структурной иерархии мира к другой. В конце стоял ответ, выводивший существование элементарных, далее недробимых частиц за пределы физического объяснения.

Изменение положения тел, их смещение, их ускорение теряли смысл без субстанциальных свойств. Но откуда взялись эти субстанциальные свойства? На этот вопрос классическая наука не давала ответа.

Как уже было сказано, Лейбниц и Ньютон наделили вещество свойством, которое отличает его от пространства, — способностью частей вещества взаимодействовать друг с другом. Бошкович считал частицы непротяженными центрами сил. Взаимодействие позволяет физически, в эксперименте, определить массу и заряд тела. Фарадей приписал взаимодействиям субстанциальный характер. Сила — это упругая силовая трубка, а частицы — это только концы силовых трубок, особые точки силового поля. В теории Максвелла поле вовсе эмансипировалось от тел; электромагнитные силы — замкнутые ‘ вихревые линии электромагнитного поля — могут существовать и двигаться в пространстве, где нет обычных тел, обладающих массами и зарядами.

Но все эти классические ответы на вопрос о субстанции, об отличии вещества от пространства, физического существования от поведения, в сущности, не выходили за пределы поведения и не решали проблемы существования. Взаимодействие частицы с другими частицами выражается той или иной, зависящей от поля траекторией, скоростью и ускорением частицы. Теперь мы бы сказали, что взаимодействие так или иначе искривляет мировые линии взаимодействующих частиц. Но здесь мы снова приходим к уже упоминавшейся сквозной проблеме, которая появляется в связи с каждой попыткой геометризации картины мира: чем же отличается мировая линия частицы от геометрического образа, чем она заполнена, каковы негеометрические события, заполняющие мировую линию?

Ни классическая наука в собственном смысле, ни теория относительности не давали ответа на этот вопрос. А о нем задумывались давно. В сущности спонтанные отклонения частиц от макроскопически предуказанного пути — clinamen Эпикура и Лукреция — должны были гарантировать подлинное бытие атома. Эпикурейцы шли и дальше. Они говорили не только о «бунте» атома — его спонтанном отклонении, но и о попеременном уничтожении и возникновении частицы на ее пути. Александр Афродизийский писал в начале III в. н. э. об эпикурейцах, что они думают, будто «движения нет, а есть только результат движения», т. е. частица, исчезая и затем возникая в другой клетке дискретного пространства, как бы движется вперед.

Почему в книге о прогнозах на 2000 г. мы уходим на две с лишним тысячи лет назад в прошлое, к Эпикуру? Это объясняется радикальным характером прогноза на 2000 г. в области фундаментальных знаний. Чем радикальней предвидимый переход к новым представлениям, тем радикальней связанная с ним ретроспективная переоценка ценностей, тем более мощный пласт уходящих в прошлое, привычных представлений поднимает и поворачивает современная мысль. При этом она не только меняет то, что в течение тысячелетий казалось незыблемым, но и находит в прошлом недоумения, противоречия, вопросы, адресованные будущему.

В чем же состоит то новое, что позволяет сейчас переоценить самые укоренившиеся представления? В чем состоит то радикальное обновление стиля фундаментальных исследований и те новые принципы науки, которые несут в себе зародыш новой, послеатомной цивилизации? Исходная область новой научной революции — теория элементарных частиц. Это никого не может удивить. То, что в каждую эпоху кажется элементарными частицами, представляет собой наиболее фундаментальное звено концепции мира. В течение двух тысячелетий элементарные частицы назывались атомами и казались состоящими из гомогенной, бескачественной материи. Потом эти атомы разделились на протоны, нейтроны и электроны, различающиеся по массе, заряду и продолжительности жизни. Потом к ним прибавились еще новые типы частиц, их сейчас десятки, быть может сотни. Новая ступень теории элементарных частиц будет состоять в систематизации известных сейчас частиц, а также новых, которые будут еще найдены. Но эта систематизация, по-видимому, будет принципиально отличаться от таблицы Менделеева. Физическая расшифровка периодической системы была классически структурной: атомы отличаются числом и группировкой субатомов. Маловероятно, что те частицы, которые сейчас называют элементарными, окажутся структурами, состоящими из меньших частиц. Скорее, их различия предстанут перед нами как выражение различных по характеру и интенсивности связей с другими частицами, может быть, с Вселенной в целом.

В середине нашего столетия исследование космических лучей и потоков частиц высокой энергии, которую они приобрели в ускорителях, привело к значительному расширению сведений об элементарных частицах. Дело не только в том, что увеличилось число известных нам типов элементарных частиц. Это увеличение ставит перед наукой весьма фундаментальные вопросы. Они еще далеко не решены, и современный физик с двойственным чувством воспринимает быстрое расширение таблицы элементарных частиц, даже с более сложным, чем двойственное. С одной стороны, налицо почти непрерывное расширение представлений о кирпичах мироздания, т. е. фундаментальных знаний. Открытия в этой области, которые когда-то были поворотными вехами, открывавшими новые эпохи в науке или во всяком случае длительные периоды (таким было открытие первых ставших известными элементарных частиц — электрона, протона, фотона), следуют сейчас с большой частотой. Отчасти обнадеживающей и вместе с тем (в этом состоит вторая сторона дела) пугающей. Потому что чем больше различных по типу элементарных частиц, тем, по-видимому, дальше не только классический идеал — объяснение мироздания движением частиц гомогенной материи, но вообще объяснение мироздания движением его элементарных «кирпичей».

Но в данном случае есть и третья сторона дела, третья компонента того ощущения, которое индуцируется потоком все новых типов элементарных частиц. Скажем в скобках, что эти «компоненты ощущения» являются по существу прогнозами дальнейшего развития теории элементарных частиц. Так вот, третья компонента состоит в подозрении, что образ кирпичей не подходит, что мироздание не состоит из «кирпичей».

Задача настоящей главы — проиллюстрировать некоторыми условными гипотезами эту компоненту, этот прогноз дальнейшего развития науки. Речь идет не столько о физических гипотезах, сколько об историкофизических; они относятся не к предполагаемой структуре мира, а к предполагаемому появлению и развитию физических концепций. Разумеется, эти концепции в какой-то мере описывают реальную структуру мира, но все же высказанная только что оговорка имеет некоторый смысл: конкретная, историко-физическая гипотеза может быть весьма условной и тем не менее иллюстрировать действительную, уже наметившуюся тенденцию научной мысли. Здесь мы попытаемся выяснить, возможна ли такая дальнейшая эволюция фундаментальных исследований, которая не только увеличит или уменьшит число кирпичей мироздания, но и откажется от этого понятия как исходного.

Именно таким исходным понятием были кирпичи мироздания, постулировавшиеся классической наукой, включая и ее античные атомистические прообразы, и те классические конструкции, которые фигурируют в современной науке. Атомы Демокрита и их позднейшие модификации, принадлежащие Гассенди и другим мыслителям нового времени, непроницаемые тела картезианской физики, динамические центры Бошковича, заряды, фигурирующие в картине электромагнитного поля, элементарные частицы, если игнорировать их аннигиляции и порождения, — все эти конструкции отвечали на вопрос о поведении элементов бытия, а не об их существовании.

Есть основания думать, что весьма общей тенденцией дальнейшего развития науки будет уже наметившаяся тенденция, направленная к объяснению существования эмпирически наблюдаемых типов элементарных частиц, к объяснению, почему они обладают именно такими, а не иными массами и зарядами — свойствами, отличающими один тип частиц от другого.

Мы подойдем к проблеме существования частиц, обратив внимание прежде всего на массу и заряд частицы каждого типа. Игнорируя эти свойства, мы не можем отличить частицу от точки, в которой она находится в данный момент. Изменения заряда и массы — это трансмутация частицы, превращение частицы одного типа в частицу другого типа. Превращения электронно-позитронных пар в фотоны или фотонов в электронно-позитронные пары не сводятся к переходу из одной мировой точки в другую, эти процессы выпадают из картины движущихся тождественных себе частиц. Трансмутации выпадают из стиля классической физики, которая мыслила о природе с помощью пространственно-временных моделей поведения неуничтожаемых частиц. Наука возвращается к эпикурейскому представлению, изложенному Александром Афродизийским: в очень малых областях нет движения, а только «результат движения», смещение как результат аннигиляций и порождений частицы данного типа. Но слово «возвращение» не нужно понимать как повторение. Науке не нужны ни модернизация старого, ни архаизация нового. Возвращаясь назад, наука подбирает не ответы, а вопросы и отвечает на старые вопросы по-новому.

Новые возможности, позволяющие ответить на вопрос, заданный два с лишним тысячелетия назад, состоят в наблюдении сильных взаимодействий и манипулировании этими сильными взаимодействиями.

В современной физике существует представление об иерархии все более сильных взаимодействий. Мы можем здесь ограничиться двумя звеньями этой иерархии, которая начинается ультраслабым, гравитационным взаимодействием, после которого идет слабое, затем электромагнитное и, наконец, сильное взаимодействие. Электромагнитное взаимодействие — это взаимодействие всех электрически заряженных частиц с электромагнитным полем, т. е. с фотонами. Его интенсивность характеризуется неким числом V137, о природе которого было высказано немало противоречивых суждений, не приведших пока к отчетливому представлению. Мы можем приблизиться к некоторому первоначальному и совсем не строгому представлению, если будем считать это число мерой «некартезианских» эффектов взаимодействия, т. е. эффектов, несводимых к изменению поведения тождественных себе частиц. Чем больше константа, измеряющая интенсивность взаимодействия, тем меньшее время охватывает это взаимодействие и тем больше вероятность того, что оно вызовет не изменение поведения частицы, а ее превращение в частицу другого типа. Константа, характеризующая электромагнитное взаимодействие, мала. Поэтому электромагнитное взаимодействие сравнительно редко (по сравнению с сильным взаимодействием и при не очень больших энергиях взаимодействующих частиц) приводит к трансмутациям. Сильное взаимодействие характеризуется во много раз большей константой, оно происходит в течение интервала времени порядка 10-23 сек (т. е. в миллионы раз быстрее, чем электромагнитное взаимодействие, занимающее время порядка 10-15—10-17 сек) и приводит к трансмутационным актам.

Эти акты происходят, вообще говоря, когда частицы обладают очень высокими энергиями, т. е. движутся с высокими скоростями. Поэтому изучение трансмутаций частиц требует, чтобы взаимодействующим частицам придавали большие скорости. Трансмутационные акты могут происходить и в случае электромагнитного взаимодействия: если фотоны обладают высокой энергией (превышающей энергию массы покоя электрона и позитрона вместе взятых), то, несмотря на небольшое значение постоянной V137, фотоны будут превращаться в электроннопозитронные пары. Здесь соотношения теории относительности приводят не только к необходимости учитывать некоторое изменение массы, зависящее от скорости частицы. Здесь масса, соответствующая кинетической энергии, становится одного порядка и даже больше массы покоя новых частиц и переходит в массу покоя., Для возникновения новых частиц требуется, чтобы энергия имеющихся частиц превысила энергию покоя генерируемых частиц, пропорциональную их массе покоя.

Подобные процессы выходят за рамки теории относительности как учения о мировых линиях тождественных себе тел. Эти процессы следует назвать уже не релятивистскими, а ультрарелятивистскими. Переход из релятивистского мира в ультрарелятивистский — это переход от поведения тождественных себе частиц того или иного типа к существованию частицы данного типа, ее возникновению или уничтожению, т. е. к трансмутации частицы иного типа в частицу данного типа или частицы данного типа в частицу иного типа.

Это весьма радикальный переход. Если бы существование элементарной частицы данного типа объяснялось группировкой каких-то субчастиц, то перед нами оказалось бы еще одно звено классической атомистики. Существование молекулы объясняется группировкой атомов, существование атома — группировкой элементарных частиц, а теперь существование частицы — группировкой субчастиц. Все это — структурные объяснения, сводящие существование галактики, планетной системы, звезды, молекулы, атома к внутренней структуре. Структура может быть классически статической (совокупность пространственных расстояний между точно определенными в каждый момент положениями тел, составляющих данную систему); она может быть релятивистской (совокупность четырехмерных интервалов); динамической (совокупность сил, действующих между элементами); квантовой (расстояния между элементами нельзя точно определить, они определены тем менее точно, чем точнее определены взаимодействия и импульс частиц). Но, когда речь идет об элементарной частице, ее существование не сводится к внутренней структуре.

Может быть, его можно объяснить, апеллируя к сочетанию взаимодействующих частиц большей массы. В 1964 г. Гелл-Манн и одновременно с ним Цвейг высказали предположение о неких частицах очень большой массы, которые получили название кварков по имени фантастических существ из романа Джойса «Пробуждение Финнегана». Каждая из частиц, вступающих в сильные взаимодействия (таково подавляющее большинство частиц), состоит из трех кварков. Как же получается, что масса такой частицы во много раз меньше, чем масса составляющих ее кварков? Дело объясняется уже знакомым нам дефектом массы. При образовании частицы из кварков выделяется очень большая энергия и соответственно такая составная частица обладает массой, во много раз меньшей, чем масса составивших ее кварков. Если гипотеза кварков соответствует действительности, то кварки должны встречаться в свободном состоянии, хотя и очень редко. Большинство их уже «выгорело», т. е. они соединились в системы из трех кварков — известные нам частицы с различной, но всегда значительно меньшей, чем у кварков, массой.

С гипотезой кварков физика вступила на новый путь: она конструирует системы не из меньших, а из больших, чем они, элементов. Собственно, физика начала этот путь еще раньше: в 1949 г. Ферми и Янг предположили, что нуклон и антинуклон могут составить частицу значительно меньшей массы, чем у каждого из них. Как далеко можно пойти по этому пути? М. А. Марков исследовал вопрос о его границе и выдвинул понятие максимально тяжелой элементарной частицы — максимона. Это гигантские в масштабах микромира частицы. М. А. Марков предполагает, что они спрессовались в известные нам гораздо меньшие по массе частицы в результате процесса, существование которого объясняет некоторые астрономические явления. Это — гравитационный коллапс, с которым мы встретимся, когда речь будет идти о перспективах изучения космоса. Процесс этот происходит в области, где вещество спрессовано во много раз плотнее чем в атомных ядрах. В таких условиях может начаться очень быстрый, практически мгновенный процесс дальнейшего сжатия вещества, вызванный силами взаимного притяжения частиц.

Гравитационный коллапс мгновенно приводит к громадному дефекту массы, к громадной разнице между суммой масс максимонов и массой частицы, в которую их упаковывает коллапс. Но для начала гравитационного коллапса нужно, чтобы уже существовала не встречающаяся на Земле плотность вещества. Такие условия могли существовать, когда нынешняя Вселенная была спрессована в сравнительно небольшое ядро — начальный пункт ее некогда начавшегося и сейчас продолжающегося расширения. Таким образом, начальный пункт роста Вселенной совпадает с начальным пунктом генезиса современных частиц.

Эти беглые замечания о некоторых характерных для современной физики гипотезах сделаны не без умысла. Начинающийся сейчас новый этап развития теоретической физики воздействует на прогресс науки (ускоряет этот прогресс и в последнем счете вызывает возрастание ускорения производительности общественного труда) не только новыми позитивными концепциями, но и стилем научного мышления. Такая зависимость не может быть реализована без некоторой психологической эволюции, без большей пластичности познания. Мы еще не знаем, подтвердят ли эксперименты существование кварков или максимонов. Но, как бы ни было, эти гипотезы уже сейчас выполняют важную для современной цивилизации функцию: они делают психологию людей, размышляющих о природе (не только профессиональных ученых), более пластичной и этим ускоряют восприятие науки и воздействие ее динамического стиля на современную культуру. Это и оправдывает вынесение за эзотерические рамки неоднозначных и не претендующих на однозначный характер физических конструкций.

Все это сказано, чтобы подготовить читателя к новым, столь же, а может быть, и еще более неоднозначным гипотетическим конструкциям. Их смысл в том, чтобы придать относительно наглядный вид прогнозам, которые стали столь частыми в физике и в которых отражены поиски нового идеала науки. Идеала, сопоставимого с классическим идеалом — сведением rerum natura к движению тождественных себе, неисчезающих частиц, сопоставимого по общности, по охвату всей природы единой исходной концепцией. Чем дальше развивается теория элементарных частиц, тем больше вырастает убеждение в необходимости новой концепции rerum natura.

Вольтер вложил в уста Декарта обращение к богу, в котором мыслитель берется создать такой же мир, какой был создан богом, если ему дадут материю и закон ее движения. В сущности не только Декарт, но и классическая наука в целом бралась объяснить всё мироздание, если существование материи и законы движения ее дискретных элементов будут даны в качестве исходных пунктов анализа. В современной науке существуют аналогичные исходные данные. Это эмпирически установленные константы. С тех пор как физика приобрела количественный характер, с тех пор как наука не только наблюдает, но и измеряет физические процессы, идеалом научного объяснения стало сведение к минимуму чисто эмпирических констант. Уже на рубеже XVI и XVII вв. Кеплер хотел вывести средние расстояния между планетами из чисто геометрических соотношений. Он думал, что, описав правильный октаэдр вокруг сферы Меркурия и затем охватив этот октаэдр объемлющей его шаровой поверхностью, он получит сферу Венеры; затем, описав вокруг этой сферы правильный икосаэдр, он получит сферу Земли и, таким образом, используя все правильные многогранники, можно получить сферы всех планет.

Эта попытка была достаточно фантастической. Но вопрос: «почему мир именно такой, каков он есть, а не другой?» — не исчез. Во все периоды своего развития физика — и классическая и неклассическая — стремилась исключить чисто эмпирические величины, связать их с другими, объяснить их каузальным образом, превратить картину мира в самосогласованную схему, где каждая константа вытекает из общей концепции мироздания. Эйнштейн в своей автобиографии 1949 г. писал о завершении подобной тенденции, о фундаментальной физической теории, в которой вовсе не будет чисто эмпирических констант, где все константы будут вытекать из единой схемы, однозначно выражающей гармонию мироздания[69]. В разговоре со своим ассистентом Штраусом Эйнштейн как-то спросил: «Мог ли бог создать мир иным?», т. е. могла ли каузальная гармония мироздания быть выражена другими физическими константами[70].

Если считать указанную тенденцию сквозной для всего развития физики, то какие же константы стали сейчас предметом наиболее напряженных поисков каузального объяснения?

В части поведения элементарных частиц современная наука добилась сравнительно упорядоченной картины. Две константы — скорость света и постоянная Планка, квант действия, — объясняют множество процессов. Но то, что мы могли бы назвать константами существования элементарных частиц, т. е. массы и заряды, характеризующие типы частиц, не только не уменьшаются в своем числе, но, наоборот, растут. Конкретная и ближайшая ступень восхождения к идеалу, нарисованному Эйнштейном, состоит в выведении спектра масс и зарядов частиц из каких-то общих постулатов, в превращении значений масс и зарядов частиц из эмпирических в теоретически осмысленные.

В этом и состоит основная задача еще не построенной единой теории элементарных частиц, в этом состоит переход от теории поведения частиц к теории их бытия. Вспоминая приведенные в начале этой главы беглые характеристики концепций XVII в., можно было бы сказать, что задача состоит в переходе от программы Декарта к программе Спинозы, к представлению о природе не только как сотворенной (natura naturata), но и творящей (natura naturans), создающей свои элементы, взаимодействующей сама с собой, о природе, которая является причиной своего существования.

Как можно, пользуясь накопленными за последние десятилетия сведениями о частицах, их взаимодействиях и трансмутациях, превратить эту программу из абстрактно-философской в конкретную физическую, т. е. в программу экспериментов? Именно на этот вопрос и должны ответить прогнозы, относящиеся к фундаментальным исследованиям. Они, эти прогнозы, явно или неявно присутствуют в тех гипотезах, которые выводят спектр масс и зарядов частиц из некоторого общего постулата. Как мы видели, в современной физике многие стремятся упорядочить разросшийся список элементарных частиц, рассматривая их многообразие как результат взаимодействия «более элементарных» частиц, может быть больших по массе. Наряду с такой тенденцией существует и другая — выведение спектра масс и зарядов частиц (а также других величин, характеризующих отличие одного типа частиц от другого) из более общих постулатов.

Таким общим постулатом может быть, по мнению Гейзенберга, нелинейный характер первичного взаимодействия, которое ответственно за существование элементарных частиц. В конце 30-х годов было написано нелинейное уравнение, описывающее взаимодействие некоторого универсального поля с самим собой. Решения этого уравнения должны были дать спектр масс различных частиц. Они являются возбужденными состояниями той «праматерии», которая взаимодействует сама с собой. Существование частицы в этой теории рассматривается как результат взаимодействия, понятие «голой», т. е. невзаимодействующей, частицы теряет здесь смысл.

Концепция Гейзенберга пока не дала однозначного результата. Единая теория элементарных частиц продолжает быть недостигнутым идеалом современной науки.

Но нелинейная концепция, по-видимому, Лежит в основном фарватере научного прогресса. Классическая картина мира рассматривала поведение частицы как нечто зависящее от существования и расположения других частиц, но эта зависимость казалась линейной. Исходное представление — заданная система заряженных частиц. Она рассматривается как источник поля. Поле действует на частицу и определяет ее поведение. Возникновение поля той или иной структуры в зависимости от расположения и движения частиц — это один процесс, одна задача, а образование кинематической схемы мироздания, расположение и движение частиц в зависимости от структуры поля — другой процесс, другая задача. Классическая физика решала их отдельно одна от другой. Можно предполагать, что единая теория элементарных частиц подойдет к проблеме движения и взаимодействия частиц по-иному.

Если существование частицы иногда выводится из ее взаимодействия с другими частицами, получается самосогласованная система, где уже не может быть заданного распределения частиц, каждая из которых обладает индивидуальным существованием, независимым от существования других частиц и связывающего их взаимодействия. Из принципа относительности вытекает, что положение частицы не имеет смысла без других частиц. Теперь мы склоняемся к мысли, что существование частицы невозможно без существования других частиц, взаимодействующих с данной. Эта схема кажется парадоксальной, более того — порочным кругом: существование частиц объясняется их взаимодействием, а взаимодействие — существованием. Столь же парадоксально существование частицы, которое объясняется существованием других частиц, причем существование каждой из последних в свою очередь не имеет первичного и независимого характера. Но именно такой парадоксально-нелинейный характер свойствен природе, которая сама является причиной своего существования. Эта спинозовская производящая природа (natura naturans) в классической физике не находила эквивалента и оставалась вопросом, адресованным будущему. Теперь это понятие облеклось в физическую форму самосогласованной системы сильных взаимодействий, которые создают каждую из взаимодействующих частиц.

Такое представление о существовании частицы как результате ее взаимодействия с другими частицами уже упоминалось в первой части этой книги, оно принадлежит Чу и Фраучи и относится к сильным взаимодействиям и к частицам, участвующим в сильных взаимодействиях. Сильно взаимодействующая частица, например протон, представляется результатом динамических воздействий, причем каждый такой результат сам является источником динамических воздействий. Динамические воздействия определяют не только поведение, но и существование частиц.

Теперь мы постараемся показать, что привлечение сильных взаимодействий к объяснению существования элементарных частиц пересекается с другой тенденцией. Речь идет о дискретном пространстве и времени. Эта идея, очень старая, существовавшая, как мы видели, уже в древности, приобрела в середине нашего столетия особое значение. В ней увидели возможный, хотя и трудный, выход из очень тяжелой ситуации. Уже в 30-е годы, а еще больше в 40-е выяснилось, что последовательное применение теории относительности и квантовой механики для описания событий в очень малых пространственно-временных областях приводит к физически бессмысленному результату. Вычисленные с учетом квантовых и релятивистских соотношений значения энергии и заряда оказываются бесконечными. Предположения о бесконечной энергии и бесконечном заряде противоречат всему, что мы знаем о мире. Тем не менее при вычислении получался именно такой физически бессмысленный результат.

Чтобы пояснить эту ситуацию и значение дискретного пространства-времени для выхода из нее, рассмотрим только один источник бесконечных значений энергии. Электрон может излучать фотоны, которые поглощаются самим излучившим их электроном. Чем короче интервал между излучением и поглощением подобного фотона, тем больше его вклад в энергию электрона и соответственно в его массу. Такое «самодействие» электрона приводит к бесконечно большим значениям его энергии и массы: если фотон может быть излучен и затем поглощен в течение сколь угодно малого интервала времени и пройти сколь угодно малое расстояние, то вклад его в энергию электрона может быть сколь угодно большим. Существуют весьма виртуозные математические методы, чтобы избежать бесконечных значений. Эти методы дают значения энергии, очень близкие к тем, что дает эксперимент. Они обладают тем, что Эйнштейн называл внешним оправданием. Но указанные методы вводятся ad hoc, т. е. специально для получения искомого результата; они не обладают в этом смысле' внутренним совершенством, не вытекают из какой-либо общей непротиворечивой физической теории и применяются «в кредит», в надежде на то, что подобная теория будет построена.

Такая теория могла бы исходить из дискретности пространства и времени. В этом случае излучение фотона и его поглощение не могло бы происходить в течение сколь угодно малого времени и соответственно его путь не мог бы быть меньше некоторой минимальной длины (минимального интервала времени, умноженного на скорость света). Тогда подсчет вклада фотонов, излучаемых и затем поглощаемых электроном, в его энергию и массу был бы естественным образом ограничен и методы устранения бесконечных значений получили бы физический смысл и «внутреннее совершенство».

Вспомним уже знакомый нам исторический прообраз концепции дискретного пространства и времени — взгляды эпикурейцев, изложенные во II в. н. э. Александром Афро-дизийским. Частица не движется из одной минимальной пространственной клетки в другую, а исчезает в одной из них и возникает в соседней. Связь идеи дискретности с идеей возникновения и уничтожения частицы сохранялась в продолжение всей эволюции этих идей. Действительно, движение внутри минимальной клетки означало бы, что частица в первую половину интервала времени была бы в первой половине клетки, а в продолжение второй половины интервала находилась бы во второй половине пространственной клетки. Иначе говоря, минимальный интервал времени и минимальная пространственная клетка разделяются на половины, что противоречит их определению как минимальных, далее неделимых. Но чисто логическая, натурфилософская догадка о связи дискретного пространства и времени с уничтожением и возникновением частицы могла превратиться в физическую концепцию только после того, как в науку вошли понятия сильных взаимодействий и ультрарелятивистских трансмутационных эффектов.

В самом начале 30-х годов идея дискретности пространства и времени приобрела новую форму под влиянием квантовой механики. Понятие квантовой неопределенности стало основой ряда концепций, отказывавших частице в определенной локализации внутри очень малых пространственно-временных областей. Позже ряд таких концепций был в некоторой степени завершен гейзенберговской 5-матрицей, которая сыграла большую роль и сохранила эту роль до сих пор в теории элементарных частиц. 5-матрица — это оператор, который позволяет описать состояние системы частиц после рассеяния, если известно ее состояние до рассеяния частиц. Однако слова до рассеяния и после него означают «задолго до» и «намного позже» по сравнению с длительностью самого акта рассеяния, т. е. времени наибольшего сближения частиц и изменения их движений. Что же касается самого интервала времени и пространственной области, где происходит рассеяние, то Гейзенберг считает невозможным приписывать здесь частице какую-то определенную пространственную и временную локализацию. Он вводит минимальную пространственную длину и минимальный интервал времени, которые образуют минимальную четырехмерную ячейку. Внутри этой ячейки пространственно-временная локализация теряет смысл. Поэтому положение и время события — пространственно-временные координаты, проникающие по своей точности внутрь минимальной ячейки, физически бессмысленны, и об этом свидетельствуют, в частности, бесконечные значения энергии и заряда, появляющиеся, когда мы прослеживаем пространственно-временные события в областях порядка минимальных ячеек. Из этих соображений и вытекает оперирование состояниями «задолго до» и «намного позже» акта рассеяния, происходящего в очень малой пространственно-временной области.

Квантовая неопределенность как основа дискретности пространства — это специфическая, характерная для 30-х годов и позднейшего периода форма идеи дискретности.

В конце 40-х годов Снайдер[71] связал дискретность пространства со своеобразным соотношением неопределенности. Гейзенберговское соотношение неопределенности связывает каждую координату с соответствующей компонентой импульса. Если координата х определяется все точнее, то составляющая импульса рх становится все менее определенной. Аналогичным образом Снайдер связывает между собой координаты х, у и z: если одна из них измеряется все более точно и в конце концов стремится стать непрерывной, то другие координаты становятся все менее определенными. Поэтому объем не может стянуться в точку, пространство в целом оказывается дискретным, состоящим из далее неделимых объемов, и положение частицы всегда будет неопределенным.

И. Е. Тамм следующим образом связывает физическую интерпретацию дискретности пространственных объемов, постулированных Снайдером, с рождением новых частиц[72]. Измерить положение частицы с максимальной точностью — значит найти минимальный объем пространства, объем, в котором находится частица. Такое измерение происходит, когда на частицу направляют поток фотонов, электронов или других частиц и определяют направления полета этих частиц, рассеяннных на частице, положение которой измеряется в эксперименте. Но при этом нельзя измерить координату частицы с большей точностью, чем с точностью до длины волны рассеивающихся частиц. Длина волны обратно пропорциональна частоте колебаний волновой функции и соответственно энергии рассеивающейся частицы. Но при возрастании энергии все более вероятно возникновение новых частиц при рассеянии. Эти новые частицы в свою очередь быстро распадаются. Продукты такого распада неотличимы от частиц, возникших при первоначальных соударениях частиц высокой энергии, т. е. при рассеянии, которым пользовались для более точного измерения координаты рассеивающей частицы. Но они вылетают не из пункта рассеяния, а из окрестностей этого пункта. Таким образом, трансмутационные процессы при определении положения рассеивающей частицы мешают точности локализации этой частицы.

В конце 50-х годов Коиш[73] развивал другую концепцию дискретного пространства. Дискретным признается не только трехмерное расстояние (геометрическая сумма трех координатных отрезков) или трехмерный объем, как это было у Снайдера, но и каждая координата и каждое расстояние, даже если оно отсчитывается вдоль одной из координат. В этом случае для ультрамикроскопического мира теряет смысл релятивистская причинность. Она требует, чтобы сигнал (иначе говоря, каждый процесс, соединяющий два события как причину и следствие) распространялся со скоростью, не превышающей скорость света. Но там, где нельзя говорить о расстоянии как о функции координат двух точек, теряет смысл и понятие скорости, т. е. предельное отношение приращения пространства к приращению времени.

На этом следует остановиться несколько подробнее.

Чтобы определить расстояние между двумя точками, мы берем разности одноименных координат этих точек, возводим их в квадрат, складываем и из суммы извлекаем квадратный корень. Такая формула мероопределения характерна для эвклидова пространства. Если пространство становится неэвклидовым, т. е. искривляется, эта формула заменяется другой. Например, на сферической поверхности, т. е. в двумерном искривленном пространстве, расстояние уже не равно корню из суммы квадратов координатных разностей — эта формула заменяется иной.

Но любое мероопределение имеет смысл только для непрерывного пространства. Если пространство состоит из точек, расстояния между которыми нельзя определить каким-либо числом, потому что эти расстояния не делятся на части, то в таком пространстве нельзя говорить ни о координатах (расстояниях от точки до координатных осей), ни об измерении вообще.

Что же в таком случае означают слова «минимальная длина порядка 10-13 см» или «минимальный интервал времени порядка 10-24 сек»? Как можно говорить о минимальных расстояниях в пространстве, для которого само слово «расстояние» теряет смысл? Но, с другой стороны, без понятия минимального расстояния было бы очень трудно представить себе, что такое дискретное пространство.

Мы здесь встречаемся с дополнительностью двух понятий, противоречащих друг другу, исключающих друг друга и вместе с тем теряющих смысл одно без другого. Понятие дискретного пространства имеет смысл, если оно может перейти в непрерывное пространство; это понятие приобретает физический смысл только потому, что его дополнением служит понятие непрерывного пространства.

Забегая вперед, отметим, что переход от дискретного пространства к непрерывному будет одной из важнейших проблем науки в течение ближайших десятилетий. Можно предположить, что в ультрамикроскопическом дискретном пространстве развертываются события, из которых будет выведена релятивистская причинность. Мы помним, что мировая линия остается геометрическим, а не физическим понятием, пока она не заполнена событиями, несводимыми к пребыванию в каждой мировой точке и к переходу в следующую мировую точку. Быть может, ультрамикроскопические (и ультрарелятивистские!) события и являются тем заполнением каркаса мировых линий, которое превращает этот каркас в физический мир.

Подобные «быть может» являются существенными, хотя и неопределенными, компонентами прогноза. Вместе с тем они характерны для стиля физического мышления в теории элементарных частиц — в области наиболее фундаментальных исследований, этих современных поисков rerum natura. Эти поиски отчасти опираются на реминисценции, на воспоминания об аналогичных поисках от древности до наших дней. Такие воспоминания необходимы, чтобы понять, что, собственно, происходит сейчас в науке и куда направлено ее предвидимое развитие. Но решение старых вопросов исходит из тех новых фактов, которые стали известны совсем недавно. В особенности это относится к экспериментальным открытиям и теоретическим обобщениям в области сильных взаимодействий и трансмутаций элементарных частиц.

В наше время научный прогноз напоминает касательную к кривой, касательную, которую мы проводим, чтобы определить направление кривой в данной точке. Он не претендует на титул пророчества: в следующий момент кривая изменит направление и оно не совпадет ни с одной из касательных, которые проведены сейчас. И тем не менее констатация современных тенденций науки не может быть высказана без прогнозов, дискуссия о направлении кривой не может вестись без касательных, каждая из которых не претендует на однозначный характер.

Сейчас мы попробуем провести подобную касательную, взяв в качестве исходного пункта идею регенерации частиц, высказанную в 1949 г. Я. И. Френкелем[74]. Он предположил, что частица превращается в частицу иного типа, а эта последняя снова превращается в частицу исходного типа. Такую двойную трансмутацию Я. И. Френкель назвал регенерацией частицы. В 50-е годы и позже эта гипотеза рассматривалась в связи с дискретностью пространства-времени. Предположим, что регенерация частицы происходит в соседней пространственно-временной ячейке, т. е. через минимальный интервал времени (порядка 10-24 сек) и на расстоянии, равном элементарной длине (расстоянии, которое пройдет свет за 10-24 сек, т. е. расстоянии порядка 10-13 см). Если мы отождествим регенерировавшую частицу с исходной, то получим сдвиг тождественной себе частицы на расстояние порядка 10-13 см со скоростью, равной скорости света. Таким образом, мы приходим к дискретному пространству-времени на световом конусе[75][76]. Здесь движение происходит в виде дискретных сдвигов, в общем случае направленных в различные стороны и образующих ломаную пространственную траекторию. Пространство-время внутри светового конуса (т. е. там, где частицы движутся с различными скоростями, меньшими, чем скорость света) непрерывно. Здесь проходят усредненные макроскопические мировые линии, которым соответствуют непрерывные пространственные траектории. Легко видеть, что при полной пространственной симметрии элементарных сдвигов-регенераций частица после большого их числа окажется вблизи исходной точки, макроскопический сдвиг будет нулевым. Напротив, если в пространстве имеется некоторая дисимметрия вероятностей элементарных сдвигов, макроскопическая траектория частицы и ее макроскопическая скорость будут иметь конечные значения.

Тенденция, иллюстрируемая подобной условной схемой перехода из ультрарелятивистского мира трансмутаций в релятивистский мир непрерывных движений, может показаться направленной к некой трансмутационной картине мира, к превращению трансмутаций в исходный образ картины мира. Но это не так. Выше уже говорилось, что понятие трансмутации теряет смысл без макроскопического понятия мировой линии, по форме и длине которой можно определить тип частицы. Новая картина мира, к которой будет двигаться наука в ближайшие десятилетия, окажется гораздо парадоксальнее любой картины мира, которая исходит из каких бы то ни было «кирпичей мироздания», будь то перемещения тел, изменения структуры поля или еще более сложные процессы. Она будет исходить из принципа физического бытия, требующего дополнительности ультрамикроскопических и макроскопических процессов.

Вспомним самосогласованную систему частиц, взаимодействие которых гарантирует существование каждой. Наука в своем дальнейшем развитии, быть может, подтвердит эту схему для сильных взаимодействий. Но не исключено также появление физической теории, которая свяжет субстанциальные свойства частицы с воздействием на нее всех частиц, образующих Метагалактику. Следующая условная схема пояснит эту возможную тенденцию. Дисимметрия вероятностей элементарных сдвигов приводит к ненулевой макроскопической скорости частицы. Можно было бы отождествить эту дисимметрию с импульсом частицы и возложить ответственность за нее на локальные поля, связанные с неоднородным распределением материи в окружающем нас пространстве. Но какое поле ответственно за симметрию, за статистический разброс элементарных сдвигов, который заставляет макроскопическую скорость частицы быть меньшей, чем скорость света? С таким статистическим разбросом движутся частицы, обладающие массой покоя. Естественно отождествить массу покоя с симметрией вероятностей элементарных сдвигов и возложить ответственность за нее на однородную Метагалактику. Из однородности Метагалактики (в которой становятся пренебрежимыми даже такие неоднородности, как галактики и скопления галактик) вытекает, что частице со всех сторон противостоит одна и та же «толща» Вселенной; это и объясняет симметрию вероятностей элементарных сдвигов.

Излагая эти гипотетические конструкции, я, как мне кажется, не ухожу от темы прогноза, не заменяю вопрос о том, куда идет наука, вопросом о том, как устроена природа. Приведенные конструкции, как уже не раз говорилось, являются условными иллюстрациями реальной тенденции объединения понятий космоса и микрокосма. Кончился долгий период, когда последним звеном анализа rerum natura были микроскопические «кирипичи мироздания». Теперь не только поведение, но и существование элементарных частиц оказывается связанным с самосогласованной космической системой, охватывающей всю Метагалактику.

Отсюда — некоторые особенности стиля и темпа современного развития науки. Сама наука становится самосогласованной системой, в которой понятия одной области приобретают смысл только при существовании корреспондирующих им понятий в других областях. Еще недавно можно было говорить о динамике частиц одного типа без того, чтобы при этом возникали проблемы, противоречия, затруднения, их преодоление в виде новых понятий — в динамике других частиц. Когда речь идет о единой теории частиц, о высоких энергиях, о трансмутациях, которые ограничивают или видоизменяют динамику данных, тождественных себе частиц определенного типа, уже нельзя сохранить перегородки между исследованиями, посвященными различным типам частиц. Соответственно меняется связь между исследованиями, относящимися к различным взаимодействиям. Раньше они распределялись по относительно далеким областям: тяготением интересовались, когда речь шла о космических областях, электромагнитные взаимодействия объясняли явления в широком диапазоне от геофизики до атомной физики, а на сильные взаимодействия ссылались при изучении ядер. Теперь все это изменилось. Гравитационный коллапс привлекается не только для объяснения судьбы звезд, но и для объяснения микропроцессов, например превращения максимонов Маркова в известные нам частицы. Все это приводит к своеобразной, не имеющей прецедентов связи между частными открытиями и общей концепцией мироздания. Частное открытие во многих случаях является столь парадоксальным, что оно индуцирует пересмотр общей концепции. Это бывало и раньше, но тогда указанная индукция была «слабым взаимодействием»: например, между опытами, не подтвердившими существование эфирного ветра, и теорией относительности прошло четверть века. Характерным примером современного «сильного взаимодействия» между частным открытием и фундаментальной концепцией служит экспериментальное открытие несохранения четности при распаде некоторых определенных частиц и объяснившая этот результат общая концепция. Они разделялись интервалом в несколько месяцев. Дискретность прогресса фундаментальных идей сейчас смягчается; интервалы между обобщениями иногда приближаются к интервалам между очередными номерами основных физических журналов. Прогресс фундаментальных знаний становится практически непрерывным. Конечно, столь часто появляющиеся фундаментальные обобщения неоднозначны, не обладают предикатом единственности, не подтверждены experimentum crucis и часто даже не указывают на характер такого решающего эксперимента. Но появление новой экспериментальной базы, не останавливая появления фундаментальных обобщений, в значительной мере сделает такой натурфилософский стиль однозначным. Впрочем, выражение «натурфилософский стиль», может быть, и несправедливо: появляющиеся сейчас фундаментальные концепции — это, в сущности, отработка вопросов, которые будут заданы природе с помощью экспериментальных средств, о которых пойдет речь в следующих двух главах этой книги.

Непрерывный поток радикальных фундаментальных обобщений меняет динамику цивилизации. Фундаментальные принципы науки с точки зрения эйнштейновского внутреннего совершенства физических теорий являются для этих теорий целевым каноном: чтобы не быть искусственными, введенными ad hoc, они должны естественно вытекать из фундаментальных принципов.

В. Вайскопф разграничивает в развитии науки XX столетия «интенсивные» и «экстенсивные» направления. Первые состоят в поисках фундаментальных принципов. Основными этапами интенсивных исследований были электродинамика и относительность, квантовая теория атома, ядерная физика и, наконец, субъядерная физика. Каждое интенсивное направление с течением времени обрастает гораздо более многочисленными экстенсивными направлениями. Так Вайскопф называет объяснение явлений с позиций уже известного фундаментального принципа. Он говорит, что даже в самых экстенсивных исследованиях присутствует интенсивная компонента.

В наше время наука испытывает новый, беспрецедентный по напряженности и охватывающий очень широкие круги ученых порыв к интенсивным исследованиям, к единству картины мира.

Современная наука нашла переходы между областями, казавшимися далекими, математизация привела к небывалому единству методов, но в самой фундаментальной области — в теории элементарных частиц — она имеет дело с быстро увеличивающимся числом фактов и областей, пока еще связанных между собой весьма проблематично.

И она, как никогда, стремится к единству. Современная — наука — это Марфа, пекущаяся о многом, которая хочет стать Марией, взыскующей единого. Но, по-видимому, сейчас «многое» и «единое» связаны совсем иначе, чем раньше.

Можно думать, что прогноз на 2000 г. должен исходить из нового соотношения интенсивных и экстенсивных исследований, из уже упомянутого «сильного взаимодействия» между теми и другими. После того как войдет в строй новое поколение ускорителей частиц и будут реализованы возможности, связанные с заатмосферными и внеземными астрофизическими и астрономическими исследованиями, создастся такое положение, когда новая фундаментальная идея будет в очень Короткий срок индуцировать экстенсивные исследования. Эти последние будут в свою очередь часто приводить к фундаментальным проблемам, причем новые возможности эксперимента позволят не слишком долго дожидаться experimentum crucis для того или иного решения этих проблем.

Экстенсивные исследования — это исследования, которые открывают новые идеальные циклы. Такие вновь открытые циклы служат целевыми канонами для технического прогресса, их практически непрерывная эволюция приводит к практически непрерывному ускорению прогресса. Если же меняются фундаментальные принципы (целевые каноны экстенсивных исследований), то технический прогресс приобретает возрастающее ускорение.

Не следует думать, что возрастание ускорения будет монотонным. Развитие фундаментальных принципов — развитие в интенсивном направлении — не сохранит интервалов, характерных для первой половины XX в. (теория относительности, квантовая механика, теория ядра, субъядерные проблемы); интервалы, вероятно, сократятся, но известная цикличность сохранится. Повороты такого масштаба, как создание теории относительности, не будут происходить ежегодно. Эффект подобных поворотов состоит в непрерывном росте ускорения прогресса, потому что каждый фундаментальный поворот в течение известного периода ускоряет темп экстенсивных исследований.

Поэтому не следует также думать, что «сильное взаимодействие» фундаментальных и экстенсивных исследований означает их слияние или неразличимость. Исследования, которые изменяют исходные принципы, идеалы и стиль науки, которые дают принципиально неопределимый и скорее всего отдаленный эффект, будут стоять в какой-то мере особняком. В этой связи хочется сделать одно замечание о типе ученого в эпоху, когда самосогласованная система интенсивных и экстенсивных исследований направляет свои усилия на познание самосогласованной системы космоса я микрокосма. В научных кругах иногда сетуют на исчезновение типа ученого-«отшельника», который поднимался на абстрактные вершины мысли, куда не доносится многоголосый шум экстенсивной науки. Мне кажется, этот тип не исчезнет я, более того, станет несколько более распространенным, чем сейчас.

Конечно, «отшельник» конца XX в. будет отличаться от своего прообраза, принадлежащего первой половине века. И тот и другой — «отшельники» в весьма специфическом смысле. Речь идет о возможности далеко продвинуть принципы науки при «слабом взаимодействии» с большой и быстро растущей массой частных проблем и частных результатов. Этому не противоречит ни личный интерес мыслителя к некоторым частным проблемам, ни принципиальная установка на возможность экспериментальной проверки теории («внешнее оправдание»). Эйнштейн интересовался десятками частных научных проблем (например, причиной размыва правого берега рек, текущих на юг) и десятками технических изобретений (не только во время службы в Бернском патентном бюро). Тем не менее он был «отшельником» в том смысле, что исходным пунктом теории относительности было очень небольшое число экспериментов. Напомним, кроме того, что Эйнштейн утверждал, будто электрона — его одного — достаточно, чтобы вывести общие закономерности микромира (это было, заметим в скобках, справедливым в 1924–1927 гг., когда создавались волновая и квантовая механика).

Сейчас положение иное. Задача состоит в объединении того, что известно о различных типах частиц, и эта задача в целом не может быть решена на основе законов поведения, возникновения и распада частиц одного типа. И тем не менее каждое парадоксальное свойство, присущее одному или нескольким типам частиц, индуцирует размышления о природе пространства и времени, об их симметрии, об их дискретности и непрерывности, б логических и математических понятиях, о том, что отличает физическое бытие от геометрических образов. Таков же эффект астрономических и астрофизических открытий. Поэтому «слабое взаимодействие» с экстенсивной наукой, по-видимому, сохранится, и соответственно сохранится тип ученого-«отшельника».

Как уже сказано, этот тип ученого может стать более распространенным. Циклы экстенсивных исследований, вызванные интенсивным прорывом к новым фундаментальным принципам, вызывают закономерное изменение преобладающих интересов в науке. Примером может служить цикл, вызванный моделью атома Бора. Когда была выдвинута эта модель, начались экстенсивные исследования, объяснившие спектры атомов, валентность, периодичность и ее нарушения в системе элементов и множество других закономерностей. Этот цикл продолжается поныне. На него накладываются другие, позднейшие, создавшие ядерную физику. Вообще наложение экстенсивных циклов один на другой увеличивает практическую непрерывность воздействия науки на прогресс цивилизации. Но в начале 20-х годов наряду с продолжением применения модели Бора стала отчетливо ощущаться необходимость новых принципов, которые и были найдены в 1924–1926 гг. мыслителями, связанными иногда «слабым взаимодействием» с применениями модели Бора и в этом смысле «отшельниками».

С проблемой слабого и сильного взаимодействий фундаментальных принципов и частных исследований и с проблемой ученого-«отшельника» связана одна чисто психологическая проблема, которую лучше всего осветить на примере Эйнштейна.

Каждый, кто познакомился с теорией относительности, прошел через чащу математических и физических конструкций, реальных и мысленных экспериментов, необозримых эмпирических подтверждений и применений и частных задач, почувствовал эту незабываемую встречу с простой и вместе с тем наиболее сложной загадкой движения материальной точки в окружающем ее пустом пространстве. Здесь нет ни разнообразия элементарных частиц, ни многоступенчатой иерархии атомов, молекул, микроскопических тел, планет, звезд и галактик, ни различных полей — гравитационных, электромагнитных, ядер-ных и т. д., здесь нет ничего, кроме пространства и движущейся в нем и не имеющей других предикатов частицы. Что означает ее движение, каков смысл этого понятия в отсутствие других тел и что означает ее бытие? Это вопрос несравненно более глубокий и трудный, чем множество частных вопросов, относящихся к конкретным частицам различного типа, входящим в конкретные сложные системы, связанным сложными и разнообразными взаимодействиями. Он кажется изолированным от этих частных вопросов, и соответственно размышления о природе бытия и движения, по-видимому, требуют изоляций мыслителя от стихии частных исследований. Мыслитель должен остаться один на один с наиболее общими загадками и противоречиями бытия. Он должен быть отшельником.

Несомненно, для психологии Эйнштейна характерна такая тенденция. Его замечания о месте сторожа на маяке как об оптимальном положении ученого, отмеченная Инфельдом и другими постоянная тяга к одиноким размышлениям, к уходу в себя выявляли не только индивидуальные черты мыслителя, но и некоторую сторону стиля науки XX столетия. Но именно сторону, только сторону. Сторону, которая не могла существовать без другой стороны. Без глубокого и активного погружения в пеструю и на первый взгляд «пуантилистскую», состоящую из отдельных пятен картину частных исследований. Такая амбивалентная, противоречивая природа научного мышления связана с несомненным различием и несомненной связью «внутреннего совершенства» и «внешнего оправдания» научной теории. Чтобы подняться к наиболее общим принципам, из которых естественно вытекают новые парадоксальные результаты, необходим этот синтетический взгляд на природу в целом, открывающий независимый от отдельных рядов явлений субстрат мира.

Такими были соображения Эйнштейна и затем Минковского об отсутствии физических эквивалентов трехмерного пространства, о физической реальности четырехмерного пространства-времени. Но, поднимаясь к общим проблемам и как бы удаляясь от конкретных и частных проблем, научная мысль не может оторваться от последних, потому что эти общие проблемы модифицируются на основе «внешнего оправдания», на основе эмпирии, на основе парадоксальных фактов. Размышления о пространстве и времени привели к новому, невозможному без новых оптических и электродинамических наблюдений синтезу классических понятий, парадоксальные факты получили естественное объяснение в рамках парадоксальной теории, и весь генезис и все развитие неклассической науки подтвердили тезис о необходимом сенсуальном, эмпирическом, гетерогенном аккомпанементе рационалистической мысли.

Отсюда противоречивая позиция Эйнштейна: он стремился к одиночеству и откликался на множество самых разнообразных экспериментальных и теоретических результатов, он откликался даже на события, непосредственно не связанные с наукой, и в конце концов стал физиком, наиболее близким беспрецедентно широкому кругу людей. И это тоже не индивидуальная черта, во всяком случае не только индивидуальная. Современная наука вызывает у ее представителей, и не только у них, а у самых широких кругов, две связанные одна с другой психологические черты. Современный ученый стремится подняться над многообразием фактов и остаться лицом к лицу с наиболее общими проблемами бытия, и в то же время он, как никогда раньше, прислушивается ко всему, что происходит в науке, причем не только в своей области, но и в более отдаленных областях, откуда могут прийти новые факты и новые логические конструкции. По-видимому, эти психологические черты ученого нашей эпохи будут становиться все более связанными между собой, по мере того как наука будет приближаться к своему современному идеалу — к единой концепции do rerum natura, охватывающей невероятно расширившуюся и усложнившуюся эмпирическую базу неклассической науки.

Сейчас фундаментальные принципы теории относительности, квантовой механики и релятивистской квантовой механики индуцировали очень большой цикл экстенсивных исследований и открытий, которые вместе с этими принципами образуют атомную и ядерную физику. Но все большее число апорий, противоречий, трудностей поворачивает научную мысль к поискам новых принципов. По-видимому, такой поворот будет усиливаться в течение ближайших десятилетий. Мыслители, отдающие свои силы проблеме кварков, проблеме дискретности пространства, проблеме отличия субстанциальных свойств частицы от ее мировой линии, проблеме конечной или бесконечной Вселенной, являются «отшельниками» в смысле, не имеющем ничего общего с какой-либо интеллектуальной изоляцией. Ведь подобные проблемы являются вопросами, которые будут заданы природе, частично, может быть, окажутся лишенными смысла, но будут так или иначе решены с помощью больших коллективных экспериментальных, теоретических и вычислительных работ.

Физика высоких энергий

В начале этой книги говорилось о комплексном прогнозе, включающем ряд связанных между собой сдвигов в энергетике, технологии, управлении производственными процессами и в характере труда. Эти сдвиги, объединенные условным термином «атомный век», непосредственно связаны, если по-прежнему пользоваться терминами Вайскопфа, с экстенсивными исследованиями, создавшими атомную и ядерную физику и индуцированными интенсивным продвижением науки к релятивистским и квантовым принципам. Но атомный век, как и всякий период цивилизации, должен включить такие направления научной мысли, которые подготавливают следующий, более высокий по рангу динамизма период.

В течение атомного века такая подготовка связана с интенсивным направлением науки — поисками новых фундаментальных принципов, которым суждено индуцировать субъядерную физику.

Субъядерная физика — это физика частиц, которые входят в атомные ядра или не входят в них, но находятся на той же ступени иерархической лестницы дискретных частей вещества, что и нуклоны. Это частицы, которые, в отличие от более крупных дискретных тел, в отличие от молекул, атомов и атомных ядер, может быть, не делятся на уже существовавшие в их составе низшие звенья иерархии. Их распад и рождение в этом случае не сводятся к пространственной перегруппировке тождественных себе субчастиц. К чему они сводятся, мы пока не знаем. Мы также не знаем, где локализованы встречи, рассеяния и трансмутации частиц, не знаем, впрочем, имеет ли смысл вопрос о точной локализации этих событий. Мы можем лишь утверждать, что эти события происходят в очень малых пространственно-временных ячейках, в пространстве порядка линейных размеров атомного ядра и в течение временных интервалов, необходимых свету, чтобы пройти такое пространство. Здесь, быть может, находится пространственно-временной порог, перешагнув через который мы попадем в мир, где ход ультрамикроскопических событий подчинен принципам, более общим и точным, чем известные нам сейчас. Быть может, этот порог дальше и ультрамикроскопический мир, где можно встретить новые решения фундаментальных проблем бытия, находится в пространственно-временных ячейках на много порядков меньших. Во всяком случае путь к новым фундаментальным принципам, к их «внешнему оправданию» лежит через экспериментальное изучение очень малых областей, где происходят процессы, которые мы склонны считать ультра-релятивистскими.

Для этого нужны очень большие энергии частиц, которыми манипулирует экспериментатор.

Переход физики от атомно-молекулярных теорий XIX в. к атомной физике, затем к ядерной и субъядерной — это переход от энергий в сотые доли электронвольта к энергиям, измеряемым электронвольтами, затем миллионами и миллиардами эв. Атомы классической физики и химии при их тепловом движении обмениваются энергиями порядка 0,01 эв; они ведут себя при этом как твердые шарики. Электромагнитное излучение атомов, раскрывающее их структуру, обладает энергией от нескольких эв в оптической области до нескольких сотен тысяч эв в ренгеновском излучении. Ядерная структура раскрывается в процессах, требующих энергии в миллионы электронвольт. С начала 30-х годов создалось своеобразное сотрудничество в ядерной и затем в субъядерной физике между ускорителями, которые придавали частицам высокие энергии (с 30-х годов до нашего времени эти энергии возросли от сотен тысяч до десятков миллиардов эв), и приборами, с помощью которых изучали космические лучи[77]. Космические лучи — это потоки частиц различного типа и с различными энергиями, которые несутся к Земле со всех сторон из мирового пространства. Частицы, входящие в космическое излучение, имеют иногда колоссальные энергии, недостижимые в ускорителях, но ими труднее манипулировать, и по большей части новые частицы и новые процессы находили сначала в космических лучах, а затем изучали более детально с помощью ускорителей. Впрочем, в 50—60-е годы ускорители позволили в ряде случаев самостоятельно открыть новые частицы и процессы. Энергия частиц космического излучения, используемых в новых открытиях, все время росла и с 30-х годов выросла примерно в таком же отношении, как и энергия частиц в ускорителях. В начале этого периода в космических лучах был найден позитрон, существование которого было предсказано релятивистской квантовой механикой. Открытие и изучение позитрона не требовало очень высоких энергий, так как масса позитрона (равная массе электрона) мала и, чтобы превзойти соответствующую этой массе энергию покоя электрона и позитрона, нужны энергии порядка миллиона эв, но при возникновении и распаде нуклонов и других, еще более тяжелых частиц фигурируют энергии порядка миллиардов эв. В настоящее время область энергий, в которой ведутся интенсивные исследования космических лучей, достигла триллионов эв, а ускорители сообщают частицам энергии до 76 млрд. эв. Таков наиболее крупный ускоритель протонов, сооруженный недавно в Серпухове. Крупные ускорители работают в Брукхэвене (33 млрд, эв), в Женеве (28 млрд, эв), в Дубне (10 млрд. эв). Чтобы дать представление об их устройстве, потребуется очень краткая историческая справка.

В самом начале 30-х годов были построены линейные ускорители, где заряженные частицы двигались прямолинейно в электрическом поле, приобретая все большую скорость. Почти одновременно появились циклические ускорители — циклотроны. В них заряженная частица движется по окружности в магнитном поле, перпендикулярном плоскости, в которой отта обращается.

Она периодически проходит через промежутки, в которых имеется электрическое поле, и здесь это поле каждый раз увеличивает скорость и соответственно энергию частицы. Частица движется как бы по спирали, точнее, по окружностям все большего радиуса, и поэтому она, несмотря на растущую скорость, проходит ускоряющие промежутки через равные интервалы времени. Таким путем частицам сообщали энергии порядка десяти миллионов эв.

Но при высоких энергиях в игру вступают соотношения теории относительности — зависимость массы от скорости. Масса частицы растет, и это нарушает синхронность прохождений частицы через ускоряющие промежутки и максимум, высокочастотного электрического поля в этих промежутках. В 1944 г. В. И. Векслер и в 1945 г. Мак-Миллан предложили компенсировать релятивистское увеличение массы частиц сооответствующим возрастанием магнитного поля или уменьшением частоты электрического поля в ускоряющих промежутках. В 40-е годы релятивистская масса частиц в ускорителях стала достигать очень больших значений. В появившихся в 1940 г. бетатронах — ускорителях электронов — скорость последних при энергии 2 млн. эв составляет 0,98 скорости света и масса становится значительно больше массы покоя. Но и такие тяжелые частицы, как протоны, испытывают значительное возрастание массы при больших энергиях, применявшихся в 40-е годы и позже. Возможность компенсации релятивистского эффекта привела к появлению использующих такую возможность очень мощных ускорителей. Среди них находились и синхротроны и другие циклические ускорители, сообщавшие протонам энергии в миллиарды электронвольт. С помощью ускорителей, с одной стороны, и наблюдений над частицами космического излучения, с другой, было открыто множество новых частиц и множество процессов распада и порождения этих частиц.

Надежды на теорию элементарных частиц, которая объяснит это разнообразие, исходя из единого и, по-видимому, совершенно нового принципа, связаны с ускорителями, которые будут придавать частицам еще более высокие энергии. Речь идет о фундаментальных вопросах, на которые, как мы надеемся, ответят эксперименты с участием частиц, обладающих энергиями 200—1000 млрд. эв. В перечислении этих вопросов и в гадательной оценке эффекта их решения и состоит прогноз на ближайшие десятилетия. В нем, в этом прогнозе, недостает главного звена — предвидения самого решения, ответов природы на заданные ей вопросы. Столь же неопределенными, может быть еще более неопределенными, являются соображения об эффекте этих решений. Как замечает Бруно Понтекорво, из фундаментального характера физики элементарных частиц следует неожиданность открытий в этой области. «Потому, — пишет он, — вопрос о практическом применении в народном хозяйстве результатов исследований, скажем, на данном ускорителе высокой энергии — почти незаконный вопрос»[78] Действительно, для экстенсивных исследований открытия могут быть отчасти предсказаны — они идут по линии уже известных принципов и идеалов науки, и цель их состоит в объяснении явлений в свете этих уже известных принципов. Но если цель исследования как раз и состоит в поисках новых принципов?

Отсюда как будто следует, что обоснование плана строительства новых более мощных ускорителей — задача принципиально неразрешимая. Под обоснованием нельзя понимать простую ссылку на общность и глубину вопросов, адресованных природе физикой высоких энергий. Нужно показать, что эта общность и глубина при всей неопределенности возможных ответов характеризует место физики высоких энергий среди сил, обеспечивающих развитие цивилизации. По-видимому, обобщение показателей цивилизации, превращение их в динамические показатели, включение в эти показатели производных различного порядка по времени позволяют найти такое место.

С этой точки зрения мы и взглянем на вопросы, которые призвана разрешить (при этом подтвердить или отвергнуть самый смысл этих вопросов) физика высоких энергий.

Первый вопрос — о границах пространственно-временного, в общем случае релятивистского объяснения природы. Вероятно, этот вопрос о границах релятивистской причинности совпадает с вопросом о дискретности пространства-времени. Такая дискретность имеет физический смысл в духе «принципа бытия», т. е. не сводится к геометрической проблеме прерывного абстрактного пространства, если в каких-то минимальных ячейках происходят события, несводимые к движению частиц. Поэтому первый вопрос естественно переходит во второй: в чем состоят ультрарелятивистские события, ставящие предел релятивистской причинности в очень малых областях, и как они связаны с релятивистскими процессами в больших областях?

Из этих проблем вытекают другие, которые на первый взгляд кажутся частными, но, вероятно, не могут быть решены каждая в отдельности и требуют общей теории. Такова проблема уже известной нам гейзенберговской /S'-матрицы. Нишиджима говорит, что элемент этой матрицы можно представить себе в виде ящика, в который входят и из которого выходят частицы [79]. Что происходит внутри этого ящика? Какие фундаментальные взаимодействия разыгрываются в нем? Почему они не допускают пространственно-временного представления?

К квазичастным проблемам принадлежат вопросы о природе взаимодействий — сильных, электромагнитных, слабых и гравитационных. Состоят ли сильно взаимодействующие частицы из частиц большей массы, спрессованных очень сильными взаимодействиями, уменьшающими совокупную массу до наблюдаемой у известных нам частиц? Гипотеза максимонов ссылается на гравитационные, т. е. ультраслабые при обычных условиях, взаимодействия, которые спрессовывают тяжелые частицы в более легкие и, таким образом, ответственны за фундаментальные трансмутации.

Слабые взаимодействия загадочны во многих отношениях. Мы не можем сейчас объяснить, почему при слабых взаимодействиях частицы ведут себя иначе, чем при сильных, и есть основание надеяться, что на малых расстояниях и соответственно при высоких энергиях их существование и поведение будут подчинены общим законам. В частности, есть основание думать, что при высоких энергиях, порядка сотен миллиардов электрон-вольт, может быть найдена частица, переносящая слабые взаимодействия, подобно тому как фотон переносит электромагнитные взаимодействия, а пион — сильные взаимодействия нуклонов. Эта еще не найденная промежуточная частица, переносящая слабые взаимодействия, уже получила название и обозначается буквой W Она может быть найдена в свободном состоянии, если при столкновениях, в результате которых появится W, частицы будут обладать большей энергией, чем ее энергия покоя, т. е. ее масса покоя, умноженная на квадрат скорости света.

Но для таких соударений нужна гораздо большая энергия частиц в ускорителе: для частиц W — порядка сотен миллиардов электронвольт.

Подобные квазичастные вопросы сводятся в конце концов к следующему: почему в природе одни частицы взаимодействуют так, а другие иначе, почему одни частицы — протон, нейтрон и электрон — образуют окружающую нас материю, а другие частицы, в том числе их античастицы, на Земле в обычных условиях почти не встречаются, почему частицы обладают именно такими, а не иными массами и зарядами — одним словом, почему микромир (а вместе с ним и космос) создан таким, а не иным? Этот вопрос аналогичен вопросу Кеплера: почему планеты обладают такими, а не иными расстояниями от Солнца? Он аналогичен в еще большей мере вопросу: почему элементы имеют такие, а не иные валентности и атомные веса? На этот вопрос ответила квантовая механика, объяснив, почему электроны располагаются в определенном числе на каждой из орбит, почему нарушается правильная периодичность и т. д. В теории элементарных частиц сделаны только первые шаги для построения системы, аналогичной системе Менделеева. Уже есть первый успех: несколько частиц было предсказано на основе угадываемой систематизации сильно взаимодействующих частиц, и затем они были обнаружены экспериментально.[80] Но система элементарных частиц, стоящая по своей однозначности на уровне физически расшифрованной таблицы Менделеева, требует перехода через новый энергетический порог.

Сейчас проектируются ускорители, сообщающие частицам энергии 200—1000 млрд. эв. В Брукхэвене, где работает ускоритель на 33 млрд, эв, разрабатывается проект нового ускорителя на 1000 млрд, эв с круговой вакуумной камерой протяженностью свыше 20 км. Протоны будут двигаться в магнитном иоле, которое создается кольцевой системой из 1400 десятиметровых магнитов, железо которых весит 42 тыс. тонн. Проектируются ускорители и в Западной Европе (300 млрд. эв). В СССР разрабатываются некоторые принципиально новые схемы ускорителей.

Один из них — система встречных пучков частиц.

В тех ускорителях, о которых шла речь, быстро движущиеся, обладающие высокой энергией частицы попадают в неподвижную мишень. При этом только небольшая часть энергии движущейся частицы расходуется па рождение новых частиц.

Большая часть энергии уходит на чисто механический процесс — изменение скоростей сталкивающихся частиц (бомбардирующей частицы и частицы-мишени). После столкновения бомбардирующая частица теряет часть своей скорости, а неподвижная частица-мишень приобретает скорость и центр тяжести системы «бомбардирующая частица — частица-мишень» сдвигается в сторону удара. Вот на это перемещение центра тяжести (иными словами, на суммарное перемещение системы, состоящей из обеих столкнувшихся частиц, по отношению к ускорителю) и уходит большая часть энергии бомбардирующей частицы. При этом вместе с мощностью ускорителя растет и доля энергии, не используемая для тех процессов, наблюдение и изучение которых является задачей физики высоких энергий. В особенности это относится к столкновениям электронов. Если электрон, обладающий энергией 6 млрд, эв, сталкивается с неподвижным электроном, то около 5,94 млрд, эв уходит на смещение центра тяжести электронов по отношению к ускорителю.

Смещение центра тяжести не произойдет, если частицы — в данном случае электроны — движутся навстречу друг другу. При этом каждая частица может рассматриваться и как бомбардирующая частица, и как частица-мишень. Метод встречных пучков позволяет экспериментировать с частицами равной массы и может во много раз увеличить полезную энергию. Если бы, например, ускоритель электронов на встречных пучках придавал частицам полезную энергию порядка 12 млрд, эв, то при неподвижной мишени для этого понадобилась бы фантастическая мощность электронного ускорителя: он должен был бы сообщить электронам энергию порядка 100 триллионов эв.

Главная трудность реализации метода встречных пучков состоит в малой плотности той мишени, которой является пучок частиц. В неподвижной твердой мишени — кубике с ребром, равным 1 мм, находится 1020 атомов, а в самом интенсивном пучке это число в том же объеме в 108 раз меньше. Однако в последние годы появились идеи, которые позволяют надеяться на преодоление указанной трудности, приводящей к малой вероятности взаимодействия частиц во встречных пучках. Можно накоплять частицы с большой энергией, прошедшие десятки или сотни циклов в ускорителе в виде двух колец, имеющих общую часть, где накопленные частицы при каждом обороте вновь и вновь встречаются друг с другом. Накопление частиц высокой энергии и многократная встреча их увеличивают вероятность взаимодействия.

Конечно, встречные пучки не смогут заменить системы с неподвижными мишенями при изучении взаимодействий разных частиц. Но для большого числа задач возможно широкое использование метода встречных пучков.

Упомянем далее разработанную в СССР схему кибернетического ускорителя на 1000 млрд. эв. В нем протоны, предварительно приобретающие энергию около 18 млрд, эв, попадают в кольцевой ускоритель с длиной орбиты порядка 17 км. Специфической особенностью этой установки будут приборы, регистрирующие отклонение частиц от центра сечения круговой вакуумной камеры. Такие приборы передают информацию об отклонении пучка вычислительной машине, которая определяет необходимое изменение магнитного поля, и отклонение автоматически устраняется.

Принципиально новая схема получения частиц с очень высокой энергией была предложена В. И. Векслером в 1956 г. и приобрела практически выполнимую форму в 1968 г. Это использование сгустка электронов в пучке ускоряемых положительных ионов. Здесь на частицы действует не столько внешнее электрическое поле, сколько поля, возникающие между частицами с различными зарядами в одном пучке. Представим себе небольшую кольцевую камеру, в которой движется сгусток электронов. Затем в камеру вводят некоторое количество положительно заряженных ионов. Масса каждого из попов гораздо больше массы электрона. Поэтому, находясь в одном с электронами внешнем поле, ионы будут двигаться медленнее, чем электроны, и отставать от них. Но, если у нас достаточно плотный сгусток электронов, притяжение положительных ионов к отрицательным зарядам — электронам — преодолеет инерцию ионов и заставит их двигаться с той же скоростью, что и электроны. Энергия ионов пропорциональна их массе. Поэтому при движении электронов и ионов с одной скоростью энергия ионов будет очень большой. Каждый ион, находящийся в плотном электронном сгустке, испытывает ускоряющее воздействие поля, в тысячи раз большего, чем внешнее.

Устойчивость и компактность электронного сгустка достигаются, несмотря на взаимное отталкивание электронов, так как при движении электронов по параллельным траекториям их отталкивание уменьшается.

Реализация этой идеи представляется в виде кольцевого сгустка электронов в магнитном поле, которое, увеличиваясь, делает этот сгусток очень небольшим по размерам (порядка дециметра) и очень тонким (диаметр сечения около двух миллиметров). Далее в этот сгусток вводятся положительные ионы, и сгусток как целое ускоряется внешним электрическим полем в направлении его оси, пока ионы не приобретут заданной энергии в тысячу и даже в несколько тысяч миллиардов электронвольт.

Ускорители нового поколения будут, таким образом, в 10–30 раз мощнее Брукхэвенского и Женевского и в 5—10 раз мощнее Серпуховского. Затраты растут не в такой пропорции. Например, кибернетический ускоритель будет сообщать протонам в 30 раз большую энергию, чем работающий Брукхэвенский, но его электромагнит лишь в 4–5 раз тяжелее.

Нужно извиниться перед читателем за эти технические подробности в книге о философии оптимизма. Что делать, современный оптимизм и современная философия оптимизма — в этом их большое преимущество — основаны на весьма конкретных, хотя в то же время весьма общих, тенденциях науки, техники и экономики. Маркс в предисловии к «Капиталу» говорил, что в науке нет широких дорог и к ее вершинам можно подняться лишь по каменистым тропам. В том числе — к тем вершинам, с которых видно будущее цивилизации.

Что касается экономики, то сверхмощные ускорители требуют больших затрат, сопоставимых с большими индустриальными комплексами, и их создание в какой-то мере воздействует на структуру капитальных вложений в целом. Это очень большой перелом в ходе цивилизации.

Со времен Архимеда до наших дней человечество затратило на науку меньше стоимости современной десятидневной промышленной продукции[81]. Атомный век — это век, когда научные, особенно физические, исследования сопоставимы по стоимости с составляющими баланса капитальных вложений. Нельзя, конечно, думать, что расходы на физические исследования будут неограниченно возрастать в таком же темпе, как сейчас, или с ускорением. Это бы означало, что площадь, занятая научными учреждениями, в конце концов превысила бы площадь земной поверхности, число ученых превысило бы население Земли, а вес томов одного физического журнала, о котором рассказывает Оппенгеймер[82], превысил бы вес земного шара. К аналогичным выводам приводит, как мы видели, экстраполяция многих отдельных показателей, возраставших очень быстро в течение последних лет или последних десятилетий. Но в течение 70—90-х годов рост вложений в фундаментальные исследования будет продолжаться весьма интенсивно. Они уже достигли одного порядка с вложениями в некоторые важные отрасли промышленности. Это и делает физику в некоторой мере экономической наукой: научные прогнозы, которые стали неотъемлемой частью физики, должны принимать во внимание оптимальную структуру вложений в народное хозяйство. Это делает в свою очередь экономическую теорию и практику несколько физическими: экономические прогнозы и планирование вложений должны считаться с объективными тенденциями физики.

Необходимость физики высоких энергий и постройки ускорителей, сообщающих частицам энергии 200— 1000 млрд, эв, по-видимому, бесспорна. Основные аргументы, высказанные в течение последних трех-четырех лет, указывают прежде, всего на вложения в физику высоких энергий как на условие прогресса цивилизации.

В этой связи Швингер[83] приводит очень интересное историческое сопоставление. В конце XIX в. существовало направление, возражавшее против выведения макроскопических свойств тел из их атомистической структуры, которая тогда была лишь гипотетической (вероятно, Швингер имеет в виду позицию Маха и Оствальда). Вопреки сомнениям наука затрачивала свои материальные и интеллектуальные ресурсы на экспериментальные поиски доказательства существования атомов. Это привело к новому этапу в науке и к триумфу атомистики. Сейчас перед нами новые гипотетические контуры микрокосма; отказаться от их экспериментальной проверки — значит отказаться от перехода науки на новую ступень.

Р. Оппенгеймер[84] выдвигает весьма «эйнштейновский» аргумент. Прогресс науки, ее проникновение во все меньшие пространственно-временные области — основа рационалистического мировоззрения. «Без дальнейшего проникновения в область бесконечно малого, усилия в этот, раз могут и не закончиться торжеством человеческого разума».

Подобные аргументы обосновывают необходимость физики высоких энергий. Собственно физические соображения обосновывают направления вложений, строительство тех или иных по параметрам ускорителей. Если бы мы нарисовали диаграмму напряженности магнитного поля, длины окружности вакуумной камеры, прироста энергии частиц за один оборот и т. д., физические соображения могли бы определить оптимальное сочетание параметров, оптимальное направление вектора в пространстве перечисленных переменных. Но от чего зависят масштабы вложений и скорость развертывания экспериментальной базы физики высоких энергий? Как обосновать темп ввода ускорителей на 200—1000 млрд, эв? Ни общие аргументы, ни физические соображения не содержат ответа на этот вопрос. Совершенно очевидно также, что вложения в физику высоких энергий, которые вызвали бы уменьшение темпов роста экспериментальных, промышленных и культурных условий пового этапа в науке, были бы нерациональными. В последнем счете такие условия включают весь баланс капитальных вложений, и вложения в физику высоких энергий должны быть составляющей оптимального экономического баланса.

Было бы очень просто, если бы мы могли определить количественный экономический эффект фундаментальных исследований и, исходя из максимального эффекта, найти долю вложений в физику высоких энергий в оптимальном балансе вложений. Но это невозможно. Когда мы говорим, что фундаментальная наука гарантирует возрастание ускорения производительности труда, то эта величина остается символом, который сейчас не может быть расшифрован в виде количественного показателя.

Для каждого ускорителя темпы его сооружения определяются обычными проектными и строительными условиями, а число их должно соответствовать числу различных теоретически обоснованных схем и, главное, наличию больших научных школ, уже обладающих опытом проектировки больших ускорителей, исследования тех или иных проблем с помощью пучков частиц высокой энергии и подошедших в своей теоретической работе к новым проблемам, требующим пучков с энергией 200—1000 млрд. эв.

И все же темпы развития физики высоких энергий определяются вопросом «зачем?». Этот вопрос в уже известном нам смысле максимального возрастания динамических показателей цивилизации относится к строительству ускорителей, и мы можем приписать фундаментальным исследованиям экономический эффект. Понятие экономического эффекта, как мы видели, преобразуется и обобщается, оно становится динамическим, включает показатели скорости и ускорения роста производительных сил.

Но этими количественно определимыми коэффициентами (определимыми в известных пределах, с неизбежной неопределенностью только что указанных экономических переменных) экономический эффект не ограничивается. Выше было сказано, что возрастание ускорения производительности труда (переход к более высоким коэффициентам ускорения) — это величина, не допускающая количественной расшифровки, пока не допускающая. Но из механизма ускорения следует со всей возможной в таких вопросах достоверностью качественный вывод: интенсивные исследования вызывают циклы ускорения экстенсивных исследований и их результатов, т. е. ускоренного обновления тех идеальных физических схем, которые служат целевыми канонами для технического прогресса.

Космос

Одному из самых блестящих изложений теории относительности — написанной в 1923 г. книге А. А. Фридмана «Мир как пространство и время» — автор предпослал в виде эпиграфа следующую выдержку из «Гисторических материалов Федота Кузьмича Пруткова»: «Однажды, когда ночь покрыла небеса своею епанчою, французский философ Декарт, у ступенек домашней лестницы своей сидевший и на мрачный горизонт с превеликим вниманием смотрящий, — некий прохожий подступил к нему с вопросом: «Скажи, мудрец, сколько звезд на сем небе?» — «Мерзавец! — ответствовал сей, — никто необъятного объять не может!» Сии, с превеликим огнем произнесенные, слова возымели на прохожего желаемое действие».

В следующих за эпиграфом первых строках книги А. А. Фридман говорит, что «всегда находились среди мыслящего человечества и любопытные прохожие и более, нежели Декарт, обходительные мудрецы, пытающиеся на основании постоянно ничтожных научных данных воссоздать картину мира»[85]. В оставшиеся десятилетия XX в. эти обходительные мудрецы смогут давать на вопросы любопытных прохожих о Вселенной ответы, основанные уже не на столь ничтожных данных. Но теперь речь идет не только о подсчетах дискретных тел во Вселенной. Космологическая проблема — это уже не только и, может быть, не столько проблема взаимодействующих дискретных тел, сколько проблема различных по своей природе полей. Самое же существенное отличие состоит в том, что сейчас без теоретических конструкций, охватывающих Метагалактику в целом, нельзя достаточно быстро продвигаться вперед в тех фундаментальных областях науки, которые придают нашей эпохе ее характерный динамизм.

Классическая картина взаимодействующих тел — звезд, планет и комет — была результатом первой астрономической революции, вызванной телескопом. Когда Галилей в 1610 г. направил зрительную трубу на небо, обнаружил дискретную природу Млечного Пути и другие ранее неизвестные факты и опубликовал свои открытия в «Звездном посланнике», начался период доказательства, теоретического осмысления и конкретизации системы Коперника — картины взаимодействующих тел без «естественных движений» перипатетической космологии.

Новая астрономическая революция, начавшаяся в середине XX в., продолжающаяся сейчас и имеющая все шансы охватить конец столетия, а может быть, и начало следующего, по-видимому, приведет к подтверждению и конкретизации релятивистской космологии — картины пространства, обладающего кривизной, радиус которой с течением времени изменяется. При этом новая астрономическая революция позволит увидеть в этом пространстве игру взаимодействующих полей, существование и поведение квантов этих полей, элементарных частиц.

Вторая астрономическая революция берет в качестве наиболее общей исходной идеи релятивистскую модель Метагалактики и стремится связать ее уже не только с тяготением, но и с различными типами полей. Если говорить о средствах наблюдения, то исходный пункт новой астрономической революции состоит, во-первых, в наблюдениях со спутников и космических кораблей и, во-вторых, в замене, вернее, в дополнении человеческого глаза астрофизическими приборами, улавливающими электромагнитные волны не только в оптическом, но и в других диапазонах, а также потоки различных частиц помимо электромагнитного излучения.

Искусственные спутники Земли и космические корабли уже позволили наблюдать излучения астрономических объектов без затрудняющего эти наблюдения воздействия земной атмосферы. Весьма достоверный прогноз на 2000 г. обещает наблюдения с поверхности Луны и с поверхности либо с близких орбит, окружающих Меркурий, Венеру и Марс. Возможность доставить астрономические и астрофизические приборы на планеты земной группы — исходный пункт прогнозов развития астрономии на 2000 г. Сейчас в космических ракетах еще не используется ядер-пая эпергия. Но в прогнозах на 2000 г. такое использование фигурирует. В этом смысле космонавтика, которая сейчас обладает независимой энергетической основой (поэтому и законно прибавление «космическая» в часто произносимой характеристике «атомно-космическая эра»), впоследствии будет испытывать резонансный эффект ядер-ной энергетики и зависеть от ее прогресса.

Есть и другая, значительно более тонкая, связь между перспективами астрономии и ядерной физики. Речь идет об известных физике ядерных реакциях, которые привлекают для объяснения результатов астрофизических наблюдений.

Перенос ядерных моделей из микрокосма в звездную астрономию дает особенно важные результаты, когда говорят о так называемой главной последовательности звезд. Этот введенный Эддингтоном термин «главная последовательность» означает следующее.

Звезды (в основном состоят из плазмы — ядер водорода, т. е. протонов, и ядер гелия, смешанных с оторвавшимися от них электронами. Кроме того, в звездах имеются в сравнительно небольшом числе ядра более тяжелых элементов — кислорода, азота, углерода, железа и некоторых других. Звезды принадлежат к различным спектральным классам — они различаются по цвету. Цвет зависит от температуры и может быть красноватым, желтоватым и при самых высоких температурах белым и голубоватым. С другой стороны, звезды различаются по светимости (т. е. по количеству энергии, излучаемой звездой вединицу времени). Светимость связана с видимой яркостью звезды; последняя зависит также от расстояния, и если привести все звезды к условному стандартному расстоянию, то светимость будет мерой абсолютной звездной величины. Радиусы звезд меняются в очень больших пределах: есть звезды не больше Земли («белые карлики»), а другие занимают пространство, в котором поместилось бы не только Солнце, но и орбиты планет земной группы. Масса меняется меньше, так как большие звезды могут обладать в миллиарды раз меньшей плотностью, чем малые.

У большинства звезд светимость и цвет соответствуют друг другу: если откладывать вдоль горизонтальной оси слева направо спектральные классы, соответствующие все меньшей температуре звезд, а вдоль вертикальной оси снизу вверх все большие меры светимости, то мы увидим, что большинство звезд расположено вдоль диагонали, идущей из левого верхнего угла (т. е. из области высоких светимостей и высоких температур) в правый нижний (т. е. в область низких светимостей и низких тем-нератур). Это и есть «главная последовательность» звезд: на диаграмме с понижением температуры звезд и изменением их цвета от голубого и белого к желтому и затем к красному уменьшается светимость.

Вне главной последовательности находятся звезды с очень большой светимостью («гиганты» и «сверхгиганты»), но принадлежащие к спектральному классу, соответствующему сравнительно низкой температуре; они отличаются красноватым (иногда желтоватым) цветом и называются красными гигантами. Вне главной последовательности располагается на диаграмме и группа звезд высокого спектрального класса со сравнительно низкой светимостью («белые карлики»).

Эволюция звезд, находящихся на главной последовательности, объясняется ходом ядерных процессов. Основной источник звездной энергии — термоядерная реакция, образование ядер гелия из протонов. Пребывание звезды на главной последовательности совпадает с определяющим воздействием термоядерной реакции на излучение звезды. Эволюция звезды на главной последовательности, т. е. изменение спектра ее излучения и соответственное (это соответствие и означает, что звезда остается на главной последовательности) изменение светимости, представляется в свете ядерной физики следующим[86].

Допустим, что межзвездное вещество начало конденсироваться и затем под влиянием тяготения первоначальное облако образовало непрозрачный газовый шар.

Силы тяготения сжимают этот шар, температура его повышается, но она еще невелика, поэтому цвет звезды приближается к красному, а между тем зависящая от массы светимость может быть очень большой. Дальнейшее гравитационное сжатие повышает температуру, цвет звезды начинает соответствовать ее светимости, и звезда оказывается на главной последовательности. Теперь температура звезды позволяет начаться термоядерной реакции, последняя в свою очередь поддерживает температуру, а следовательно, и спектр излучения звезды на медленно меняющемся уровне. Медленно меняется и светимость звезды. Если же ее масса велика и излучение весьма интенсивно (таковы «голубые гиганты»), звезда в течение нескольких миллионов лет теряет запасы водорода, протоны относительно быстро превращаются в ядра гелия, и звезда становится гелиевым шаром, светимость которого уже не соответствует ее спектру. Но вскоре (в космической шкале времени) начинается новая ядерная реакция. Три ядра гелия превращаются в ядро углерода. Если температура продолжает быть высокой, могут происходить и другие ядерные реакции, которые заканчиваются образованием железа, уже неспособного участвовать в ядерных реакциях с выделением энергии. Для звезды с массой, близкой к массе Солнца, вся эволюция может продолжаться около 10 млрд. лет.

Подобные подсчеты непосредственно связаны с ядерной физикой и очень характерны для науки атомного века. В основе их лежат представления о ядерных реакциях, которые практически пока не применяются, но служат основным объектом экспериментальных и теоретических поисков. Но здесь сказывается и другой разрез атомной эры. Эволюция звезд могла быть выражена в количественных определениях, сроки ее этапов, температуры, радиусы, светимости и спектры звезд могли быть вычислены лишь с помощью электронных вычислительных машин.

Для звезд с массой, близкой к массе Солнца, меньшей, чем эта масса, или немного большей (до 1,2 массы Солнца), последние этапы биографии состоят в превращении в «белые карлики» и в последующем остывании. Масса их остается такой же — порядка массы Солнца, а размеры значительно уменьшаются, приближаются к размерам Земли. В этом случае плотность достигает десятков тонн в кубическом сантиметре. Такая судьба может постичь и «красный гигант», если он сбросит свою оболочку, обнажит раскаленное ядро (т. е. перейдет в другой спектральный класс) и уменьшит свою массу.

«Белые карлики» могут существовать длительное время — миллиарды лет, постепенно остывая и превращаясь в вовсе неизлучающие «черные карлики». Сравнительная устойчивость «белых карликов» объясняется чисто квантовыми закономерностями. В «белом карлике» уже не происходит выделяющих большие энергии термоядерных реакций. Исчерпание ядерного горючего нарушает характерное для главной последовательности равновесие между гравитационным сжатием и давлением частиц раскаленной плазмы. Но тут в игру вступает открытая Паули закономерность, запрещающая двум электронам находиться в одном и том же состоянии. При большой плотности плазмы, состоящей из ядер и электронов, электроны с одинаковой скоростью оказываются очень близкими один к другому и запрет Паули выражается в их взаимном «отталкивании» — в упругости электронного газа[87].

Выше говорилось о возникновении звезд из диффузной, рассеянной материи как об исходном пункте их эволюции. Существует и другая концепция: звезды образовались из плотных тел[88]. Такое представление, выдвинутое В. А. Амбарцумяном и его школой, обладает высоким «прогнозным весом»: существуют основания полагать, что эта концепция в течение ближайших лет и десятилетий приобретет новые аргументы.

Теория эволюции звезд опирается на теорию ядерных реакций и на теорию тяготения. Пока рассматриваются главная последовательность и предшествующие этапы эволюции, речь идет о тяготении, как его описывает теория Ньютона. Но существуют, быть может, гравитационные по своей природе процессы, которые выходят за рамки ньютоновой теории. Эти процессы прорывают нормальную, связанную с ядерными реакциями и «обычными» (т. е. подчиненным закону Ньютона) гравитационными силами эволюцию звезды. При подобных катаклизмах звезда в течение короткого времени излучает больше энергии, чем миллиарды звезд, чем целая галактика. Такие процессы, возможно, служат причиной того, что называют вспышками сверхновых звезд[89].

Новые звезды вспыхивают часто — около ста в год в Галактике, а сверхновые появляются в больших галактиках в среднем раз в течение столетия. В нашей Галактике последняя вспышка сверхновой произошла в 1604 г. Теперь, когда можно наблюдать множество галактик (причем воспринимать и измерять не только оптическое излучение), накопилось довольно много наблюдений, проливающих свет на природу вспышек сверхновых. Можно думать, что сверхновые возникают иногда из звезд, претерпевших уже длительную эволюцию, а иногда из молодых весьма массивных звезд, превышающих вдвое и больше массу Солнца. Они образуют при взрыве газовые туманности, отличающиеся высокой радиоактивностью и мощным оптическим и рентгеновским излучением. В. Л. Гинзбург и И. С. Шкловский считают вспышки сверхновых основным источником космических лучей. Проблема происхождения космических лучей — одна из основных астрофизических проблем, решение которых должно быть запроектировано на конец столетия. В этом отношении внеземные наблюдения с космических кораблей, с поверхности Луны и планет земной группы позволят точнее определить состав первичных космических лучей, не измененный взаимодействием с земной атмосферой.

Природа сверхновых еще далеко не выяснена, и то, что сейчас о ней говорят, представляет собой лишь первоначальные гипотезы, иллюстрирующие характер астрофизических проблем, которые будут решаться в конце столетия. Возможно, в течение этого времени будет подтверждена мысль о взрыве, вызванном гравитационным сжатием под действием сил, соответствующих эйнштейновскому закону тяготения. Эта мысль очень характерна для современной астрофизики, ее тенденций и перспектив.

Мы уже говорили о «белых карликах», т. е. сравнительно устойчивых финальных состояниях звезд с массой не больше 1,2 массы Солнца. У звезд с большей массой давление электронного газа недостаточно, чтобы противостоять гравитационному сжатию, последнее продолжается, и звезда уменьшается до размеров порядка 10 км, приобретая фантастическую плотность, превышающую плотность атомного ядра, т. е. 100 млн. тонн в кубическом сантиметре. При такой плотности свободные электроны присоединяются к протонам, протоны захватывают их, превращаясь в нейтроны, и звезда оказывается состоящей из тесно сдавленных нейтронов. В сверхплотном состоянии уже не существует сложных атомных ядер. Зато здесь могут существовать элементарные частицы тяжелее нуклонов; эти частицы не распадаются при столь высокой плотности.

До определенных пределов упругость сверхплотного вещества может противостоять дальнейшему гравитационному сжатию. Если нейтронная звезда не превышала своей массой двух масс Солнца или потеряла избыточную массу, она будет постепенно остывать. Существование нейтронных звезд пока не доказано. В прогнозы астрофизики, в число предстоящих возможных открытий входит открытие нейтронных звезд при наблюдении нейтрино, т. е. незаряженных частиц с нулевой массой покоя, излучение которых должно сопровождать гипотетические реакции в этих звездах. Быть может, нейтронные звезды будут обнаружены по их рентгеновскому излучению. Быть может, они уже обнаружены?

Нейтронная звезда, масса которой не превышает двух масс Солнца, переходит в число остывающих и затем остывших звезд, и это — финал ее эволюции. Но, если масса звезды после нарушения равновесия между упругостью, обязанной ядерным реакциям, и гравитационным сжатием будет больше указанной величины, упругость уплотненного и нейтронизированного вещества не может остановить гравитационное сжатие, которое в этом случае приобретает характер космической катастрофы. Катастрофически быстрое сжатие называется гравитационным коллапсом. Этот термин нам уже знаком, гравитационный коллапс упоминался в связи с гипотезой максимонов. Речь идет о сжатии звезды под влиянием гравитационных сил, растущих соответственно эйнштейновскому закону тяготения. Согласно закону Ньютона тяготение неограниченно возрастает, когда расстояние между телами стремится к нулю. На поверхности звезды гравитационные силы стремятся к бесконечности, когда звезда стягивается в точку, т. е. размеры ее приближаются к нулю. Согласно закону Эйнштейна силы тяготения стремятся к бесконечности, когда радиус звезды приближается к определенной величине, пропорциональной ее массе. Для Солнца или другой звезды с той же массой такой радиус равен трем [90] километрам. Здесь, на таком расстоянии от центра звезды, гравитационные силы становятся бесконечными, и скорость сближающихся под влиянием этих сил частиц становится равной скорости света. Из теории относительности вытекает для этого случая крайне парадоксальная картина. Казалось бы, тело, движущееся в таком гравитационном поле, пройдет громадное расстояние в течение краткого мига. Но этот «краткий миг» в теории относительности теряет абсолютный смысл. Выражение «краткий миг» имеет смысл для системы отсчета, укрепленной на самой звезде. Для других систем, например для нашей земной системы отсчета, этот миг становится все большим интервалом времени, по мере того как происходит сжатие, и, когда оно доводит звезду до упомянутого критического радиуса, миг растягивается бесконечно.

Общая теория относительности рассматривает тяготение как изменение пространственно-временной метрики. Чем больше в данной точке напряженность гравитационного поля, тем больше изменяется метрика, тем больше становится измеренная в этой точке секунда, если перейти к другой системе координат и измерить эту секунду там. То, что в системе звезды длится секунду, в другой системе координат оказывается часом, веком, тысячелетием, миллиардом лет. А при сжатии звезды до указанного выше критического радиуса любой временной интервал становится в иной, свободной от такого сильного гравитационного поля, системе отсчета бесконечным. Возрастание временных интервалов в гравитационном поле выражается, в частности, в возрастании периода электромагнитных колебаний и соответственно в увеличении длины электромагнитных волн, в красном смещении спектральных линий. Гравитационное поле, соответствующее сжатию звезды до критического радиуса (пропорционального, как уже говорилось, массе звезды и для массы Солнца составляющего 3 км), превращает периоды электромагнитных колебаний в бесконечные. Это значит, что электромагнитное излучение прекращается. Прекращается всякое излучение. Коллапсирующая звезда связана с другими телами только тяготением. Звезда падает, по выражению Я. Б. Зельдовича, в гравитационную могилу.

Гравитационный коллапс принадлежит к числу процессов, принципиально отличающихся от обычных релятивистских процессов (здесь слово «обычные» означает «сравнительно известные науке, служащие основным объектом исследования и практически применяемые»). Эти обычные релятивистские процессы требуют для своего описания учета соотношений теории относительности потому, что выделяющиеся и поглощаемые энергии сопоставимы с массами покоя частиц, умноженными на квадрат скорости света. Ультрарелятивистские процессы начиная с открытых в начале 30-х годов аннигиляций и порождений электронно-позитронных пар связаны с поглощением и выделением энергии порядка массы покоя, умноженной на квадрат скорости света. Изучение подобных процессов приближает науку к решению наиболее фундаментальных для нашего времени проблем de rerum natura, приближает практическое применение этих процессов и переход к ультрарелятивистской цивилизации — воплощению субъядерной физики.

В отличие от обычной (в указанном выше смысле) эволюции звезд на главной последовательности, где гравитационное сжатие уравновешивается термоядерными и вообще ядерными реакциями, дебюты и финалы жизни звезд приближаются к полной реализации уравнения Е = mс2, т. е. к полному превращению энергии покоя в энергию излучения. В условиях сверхвысоких давлений, при плотности, большей, чем плотность атомного ядра, при концентрации всей массы звезды в сфере радиусом несколько километров, при бесконечной (для внешнего наблюдателя) длине излучаемых волн, в этом мире коллапсирующей звезды происходят какие-то пока неясные процессы в субъядерных масштабах. Картина этих процессов не может быть нарисована, если ограничиваться специальной теорией относительности. Здесь тяготение вторгается в микромир. При колоссальной плотности вещества, при встречающихся только здесь, в коллапсирующих звездах, малых расстояниях между частицами гравитационные, т. е. ультраслабые в обычных масштабах атомной физики, взаимодействия становятся весьма интенсивными. Поэтому для понимания таких процессов необходим некоторый синтез квантовой физики микромира и общей теории относительности, т. е. современной теории тяготения.

Таким образом, конечная судьба звезд в основном зависит от их массы: звезды с массой, меньшей, чем 1,2 массы Солнца, становятся белыми карликами; звезды с массой, равной от 1,2 до 2 масс Солнца, превращаются в нейтронные звезды; звезды с массой, больше чем в два раза превышающей массу Солнца, коллапсируют и попадают в «гравитационную могилу». В процессе эволюции возможны потери оболочки, уменьшение массы и соответственное изменение конечной судьбы. Характерная особенность современной астрономии и астрофизики — тесная связь проблем звездной эволюции с проблемами эволюции галактик. Звезды образуются из межзвездного вещества, и оно же является источником пополнения звездного вещества во время катаклизмов, срывающих звездные оболочки. Но эта схема приводит к заключению об убывающем количестве межзвездного вещества в Галактике. Часть его остается в устойчивых карликах, завершающих главную последовательность, другая часть — в медленно эволюционирующих звездах, не превышающих своей массой 1,2 массы Солнца и не успевших за время существования Галактики завершить свою эволюцию. Это — перый вывод о балансе Галактики из схемы звездной эволюции. Он относится к распределению вещества между звездами и межзвездным, газом. Далее, из схемы эволюции звезд вытекает проблема генезиса тяжелых ядер. Первоначальный запас водорода постепенно расходуется на образование гелия. Из гелия образуются кислород и углерод. Но на некотором этапе дальнейшее нарастание нуклонов в ядрах приостанавливается, так как новые ядра оказываются нестабильными и распадаются раньше, чем к ним присоединяются новые нуклоны. Можно предположить, что при взрывах, которые мы называем вспышками сверхновых, положение иное. При происходящих здесь цепных реакциях появляются многочисленные нейтроны, которые захватываются ядрами до их распада. Эти ядра после захвата нейтронов становятся устойчивыми, и рост числа нуклонов, т. е. переход к более тяжелым элементам, происходит беспрепятственно вплоть до элементов, находящихся в самом конце таблицы Менделеева. При вспышках сверхновых тяжелые ядра проникают в межзвездный газ и далее, в образующиеся из него звезды второго поколения.

Вырисовывается следующая картина происхождения Галактики — событий, происходивших 10–15 млрд, лет назад. Первоначальное плазменное облако, состоявшее в основном (может быть, и полностью) из протонов и электронов, сжималось под влиянием тяготения. Конденсация первичного облака происходила неравномерно, образовывались локальные сгущения, из которых потом образовались звездные скопления, и еще меньшие сгущения в пределах этих первых сгущений — будущие звезды первого поколения. Облако стало протогалактикой. Она вращалась, это препятствовало гравитационной концентрации всей плазмы в центре, она сосредоточивалась в плоскости, перпендикулярной к оси вращения.

Современной астрономии известны явления, которые требуют для своего объяснения дальнейшего анализа эволюции Галактики. Есть основания думать, что постепенный переход от первичного протонно-электронного облака к протогалактике и затем к звездной Галактике прерывается, а может быть, начинается мощными, несравненно более мощными, чем вспышки сверхновых, взрывами в ядрах галактик. Помимо туманностей в составе нашей Галактики, обязанных вспышкам сверхновых и обладающих очень сильным радиоизлучением, существуют очень далекие от нас галактики с сильным радиоизлучением. Можно думать, что эти радиогалактики возникли из астрономических объектов, подобных тем, которые недавно открыты на границах известной нам части Вселенной. Они называются сверхзвездами, квазизвездными объектами, квазизвездами или квазарами. По красному смещению и, следовательно, по скорости удаления от нас можно определить расстояние до квазаров и, сопоставив это расстояние с видимой яркостью, оценить их светимость. Красное смещение здесь очень велико, длина волны увеличена в несколько раз. Отсюда можно заключить, что свет от квазаров, который доходит к нам сейчас, был излучен несколько миллиардов лет назад. Нынешний квазар, если он сейчас существует, можно будет увидеть па Земле через миллиарды лет, если к тому времени еще будут существовать Земля, Солнечная система в целом и наша Галактика.

Что собой представляет квазар — пока неизвестно. Светимость его, если принять во внимание наблюдаемую яркость и колоссальное расстояние, в сто раз превышает светимость самой крупной из известных нам галактик. Источником такой энергии могут быть гравитационное сжатие или термоядерные реакции (высказывались предположения о цепной реакции вспышек сверхновых, а также о взрыве образовавшегося в ядре галактики массивного газового шара — звезды, в несколько миллионов раз большей, чем Солнце).

Чем дальше от нас та или иная галактика, тем с большей скоростью она удаляется и тем больше ее красное смещение. Это уменьшает видимую яркость далеких галактик. Такое ослабление яркости в известных пределах компенсируется сооружением очень мощных телескопов оптического, инфракрасного и радиодиапазона и в будущем размещением таких телескопов на искусственных спутниках и на Луне. В более отдаленном будущем они будут расположены и на планетах земной группы, и на спутниках этих планет. Можно быть уверенными, что в течение десятилетий, отделяющих нас от 2000 г., будут открыты еще более далекие объекты, может быть более крупные и более загадочные, чем квазары.

В 1967 г. были открыты объекты, по-видимому не такие крупные и не такие далекие, как квазары, но действительно более загадочные. В 1967 г. обнаружили исходящие из одной области неба весьма правильно повторяющиеся импульсы радиоизлучения. Позже было открыто несколько десятков источников подобного излучения. Первоначальная мысль о внеземных цивилизациях была быстро оставлена, и сейчас склоняются к мысли, что пульсары (так назвали эти источники излучения) представляют собой уже известные нам нейтронные звезды, состоящие из плотно спрессованных нейтронов и обладающие плотностью, близкой к плотности атомного ядра. Краткий и весьма содержательный рассказ о пульсарах читатель найдет в статье И. С. Шкловского «Пульсары» в сборнике «Будущее науки»[91].

Далекие астрономические объекты находятся на больших расстояниях от нас, но мы изучаем их такими, какими они были миллиарды лет назад, когда они послали нам лучи, достигшие Земли сейчас. Поэтому наблюдения над квазарами могут привести к очень радикальным космогоническим выводам, к новым представлениям об эволюции Вселенной. Здесь можно видеть характерную особенность научных прогнозов. Перечисление астрономических и астрофизических проблем (эволюция звезд, нейтронные звезды, пульсары, сверхновые, коллапс, происхождение космических лучей, природа квазаров) представляет собой по существу схему прогноза на ближайшие десятилетия: мы предполагаем, что в этот период будут в какой-то мере решены проблемы, поставленные открытием сверхновых, квазаров и т. п. В современной астрофизике почти каждое обобщение, почти каждая новая концепция и почти каждый крупный результат наблюдения представляют собой не только гипотетическую констатацию, относящуюся к структуре мироздания, но тем самым и гипотетическое предположение о таком развитии астрофизики и астрономии, которое подтвердит и конкретизирует высказанную гипотезу или же заставит отказаться от нее. Поэтому перечисление проблем и гипотез в современной астрофизике и астрономии представляет собой некоторый схематический прогноз развития самой науки.

Этот прогноз исходит из уже сделанных наблюдений, уже высказанных концепций и уже сформулированных проблем. Вместе с тем любой прогноз в этой области включает неизбежность новых наблюдений и принципиально новых результатов. Подобная неизбежность является самой достоверной компонентой прогноза, хотя она и не допускает конкретной расшифровки. Ведь мы только вошли в эпоху внеземных наблюдений и изучения неоптических диапазонов. Новые наблюдения неизбежно поставят новые проблемы и изменят развитие астрофизики и астрономии.

Мы еще раз убеждаемся, что научный прогноз представляет собой в общем случае касательную к реальной кривой, касательную, показывающую направление кривой, которое в следующий момент может измениться. Это нисколько не уменьшает значения прогнозов — ни теоретического, ни практического. В современной науке гипотеза больше, чем когда-либо, является условием прогноза достоверных позитивных знаний. В физике элементарных частиц современный период — это период продумывания вопросов, которые будут заданы природе с помощью нового поколения ускорителей. В астрофизике современный период требует продумывания вопросов, которые будут заданы природе с помощью телескопов и астрофизических приемников излучений на спутниках, на Луне и впоследствии на планетах земной группы. Во многом эти вопросы теории элементарных частиц и вопросы астрофизики совпадают. Но и те и другие подготовляются в виде физических и астрофизических гипотез, которые вместе с тем служат неоднозначными прогнозами развития науки. Что касается практического эффекта этих гипотез и прогнозов, то они повышают интеллектуальный потенциал науки, и это сказывается количественно неопределимым, но несомненным ускорением прогресса цивилизации.

Для повышения интеллектуального потенциала науки большое значение имеет неизбежная апелляция к общим космологическим гипотезам при разработке крупных частных астрономических и астрофизических проблем. Из большого числа кардинальных вопросов о структуре и эволюции Вселенной в целом мы рассмотрим вопросы: 1) об однородности Вселенной, 2) о ее конечности или бесконечности, 3) о расширении Вселенной, 4) о ее состоянии до расширения и 5) о симметрии или дисимметрии Вселенной в смысле равного или неравного содержания частиц и античастиц.

Первый взгляд на небосвод обнаруживает неоднородное распределение масс. В звездах вещество резко отличается по плотности от межзвездной среды. Звезды сгруппированы в галактики, где средняя плотность, естественно, больше, чем в межгалактических пространствах. Солнце входит в Галактику, состоящую из ста миллиардов звезд. Дальше идут беззвездные пространства и за ними новые галактики, разделенные расстояниями в 1–5 млн. световых лет. Охватывая еще большие пространства, обнаруживают скопления, состоящие из десятков или сотен галактик. Но более крупных структурных единиц мы не обнаруживаем. Поэтому допустимо предположить, что Вселенная, взятая в масштабах, которые мы охватываем телескопом, однородна. Переходя ко все большим масштабам, мы получаем в пределе одну и ту же плотность материи, с какой бы точки мы ни наблюдали звездное небо. Для сферы радиусом около 3 млрд, световых лет, где находятся сотни миллионов галактик, средняя плотность приближается к 10-30 г в кубическом сантиметре. Мы можем рассматривать находящуюся в этих пределах материю как некий космический однородный субстрат, игнорируя локальные неоднородности вплоть до скоплений галактик. Расстояния между такими скоплениями становятся очень малыми по сравнению со сферой, охватывающей известную нам часть Вселенной. Мы можем предположить, что Вселенпая однородна и дальше, в пространствах, которые пока еще недоступны телескопу.

Существует некоторый «оптический горизонт», за который мы сейчас еще не можем заглянуть, потому что находящиеся там объекты (если несколько упростить картину) удаляются от нас со скоростью света, красное смещёние становится при этом бесконечным и эти объекты невидимы. Но на значительно меньших расстояниях постулат однородности Вселенной является вопросом, который может быть подтвержден наблюдениями. Объем исследованной Вселенной, для которого ее однородность подтверждается наблюдением, зависит (в указанных пределах) от мощности телескопов, от их размещения вне земной атмосферы и от возможности улавливать все диапазоны электромагнитных волн и все виды космических излучений, иными словами, от хода новой астрономической революции. Но от нее зависят, как мы сейчас увидим, ответы и на другие основные космологические вопросы.

К ним относится и вопрос о конечности или бесконечности Вселенной. Здесь нам нужно вернуться к ранее сделанным беглым замечаниям об общей- теории относительности и несколько развить их. Эйнштейн рассматривает тяготение как изменение метрики, как переход от эвклидовых свойств пространства-времени к неэвклидовым, как искривление пространства-времени. Двигаясь в пространстве, мы будем встречать локальные гравитационные поля планет, звезд, галактик, т. е. искривления пространства-времени, заставляющие мировую линию тела искривляться, подобно тому как на двумерной поверхности Земли кочки, пригорки, холмы и горы искривляют траекторию тела, движущегося по земной поверхности. Но на Земле помимо этих локальных искривлений существует общая кривизна поверхности планеты. Не существует ли во Вселенной помимо локальных гравитационных полей аналогичной общей кривизны? Если бы пространство-время в целом обладало такой кривизной, то движение тела, вылетевшего в космос из данной точки в данный момент, закончилось бы в той же точке в тот же момент, его мировая линия замкнулась бы, как замыкается путь кругосветного путешественника, движущегося по земной поверхности не меняя направления.

Но замкнутая линия в пространстве не противоречит аксиомам физики, в то время как замкнутая мировая линия и приход космического путешественника в ту же точку в тот же момент, когда он отправился в путешествие, физически невозможны. Поэтому Эйнштейн предположил, что время не искривлено, а кривизной обладает только пространство. Тело, свободно летящее во Вселенной, независимо от меняющих его направление локальных полей, попадает в ту же точку, описав замкнутую линию, длина которой зависит от кривизны пространства. Но это произойдет через миллиарды лет, возврата к тому же мгновению не может произойти. Подобная структура четырехмерного мира — пространственные измерения обладают кривизной, а время не обладает ею — напоминает цилиндр, поверхность которого — прямая в одном измерении (параллельно оси) и кривая в другом, поперечном направлении. Мир Эйнштейна называется поэтому цилиндрическим миром.

Это замкнутая модель Вселенной. Она имеет конечный объем, и траектория свободно движущегося тела в ней не может быть бесконечной. Но такая конечная Вселенная не похожа на конечную Вселенную Аристотеля: здесь нет замыкающей Вселенную границы. Не похожа она и на модель звездного острова в безбрежном океане пустого пространства. Здесь сам океан, хотя он и не имеет берегов, ограничен. Если перейти от трехмерного пространства к двумерной поверхности, то легко найти наглядное представление: поверхность сферы не имеет границ, но она конечна по площади и на ней нельзя провести геодезическую линию неограниченной длины.

Подобное уже известное нам представление о мировом пространстве не единственно возможное. Здесь оно уподобляется сферической поверхности, и геометрия мира — это геометрия Римана: через точку, взятую вне прямой, нельзя провести ни одной прямой, которая не пересекалась бы с ней; сумма углов треугольника больше двух прямых углов и т. д. Но не исключено, что геометрия мира иная. Можно представить себе кривую поверхность типа поверхности седла и убедиться, что на ней реализуется геометрия Лобачевского: через точку, взятую вне прямой, можно провести сколько угодно не пересекающихся с ней прямых; сумма углов треугольника меньше двух прямых; перпендикуляры к одной и той же прямой расходятся. Если мировое пространство — трехмерный аналог такой поверхности, то оно незамкнуто. Незамкнуто оно и в том случае, если кривизны пространства не существует, если его двумерный аналог — плоскость.

Если мир обладает той или иной пространственной кривизной, то она может быть постоянной или зависеть от времени. Второе предположение и лежало в основе выдвинутой Фридманом в 1922 г. и уже не раз упоминавшейся модели расширяющейся Вселенной. Мы уже знаем, что обнаруженное впоследствии красное смещение спектров далеких звезд подтвердило модель Фридмана. Открытым является вопрос о характере расширения Вселенной. Сейчас еще нельзя сказать, происходит ли расширение как необратимый процесс или Вселенная пульсирует и расширение когда-нибудь сменится сжатием. Решение этого вопроса зависит от данных о средней плотности вещества во Вселенной и вообще от результатов астрономических и астрофизических наблюдений. Можно предположить, что вопрос будет решен однозначным образом в последней трети нашего столетия, т. е. до 2000 г.

От хода новой астрономической революции можно ожидать в этот период ответа и на другой кардинальный космологический и космогонический вопрос. Это вопрос о состоянии Вселенной в то время, когда она начала расширяться.

Если исходить из современных представлений о скорости расширения, то получится, что 7—14 млрд, лет назад Вселенная представляла собой сверхплотное тело. Какова была его температура? В 1946 г. Гамов выдвинул модель «горячей Вселенной» — предположение об очень высокой начальной температуре. Когда расширение Вселенной довело ее до средней плотности, равной плотности ядра, температура была около 1013 градусов, а раньше, при большей плотности, температура была еще выше.

Данные для того или иного решения вопроса о начальном состоянии Вселенной тесно связаны с астрофизическими наблюдениями и даже с работами, имеющими практический эффект. В 1965 г. в лаборатории фирмы Белл при изучении радиошумов было открыто тепловое излучение, приходящее на Землю со всех сторон с одной и той же интенсивностью. Из характера этого «реликтового» излучения вывели существование некоторой определенной температуры в межгалактическом пространстве и связали ее значение с начальной температурой Вселенной, как ее оценивает «горячая» модель. Многочисленные работы, связывающие эту модель с астрофизическими данными, оперируют трансмутациями элементарных частиц (в частности, аннигиляциями тяжелых частиц и сохранением нейтрино и некоторых других частиц).

С теорией элементарных частиц столь же непосредственно связана проблема симметрии Вселенной. В теории элементарных частиц рассматриваются вещество (электроны, протоны, нейтроны и т. д.) и антивещество (позитроны, антипротоны, антинейтроны и т. д.). Симметрична ли Вселенная в том смысле, что вещество и антивещество представлены в ней в количественно равных долях? Существуют теории, выводящие из новейших гипотез об элементарных частицах дисимметрию Вселенной — отсутствие макроскопических средоточий антивещества. Небесные тела и галактики, из которых состоит Вселенная, представляют собой вещество. Есть другие теории, предполагающие наличие антизвезд и целых антигалактик. Они включают космогонические концепции — допущение о некоторой первоначальной амбиплазме (от греческого слова «амбиос» — оба), состоявшей из вещества и антивещества. На некоторой стадии развития Вселенной в мощных неоднородных гравитационных и магнитных полях вещество и антивещество разделились без столкновений между частицами и античастицами. Последующая эволюция включает аннигиляционные процессы, к которым, в частности, апеллируют при объяснении мощного излучения квазаров.

Для современной космологии характерен ее интегральный характер. Упомянутые только что проблемы однородности, бесконечности, расширения, начального состояния и симметрии Вселенной могут быть решены только в рамках единой картины. Например, допущение о разделении амбиплазмы без столкновений частиц должно быть как-то согласовано с вытекающей из теории расширения Вселенной ее большой начальной плотностью в начальном состоянии. Таких связей много, и они в целом исключают возможность раздельного решения фундаментальных астрофизических проблем. Эти проблемы не могут быть решены и отдельно от построения более общей теории элементарных частиц. В то же время такие сравнительно частные проблемы, как природа сверхновых, природа квазаров и т. д., могут получить однозначное решение лишь в связи с решением фундаментальных проблем.

В современной астрофизике эйнштейновское требование «внутреннего совершенства» стало беспрецедентно настоятельным.

Подобное требование не может быть удовлетворено в рамках классического идеала научного объяснения. Этот идеал состоит в ссылке на ту или иную схему взаимодействующих дискретных тел как на последнее звено анализа. Новый, неклассический идеал научного объяснения исключает последние звенья анализа, он близок к нелинейному представлению Спинозы о природе, которая взаимодействует сама с собой, он вводит в науку представление о взаимодействии полей и самосогласованной системе частиц, чье существование, а не только поведение является результатом взаимодействия. Новый идеал научного объяснения состоит во включении в анализ бытия Вселенной существования определенных типов элементарных частиц и существования космоса, структура и эволюция которого зависят от трансмутаций частиц и в свою очередь определяют ход этих трансмутаций.

Смена идеала научного объяснения всегда оказывалась поворотным пунктом развития цивилизации. Что же может дать цивилизации новый, неклассический идеал науки?

Послеатомная цивилизация

В этой главе я хотел бы воспользоваться очень небольшой, но существенной для прогноза на 2000 г. возможностью охарактеризовать контуры послеатомной цивилизации. Бруно Понтекорво в упомянутой выше статье о физике элементарных частиц говорит, что вопрос о ее практическом эффекте — это «вопрос почти незаконный». Вот этим «почти» я и воспользуюсь.

До этого — одно замечание о смене этапов цивилизации в их зависимости от фундаментальных открытий и обобщений в физике. Эти этапы не отделены один от другого границами типа катаклизмов Кювье, стирающими основные черты каждого предыдущего этапа, чтобы создать чистое поле для следующего. Смена этапов скорее напоминает смену явлений в пьесе, разделенных ремаркой: «те же и такой-то». В XXI в. применения классической и атомной физики не сведутся к минимуму и даже не сократятся. Можно предположить, что на них распространится динамический эффект (возрастание ускорения) физики элементарных частиц.

Впрочем, так было и раньше. Универсальное применение классической электродинамики и классической электронной теории (электрификация производства) ускорило и сделало более разнообразным применение не только классической термодинамики, но и классической механики. Атомная энергетика привела к ускорению электрификации. Применение физики элементарных частиц вызовет «резонансный эффект» в классической и атомной физике.

Но центр резонанса сместится. В атомном веке таким центром служит энергетика — именно вовлечение в энергетический баланс чрезвычайно концентрированных и практически неисчерпаемых ресурсов энергии. Завершение этой тенденции, положение, когда расширение используемых энергетических ресурсов перестанет быть наиболее насущной научно-технической проблемой, можно считать завершением атомного века. Будет ли это в начале или в середине XXI в., зависит главным образом от реализации управляемых термоядерных процессов.

После этого главная научно-техническая проблема и центр «резонансного эффекта» будут состоять в концентрации максимальной энергии в возможно меньших пространственно-временных областях. Принципиально новые возможности такой концентрации могут быть связаны с процессом аннигиляции вещества и антивещества. Эти процессы, столь экзотические сейчас, станут, быть может, исходным научно-техническим звеном послеатомного века, подобно тому как экзотические в конце 30-х годов процессы деления ядер урана стали исходным звеном атомного века.

Ультрарелятивистские процессы трансмутации частиц могут освободить в случае аннигиляции всю энергию покоя, соответствующую всей массе покоя вещества. Согласно формуле Е = mс2, эта энергия составит с2 = (МО20 эрг в грамме — в 10.000 раз больше энергии, выделяющейся при делении грамма урана. Чтобы получить грамм антивещества, способного аннигилировать, нужно затратить больше энергии, чем ее (выделяется при аннигиляции. Но, если бы удалось изолировать античастицы, отделив их от частиц, и воспрепятствовать на некоторое время их аннигиляции, мы получили бы аккумулятор, который может накопить в грамме вещества 9*1020 эрг энергии (разумеется, это не техническая характеристика, а предельный, идеальный цикл — целевой канон техники аккумулирования). Можно представить себе изолированное, пойманное в какую-то вакуумную ловушку антивещество, состоящее из «антиатомов» — антипротонов и антинейтронов, окруженных позитронами. Можно взять и еще более гипотетический пример сверхъемкого аккумулятора. Вспомним о частицах большой массы, соединяющихся с колоссальным освобождением энергии связи, т. е. с образованием колоссального деффекта массы, в частицы, известные нам сейчас, или в те, которые станут известными в будущем. Таковы кварки Гелл-Манна и Цвейга, а также максимоны Маркова. Если бы такие частицы существовали, их можно было бы использовать как аккумулятор энергии, затраченной на получение указанных частиц в свободном состоянии. Вступая в очень интенсивные взаимодействия и превращаясь в частицы меньшей массы, они освобождали бы часть этой энергии. Но этот пример иллюстрирует лишь разнообразие вероятных или по крайней мере возможных путей хранения и последующего освобождения энергии, в принципе способной приблизиться к 9*1020 эрг в грамме вещества. Независимо от неопределенности конкретных путей сама перспектива подобного аккумулирования представляется вероятной.

Два типа применения сверхъемких аккумуляторов могут радикально воздействовать на характер цивилизации. Один — это макроскопические приборы, использующие тонны, а может быть, и тысячи тонн антивещества. Они могут быть применены, для космических кораблей. Это позволит превратить некоторые из кораблей в очень большие обсерватории, которым аннигиляционные ракеты придадут большие скорости, а запас антивещества позволит проникнуть к периферии Солнечной системы и в некоторой степени за ее пределы. Речь идет не о космонавтах, путешествующих к звездам, и даже не об автоматических кораблях, сближающихся со звездами и окружающими их планетами. Такие путешествия маловероятны по крайней мере для начала XXI в., а скорее всего и для его середины. В Солнечной системе уже в конце нашего века, по-видимому, произойдет частичное освоение поверхности (может быть, и недр) Луны и планет земной группы — Меркурия, Венеры и Марса. Антивещество как аккумулятор энергии, используемой в космических ракетах, позволит (наряду и вслед за урановыми, а может быть, и термоядерными ракетами) сделать межпланетный транспорт гораздо более мощным и ускорить освоение ресурсов планет Солнечной системы.

Переход из Солнечной системы в звездный мир не будет продолжением этого процесса. Изучение звезд Галактики и внегалактических объектов будет происходить в новых условиях, потому что ядерные, а позже термоядерные и аннигиляционные ракеты позволят не только доставить на Луну, а также на Меркурий, Венеру и Марс, но и пустить к периферии Солнечной системы — к Юпитеру, Сатурну, Урану и Нептуну — астрономические и астрофизические обсерватории, которые будут передавать информацию о таких явлениях, которые сейчас нельзя себе представить. Это будет третья астрономическая революция, если, как это уже было сделано, началом первой считать «Звездный посланник» Галилея, а началом второй — наблюдение с Земли и с ее искусственных спутников не только оптического излучения, но и радиоизлучения, рентгеновского, нейтринного излучения и т. д.

По-видимому, применение сверхъемких аккумуляторов окажется недостаточным для межзвездных рейсов. Межзвездные перелеты будут реализованы на основе энергетических принципов, которые сейчас еще неясны. Тем не менее полеты к периферии Солнечной системы (а может быть, и за ее пределы, но не на межзвездные расстояния) позволят вести астрономические наблюдения в новых условиях по сравнению с земной группой планет.

К тому, что можно было бы назвать пассивными астрономическими наблюдениями, прибавятся новые, недостижимые в XX столетии формы активного поиска внеземных цивилизаций. На космических кораблях XXI в., способных достигнуть периферии Солнечной системы, будут установлены не только средства наблюдения, но и средства передачи в космос информации о нашей планете и ее обитателях. Если во Вселенной кто-то нас ищет, то встречный поиск, интенсивный по дальности и емкости информации, увеличит во много раз «эффективное сечение» встречающихся цивилизаций.

Оно увеличится во много раз, но останется очень малым, поскольку речь идет не о космической, а об исторической, человеческой шкале времени. Но в ожидании встречи нет ни грана мессианизма. Это одно из направлений научных поисков, которое в принципе не отличается, скажем, от поисков кварков. Дело идет о весьма малой, но не нулевой вероятности приобрести некоторую весьма концентрированную информацию. Объем и ценность этой информации нельзя предвидеть. Чтобы затрачивать средства на поиски такой информации, достаточно знать, что все эти умножающиеся одна на другую вероятности (попадание сигналов в обитаемые миры, получение сигналов от них, рациональная расшифровка, ценность полученной информации и т. д.) не равны нулю. Так мы поступаем и при поисках гипотетических частиц, существование которых не исключено какими-то запретами и укладывается в непротиворечивую концепцию. Но этого мало. Поиски внеземных цивилизаций имеют смысл даже при нулевой вероятности получения ответа в пределах человеческой, а не космической шкалы времени [92]. Ведь традиционный образ старика, сажающего новые деревья («они будут приносить плоды другим…»), характеризует существенную особенность цивилизации и прогресса — расширение во времени и пространстве того субъекта, во имя интересов которого люди трудятся. Это расширение охватывает все более далекие грядущие поколения и вместе с тем все более широкие контингенты мыслящих существ. Нет оснований ограничивать этот процесс масштабами Земли, Солнечной системы и даже Галактики и временными масштабами существования земной цивилизации.

Мне бы не хотелось сколько-нибудь подробно останавливаться на проблеме внеземных цивилизаций. И не только потому, что эта проблема трактуется достаточно обстоятельно в книге И. С. Шкловского «Вселенная. Жизнь. Разум», на которую я неоднократно ссылался в главе о космических исследованиях и только что в этой главе. Есть и другая причина. В прогнозах на 2000 г. основной пафос состоит в связи научно-технических перспектив с выбором оптимальных экономических планов, с оптимальной структурой вложений в экономику, культуру и науку, а также в известной достоверности этих прогнозов. Атомный век — это десятилетия, для которых допустимо не только говорить о возможных сдвигах в технике и экономике, но и сопоставлять вероятности тех или иных сдвигов, находить наиболее вероятные сдвиги и для них — оптимальные экономические структуры. Прогноз послеатомной цивилизации имеет в этих рамках только одну цель: показать, что в пределах атомного века подготавливается новая ступень научно-технического прогресса, которая сейчас не может рассматриваться со стороны выбора экономически оптимальной реализации.

Поэтому понятие послеатомной цивилизации включает сдвиги, которые не определены ни по характеру и направлению, ни хронологически. Даже начало послеатомной цивилизации не может быть приурочено к первым десятилетиям или к середине XXI в. Мы можем только предположить (оперируя уже не десятилетиями, а полустолетиями), что, после того, как управляемые термоядерные реакции дадут человечеству практически неограниченные энергетические ресурсы, основной задачей станет миниатюризация источников применяемой энергии; и здесь сверхъемкие аккумуляторы будут играть для физики элементарных частиц роль звена практического применения, аналогичную роли деления урана для ядерной физики или роли электромагнитной индукции для классической электродинамики.

Этот путь использования физики элементарных частиц для аккумуляции энергии — создание очень малых по размерам приборов, в которых аннигиляционная энергия превращается в электрическую, тепловую, механическую или химическую и создает на миллиметровых, а затем и еще меньших уровнях мощные электромагнитные поля, высокие напряжения, температуры, давления, скорости эндотермических химических реакций. Такая высокоэнергетическая миниатюризация может идти и дальше, к микронным, а также субмикронным масштабам. Она радикально меняет технологию. В свое время электрификация позволила сращивать вал электродвигателя с валом рабочего инструмента (со сверлами, резцами и т. д.). Это сделало ненужными сложные механические трансмиссии.

В наше время (в широких масштабах — в прогнозируемый период, охватывающий конец столетия) квантовая электроника позволяет доводить энергию переменного электромагнитного поля непосредственно до объекта технологического воздействия, и в растущем ряде операций это делает ненужным превращение электрической энергии в механическую с помощью электродвигателя или в тепловую с помощью электрической печи. Непосредственное воздействие фотонов может происходить даже на молекулярном уровне.

Но генерирование энергии пока не миниатюризуется. Она концентрируется в лазерах, но при этом требуются электрические передачи, питающие первичные источники излучения, концентрируемого лазером. При использовании аннигиляционной энергии сам источник питания миниатюризуется. Мы можем сосредоточить в приборе величиной в несколько кубических миллиметров энергию порядка десятков тысяч киловатт-часов, не подводя к этому прибору проводов или оптических передатчиков энергии.

В природе мы встречаем два рода процессов, о которых уже шла речь в главе об информации. Первые процессы — выоокоэнергетические. Они характеризуются поглощением и выделением больших количеств энергии при сравнительно небольших приращениях энтропии и негэнтропии. Таковы подъем и падение воды при ее кругообороте, накопление, энергии в хлорофилле и выделение при сгорании топлива, а также все другие процессы, использующие энергию Солнца в макроскопических масштабах. Классическая энергетика представляет собой использование этих процессов. К ним, с некоторыми оговорками, можно присоединить и освобождение ядерной энергии, хотя этот процесс сопровождается гораздо большим изменением энтропии и, кроме того, не связан с Солнцем.

Другого рода процессы можно назвать высокоэнтропийными. Они состоят в значительных изменениях энтропии и соответственно негэнтропии при очень небольших преобразованиях и передачах энергии. Пример таких процессов, принадлежащий Дж. Томсону, уже приводился в главе об информации — раскладка в определенном порядке колоды карт, требующая меньше энергии, чем ее выделяется при сгорании одной молекулы парафина.

Высокоэнтропийные процессы в природе сосредоточены в молекулах ДНК и РНК в мозгу высших животных (наибольшая концентрация негэнтропии — в мозгу человека). В технике они имеют место в кибернетических устройствах и в различных видах связи. Высокоэнтропийные процессы — это процессы преобразования и передачи информации. Если взять производство в целом, то в нем высокоэнтропийные процессы в мозгу человека или в имитирующих его кибернетичеких устройствах управляют высокоэнергетическими процессами. Они выполняют роль отправителя грузов, который пишет адреса на вагонах, скажем, с углем, перевозимым к станциям. Надписывание этих адресов требует малой энергии, содержит большую информацию и позволяет создать большую негэн-тропию. Но создание последней только инициируется надписыванием адресов, реализуется негэнтропия при наличии подчиненных этим адресам действительных перевозок.

Теперь представим себе, что топливом служит не уголь, а вещество, содержащее в кубическом сантиметре столько же калорий, сколько их содержится в целом угольном составе. Затрата энергии на пересылку этих кубиков ненамного превышает затрату энергии на составление адресов и отправку накладных. Мы начинаем понимать, что миниатюризация энергетических трансформаций и передач с помощью сверхъемких аккумуляторов меняет соотношение между информацией и энергетикой, между высокоэнтропийными и высокоэнергетическими процессами.

Это не значит, что миниатюризованная энергетика может стать автоматической без управляющих ею высокоэнтропийных процессов. Пожалуй, рассылка накладных и наклейка адресов на энергетические грузы станут ненужными, эти грузы можно будет доставлять вместо накладных. Реализация негэнтропийной информации становится почти такой же легкой, как и ее получение. Но в общем случае составление длинных сложных высокоэнтропийных информационных цепей должно быть отделено от высокоэнергетических процессов. Эти цепи позволяют до высокоэнергетических процессов провести множество расчетов и выбрать оптимальную схему высокоэнергетических процессов. Однако выбор оптимальной схемы может при применении сверхъемких аккумуляторов включать высокоэнергетические процессы. Кибернетическое устройство в случае слишком большой сложности высокоэнтропийного (с небольшими энергиями) моделирования способно вызвать высокоэнергетнческий процесс, оценить его результат и, исходя из этого результата, прийти к определенному оптимальному решению. Таким образом, кибернетическое устройство будет включать экспериментирующие блоки. Вообще кибернетический механизм как чисто высокоэнтропийный, включающий или выключающий те или иные высокоэнергетические установки, будет дополнен кибернетическим механизмом с вмонтированными в него сверхъемкими высокоэнергетическими аккумуляторами.

Последние будут, вероятно, монтироваться в схемы, имитирующие мышцы. В главе о молекулярной биологии говорилось о силовых установках, состоящих из искусственных полимеров, обладающих двигательными реакциями. Наличие в искусственной мышце аккумулятора, практически нб требующего перезарядки в течение десятилетий и даже столетий, сделает такие механизмы независимыми от внешнего энергетического питания. Миниатюрность этих аккумуляторов, их миллиметровые и даже меньшие размеры позволят иметь в механизме сложную систему независимых одна от другой мышц, связанных каждая с системой искусственных рецепторов. Их могут быть сотни или тысячи в одном полимерноаккумуляторном «организме». Сложность его функций будет практически неограниченной.

Для медицины и физиологических исследований будет весьма эффективным включение в живые организмы аккумуляторов, действующих в течение десятилетий и создающих в организме большую согласованную систему электрических, тепловых и механических (искусственное сердце, искусственные легкие) эффектов.

Можно было бы сколь угодно долго наращивать перечень возможных применений сверхъемких аккумуляторов. Это функция фантазии. Но в этой книге фантазии отводится скромная роль. Она ограничивается конструированием условных иллюстраций тех прогнозов, которые логически вытекают из современных тенденций науки и позволяют определить эвентуальный эффект этих тенденций. Все сказанное о сверхъемких аккумуляторах — лишь иллюстрация реальной тенденции современной физики элементарных частиц. Современная физика элементарных частиц позволяет увеличивать негэнтропию в природе на уровне пространственно-временных ячеек порядка 10-13 см и 10-24 сек. В этих ячейках (может быть, на несколько порядков меньших) происходят, вероятно, не непрерывные движения, подчиненные релятивистской причинности, а трансмутации, т. е. изменения не поведения, а существования частиц различного типа. На этом уровне негэнтропия может возрастать в наиболее удобной для практического использования форме при образовании антивещества.

Но вовсе не очевидно, что негэнтропия на уровне все меньших пространственно-временных областей означает переход цивилизации на более высокий уровень. Термины «релятивистская цивилизация» или «атомная цивилизация», так же как термины «ультрарелятивистская» или «послеатомная» цивилизация, соответствуют такому представлению о негэнтропии и цивилизации. Насколько законно это представление?

Понятие цивилизации неотделимо от понятия ее роста, от понятия прогресса, от представления о какой-то характерной особенности человека, появившейся вместе с ним и растущей по мере удаления человечества от времени его возникновения на Земле. Определение цивилизации зависит от определения человека в его отличии от природы.

Отличие человека от природы не означает, что он — вне природы, оно означает, что существование человека не только подчинено общим закономерностям природы — механическим, физическим, химическим и биологическим, но вместе о тем подчиняет механические, физические, химические и биологические процессы целям мыслящего духа. Освобождение человека от чисто биологического приспособления к среде, переход к специфически человеческому приспособлению, к целесообразному подчинению окружающих сил природы — это и есть цивилизация, которая появляется вместе с человеком, своим ростом отмечает отход человека от момента его возникновения на Земле и своим состоянием в каждую эпоху измеряет интервал, отделяющий эту эпоху от генезиса человека и цивилизации. Рост специфически человеческого, не свойственного противостоящей человеку природе, «очеловечение» человека, освобождение его от подчинения природе, его «дебестиализация», повышение человечности в человеке — интегральное определение прогресса.

Отсюда следует, что исходное определение цивилизации должно указать величину, рост которой знаменует прогресс цивилизации, а ненулевое значение свидетельствует о возникновении человеческого рода. Это сумма сил природы, направленных целесообразной деятельностью человека, подчиненных целям человека, скомпонованных так, чтобы реализовать некоторое представление, некоторый образ, заранее существовавший в сознании человека. Поэтому цивилизация — ровесница труда как целесообразной деятельности, ровесница применения орудий. Человек, выделившийся из природы, подчиняющий себе силы природы для реализации цели, заранее существовавшей в сознании, — это toolmaking animal[93].

Орудия труда — это механические средства, подчиняющие целям человека силы, которые превышают по мощности физиологические возможности человеческого организма (рычаг), или действуют на недоступном человеческой руке расстоянии (палка, камень для метания), или создают недоступное руке давление на поверхность (кол, лезвие ножа). За ними следует применение сил природы для получения недоступных организму температур (огонь). Далее, вмешательство в процессы распространения полезных растений (посевы) и в вегетационные условия (ирригация), включение в баланс целесообразно используемых энергий потенциальной и кинетической энергии воды (гидравлические колеса) и т. д.

Очевидно, одним из интегральных показателей цивилизации будет сумма сил природы, целесообразным образом скомпонованных человеком, вернее, отношение указанной суммы к компонующим силы природы силам самого человека. Такой показатель пропорционален производительности труда — основному экономическому показателю цивилизации. Показателем прогресса служит скорость перехода к более глубокой целесообразной компоновке сил природы, дальнейшее освобождение человека из-под власти слепых сил природы, из-под власти биологического отбора, дальнейшее очеловечение человека, его дальнейшая дебестиализация. Начало этого процесса — труд, заменяющий биологическое приспособление к среде[94] человеческим приспособлением природы к заранее поставленным целям. Впоследствии человек начинает изменять характер технологических операций, иначе говоря, он нарушает стихийно сложившуюся технологию ее сознательным (с заранее предвидимым результатом) преобразованием. Объектом собственно человеческого, свойственного человеку целесообразного вмешательства становится уже не только результат технологического акта, но и его параметры, не только «что?», но и «как?» Человек обдумывает различные варианты технологических процессов, сравнивает их и приходит к некоторым общим понятиям.

Это естественнонаучные понятия. Соблюдение технологических параметров может быть основано на традиции, поиски новых параметров — на познании внутреннего каузального механизма явлений. Производство, обеспечивающее непрерывный прогресс, является прикладным естествознанием. Прогресс техники обеспечивается применением естественнонаучных знаний, поисками конструкций и процессов, в наибольшей степени приближающихся уже не к техническим нормативам, а к физическим схемам (например, поиски максимального коэффициента полезного действия).

С течением времени подобные поиски приводят к систематическим и непрерывным поискам научных истин, не имеющим непосредственного прикладного эффекта. Это очень важная ступень гуманизации: человек освобождается в своей деятельности от власти непосредственных потребностей производства. Здесь решающим оказывается систематичность «бескорыстной» научной работы. Систематичность означает, что последовательность научного исследования подчиняется внутренней логике самой науки, она в идеале не зависит от случайных или внешних импульсов.

Проникновение во все более «бескорыстные» (т. е. не связанные с непосредственным воздействием на уровень производства и потребления, но связанные с его динамикой, с его прогрессом) области науки связано с расширением известной людям иерархии упорядоченных систем, с изучением структуры и состояний макроскопических тел, затем молекул, далее атомов, ядер и субъядерных частиц.

Здесь следует напомнить сказанное в первой части этой книги о негэнтропии и ноозонах — зонах целесообразной упорядоченности бытия. Наука улавливает упорядоченность, закономерность бытия, раскрывает его гармонию, негэнтропию, позволяющую целесообразно использовать энтропийные процессы в природе. В беспорядочном движении молекул она находит (и создает!) температурные перепады, позволяющие превратить это беспорядочное движение молекул в упорядоченные единообразные движения больших ансамблей молекул, в движение макроскопических тел. В этом состоит превращение тепла в механическую работу. Создание температурных перепадов, т. е. возрастание негэятропии, требует увеличения энтропии, требует затраты энергии в ее используемой форме. Например, возрастание негэнтропии при повышении температуры пара или газа в тепловом двигателе (возрастание температурного перепада между котлом или цилиндром и конденсатором) ликвидирует перепад между энергией, сконцентрированной в топливе, и энергией теплового движения в окружающей среде. Техника пользуется негэнтропией, уже существующей в природе, и увеличивает негэнтропию в целесообразно построенных, искусственных системах. Негэнтропия в таких системах и означает целесообразую компоновку сил природы. Переходы ко всё меньшим структурам, в которых создается все большая негэнтропия, — это важнейшие этапы научно-технического прогресса. Цивилизации, существовавшие в прошлом, как и современная цивилизация, располагали в качестве своей научно-технической базы крупномасштабным аккумулированием используемой энергии, крупномасштабной негэнтропией. Каковы бы ни были природные источники энергии — разности в уровне воды (гидроэнергетика), сосредоточение энергии в топливе (теплотехника) или существование ядер элементов с меньшей, чем у других, удельной энергией связи (атомная энергетика), — их использование состояло в создании перепадов температуры, гравитационного потенциала или разностей электрических потенциалов в сравнительно больших пространственных областях. По сравнению с послеатомной цивилизацией и предыдущие эпохи, и современная эпоха — это эпохи малой пространственной концентрации аккумулированной энергии.

Именно в ее концентрации и состоит стержневая физико-техническая линия прогресса цивилизации, растущая целесообразная компоновка сил природы. Труд — основа цивилизации, рост производительной силы труда — основа ее поступательного движения. Вместе с тем труд — это прежде всего целесообразная деятельность, целесообразное упорядочение природы. Оно выражается в использовании стихийной негэнтропии для сознательно, по плану (этим, как мы помним, и отличается наихудший архитектор от наилучшей пчелы) возросшей негэнтропии, сосредоточения аккумулированной в используемой форме энергии.

Естественное возрастание негэнтропии, происходило ли оно в лесах каменноугольной эпохи или на миллиарды лет раньше при образовании элементов с различной удельной энергией связи нуклонов, — это и есть источник стихийных сил природы, которые все в большей мере (т. е. с проникновением во все меньшие пространственные области) переходят в используемую энергию искусственно упорядоченных, целесообразных систем. Уже квантовая электроника вводит микроскопически упорядоченные системы, в которых электроны согласованно переходят на низшие орбиты в атоме. Но здесь энергии еще невелики. В этом отношении системы антинуклонов и позитронов или другие системы антивещества представляют собой принципиально новую ступень концентрации используемой энергии, новую ступень искусственной негэнтропии в микромире. Целесообразная компоновка сил природы охватывает на этот раз взаимодействия, ответственные за трансмутацию частиц.

Природа этих взаимодействий входит в комплекс самых фундаментальных в настоящее время проблем науки. Уже сама постановка этих проблем повышает интеллектуальный потенциал науки и меняет стиль физического мышления.

Понятие стиля физического мышления было предложено в начале 50-х годов Паули и Борном, назвавшими так сравнительно устойчивые особенности физических теорий, определяющие или по крайней мере ограничивающие возможные прогнозы дальнейшего развития физики[95]. Если взять наиболее радикальные изменения стиля физического мышления, то они, по-видимому, совпадут с изменением научного мышления в целом и, более того, с некоторыми существенными изменениями цивилизации.

Какие черты характеризуют современный стиль физического мышления?

Во-первых, интегральный подход к частным решениям, пересмотр основ картины мира для решения наиболее актуальных конкретных проблем. Уже говорилось, что физика стоит сейчас перед вполне конкретной проблемой устранения физически бессмысленных бесконечных значений массы и заряда, которые получаются, коща учитывают взаимодействие частицы с вакуумом. Но устранение бесконечных значений, причем физически осмысленное устранение, а не простой рецептурный математический прием, требует решения таких коренных вопросов, как объединение теории относительности и квантовой механики в единой теории элементарных частиц.

Интегральный характер современного стиля научного мышления сочетается со стремлением к однозначным результатам. Древности было свойственно широкое интегральное представление о мире, натурфилософские догадки, охватывавшие все мироздание. Но это были именно догадки, они не были однозначными, да, пожалуй, и не стремились к однозначности.

Со второй половины XVII в. выводы науки приобретают строгий и экспериментально проверяемый характер, во всяком случае к этому наука стремится.

Современный стиль науки — это очень своеобразный синтез античной широты, с одной стороны, и классической однозначности и экспериментально проверенной достоверности — с другой: наука ищет универсальную гармонию бытия, но ищет ее с помощью эксперимента и воплощает результаты поисков в строгие количественные соотношения, которые в ряде случаев неотделимы от констатаций неопределенности, от присвоения точных и достоверных значений не самим событиям, а их вероятностям. Современный ученый, как и ученый конца столетия, может быть, не обогнал и не обгонит Аристотеля по тонкости мышления и способности охватить своей мыслью все мироздание. Аптичная мысль в этом отношении всегда будет идеалом науки. Но современный ученый решает самые коренные проблемы космоса и микрокосмоса с помощью наблюдения и эксперимента, т. е. в принципе — однозначно.

Мы констатируем эти черты современного физического мышления, мы знаем сравнительно достоверным образом, какая экспериментальная база позволит их реализовать, но мы совсем мало можем сказать о том, в каких формах они реализуются и какие практические результаты эта реализация даст. Прогноз о сверхъемких аккумуляторах иллюстрирует реальные тенденции, но нельзя поручиться, что первая половина XXI в. получит название субъядерного века или века субъядерных аккумуляторов с таким же правом, с каким вторая половина XX в. была названа атомным веком. Мы знаем, что с этим названием «атомный век» конкурируют и другие: «век кибернетики», «век полимеров» и т. д. Вероятно, с названием типа «субъядерный век», если даже оно будет иметь основания, могут конкурировать другие. Может быть, успешно конкурировать. Освоение планет или первые положительные сведения о внеземных цивилизациях могли бы наиболее явным образом наложить свой отпечаток на цивилизацию XXI в.

Вернемся к вопросу о воздействии фундаментальной пауки на характер цивилизации. Гуманизация человеческой жизни — основной показатель прогресса цивилизации, о котором только что шла речь, не исчерпывается освобождением человека из-под власти биологических — дочеловеческих и внечеловеческих — закономерностей. Она включает освобождение человека из-под власти стихийных общественных сил, «скачок из царства необходимости в царство свободы». Эта свобода означает, в частности, возможность преобразовывать природу, технологию, науку, экономику, она предполагает преобразование мира и имеет динамический смысл. Человек становится все более свободным не только при исключении или нейтрализации внешних сил, угрожающих его стационарному существованию. Он становится все более свободным в положительном активном смысле; он подчиняет своим целям силы природы, он компонует их для достижения заранее сформулированного идеала, причем идеал этот состоит — чем дальше, тем больше — не только в определенном уровне того, что человек получает от природы, но и в том или ином темпе возрастания этого уровня и в том или ином ускорении темпа. Свобода человека, о которой говорил Спиноза, — о ней шла речь в первой части книги, в главе «Труд и свобода» — конкретизируется сейчас в возможности ускоренного роста ноозон — сфер целесообразно упорядоченных процессов природы.

Именно такой динамический смысл освобождения человека от стихийных сил и их подчинения человеку позволяет установить непосредственную связь между гуманизацией как стержневой линией прогресса и фундаментальной наукой — основой наиболее высокого динамизма в производстве и в цивилизации в целом.

Обратимся к человеку как целостному организму со сложной системой физиологических процессов. Что может дать этой системе фундаментальная наука?

Напомним уже высказанный прогноз об управлении физиологическими процессами на уровне клетки. Иначе говоря, не только о воздействии на статистический ансамбль клеток, но и о воздействии на отдельную клетку или на небольшое статистически нерепрезентативное число клеток. Необычно острая направленность лазерного луча позволяет физиологу и врачу перейти от стрельбы по площадям к стрельбе по индивидуальным мишеням. Наряду с потоками фотонов тут могут найти применение релятивистские частицы с ненулевой массой. В зависимости от скорости изменяется время жизни частицы. Придавая частице ту или иную энергию, можно сделать продолжительность жизни частицы такой, чтобы она успела дойти до некоторой точки в живой ткани, а затем претерпела распад.

В подобных процессах сохраняется статистический характер закономерностей: определяются не события — попадания фотонов или других частиц в клетки, а только их вероятности. Последние реализуются при большом числе испытаний. Но статистика здесь не со стороны клеток, а со стороны частиц: их поток содержит большое статистически репрезентативное число частиц, и это гарантирует попадание в отдельную клетку.

Аналогичным образом действует радиационная генетика, о которой уже шла речь. Тут статистическому ансамблю частиц противостоит не статистический ансамбль организмов с отбором необходимых изменений в ряде поколений, а один организм. С медицинской генетикой связана надежда на исчезновение наследственных болезней в течение оставшихся десятилетий XX в.

У человечества есть еще одна надежда, которая имеет шансы стать реальным прогнозом. Это избавление от рака в течение ближайшего десятилетия. Не исключено, что открытие высокоэффективных методов лечения рака будет связано с радиационной терапией.

Может быть, исчезновение рака будет результатом более общих открытий, которые обнаружат весь механизм, управляющий гистологическими процессами в организме. Управление этими процессами устранит фатально неконтролируемое развитие тканей, приводящее к злокачественным новообразованиям.

Другая задача медицины и физиологии — обнаружение механизма, регулирующего обмен веществ в организме и управление этим обменом. Решение этой задачи если не устранит, то существенно затормозит и уменьшит склероз и связанные с ним заболевания. Но здесь естественно возникает другой вопрос: имеет ли предел последовательное устранение причин смерти? Это вопрос о бессмертии. Слово «возникает» здесь, пожалуй, не совсем уместно: люди думали о бессмертии всегда, с самого начала цивилизации, с появления человеческого рода на Земле. Речь идет уже не о локальном ощущении бессмертия разума, бессмертия того, что заполняет сознание человека, — об этом речь шла в первой части книги, в главе: «Оптимизм и бессмертие». Здесь речь идет о физиологическом вопросе, о бессмертии данного организма, о бесконечности онтогенеза. Этот вопрос возникает сейчас в новой и довольно реальной форме. Причины старения и смерти организма еще не раскрыты в однозначной форме, и здесь не найдены какие-либо абсолютные запреты бессмертия, т. е. процессы, которые по своей природе не могут быть приостановлены совокупным воздействием химических агентов и физических воздействий на уровне тканей, клеток и молекул. Конечно, от отсутствия запретов до теории старения и смерти и методов их задержки, а затем и устранения — долгий, а может быть, и реально отсутствующий, путь. Разумнее считать эту проблему проблемой XXI в. Ничто сейчас не противоречит мысли о поколении, которое доживет до 2000 г., как о поколении, которое будет последним или предпоследним смертным поколением. Но за оставшиеся до 2000 г. десятилетия встретится, вероятно, немало противоречащих этому фактов. В чем можно быть уверенным, это в том, что систематические поиски механизма старе-ни я приведут к попутным открытиям, существенно удлиняющим жизнь людей.

Перейдем теперь от биологической стороны воздействия науки на человеческую жизнь к социальной проблеме. Маркс связывал объективные тенденции, ведущие человечество к социализму, с развитием производительных сил. Ленин видел в электрификации научно-техническую основу экономического и социального прогноза бесклассового общества. Прогнозы практического воплощения неклассической науки находятся в фарватере этих идей. Анализ научно-технических тенденций атомного века показывает, что воплощение неклассической науки требует преобразования социальной структуры общества. Для конца XX в. основной эффект такого воплощения будет состоять в непрерывном ускоренном подъеме производительности труда. Этот процесс реализуется при многошаговой, практически непрерывной оптимизации народнохозяйственных балансов, народнохозяйственной структуры. Без такой оптимизации, без планируемой экономики теряет реальный смысл и понятие прогноза: ведь прогноз — это не пророчество, а некоторый вариант дальнейшего развития, сопоставляемый с другими вариантами при оптимизации хозяйства. Для такой оптимизации необходима фактическая возможность целесообразной перестройки всего народного хозяйства с учетом непрерывно поступающей информации о новых научно-технических тенденциях, о новых потребностях и возможностях. Современная научно-техническая революция дает максимальный эффект при устранении капиталистической анархии производства. Этого мало. Современное производство реализует непрерывно возникающие новые технические тенденции, которые в свою очередь опираются на практически непрерывно (в масштабах отраслей и всего народного хозяйства в целом) эволюционирующие научные основы технологии и энергетики. Производственное воплощение современной науки и ее применений может происходить с максимальным ускорением в бесклассовом обществе.

Разумеется, прогресс науки сам по себе не может быть основной движущей силой общественного преобразования. Но зависимость общественных отношений от развития производительных сил сохраняется и, более того, возрастает при последовательном включении в непосредственные производительные силы прикладной науки, затем собственно научных исследований, создающих для прикладной науки целевые каноны, и, наконец, фундаментальных исследований.

В этой связи хочется еще раз вернуться к идее электрификации, выдвинутой В. И. Лениным в 1920 г. Эта идея была синтезом научной концепции общественного развития, нашедшей в развитии производительных сил основу неизбежной победы гармонического общественного строя, и анализа научно-технического прогресса, воплощавшего классическую науку. Современный план преобразования производства исходит из той же концепции общественного развития и анализа тенденций неклассической науки.

В заключение коснемся вопроса, который занимал Томаса Мора, когда он рисовал в своей «Утопии» картину будущего. Это совсем простой вопрос: будут ли люди счастливы в том будущем, которое мы можем предвидеть? Человеку свойственно привыкать к тем условиям, которые при возникновении внушили ему ощущение счастья. Закон Вебера-Фехнера — ощущения растут как логарифмы раздражений — означает, что при стационарном состоянии тех факторов, которые человек рассматривает как факторы счастья, ощущение счастья исчезает. Это ощущение — как электрическое поле, которое в отсутствие зарядов существует только при переменном магнитном поле, с той разницей, что уменьшение факторов не индуцирует счастья. Человек может быть счастлив при возрастании и, более того, при ускорении возрастания того, что делает его счастливым.

В гармоничном обществе применение неклассической науки, гарантирующее ускоренный рост власти человека над природой и познания природы, создает беспрецедентное в истории человечества положение. Все, что дает человеку счастье, начиная от самых простых радостей вплоть до самых высоких — творчества и постижения мира, — нее это возрастает с ускорением и создает в сознании свежее, никогда не меркнущее ощущение счастья.

Именно в этом — ответ на вопрос «зачем?» относящийся к интегральному процессу, лежащему в основе прогноза на 2000 г. Мы говорили об этом процессе, когда речь шла об экономическом эффекте прогресса. На вопрос «зачем?», отнесенный к частной технической и экономической акции, следует ответ: чтобы фундаментальный экономический индекс получил максимальное значение. А зачем нужно это максимальное значение? Зачем нужен максимальный уровень, максимальный темп, максимальное ускорение потребностей и их удовлетворения, производственной мощи, широты и точности научных представлений, всех культурных ценностей, всей цивилизации?

Ответ на это «зачем?» — простой и вместе с тем интегрирующий всю бесконечную сложность научного, технического, социального и культурного прогресса. Человек должен быть счастлив. «Здесь Гегель, и книжная мудрость, и смысл философии всей!»

Загрузка...