Глава третья о высоких энергиях и глубоких идеях

Пределы наук похожи на горизонты: чем ближе подходят к ним, тем более они отодвигаются.

П. Буаст



Масштабы большого и малого

За последние 10–15 лет мы стали свидетелями интереснейшей филологической метаморфозы: все реже и реже в названиях конференций, учебников и обычных статей в научных журналах стало употребляться словосочетание «элементарные частицы», все чаще и чаще звучат другие слова — «высокие энергии», «при высоких энергиях»… Что это — увлечение результатами экспериментов на гигантских ускорителях или окончательная потеря доверия к прилагательному «элементарный»?

Правильно будет сказать: и то и другое. Но еще правильнее — обратить внимание на те глубокие причины, которые превратили гонку за высокими энергиями в лейтмотив постижения микромира.

Прежде всего стоит обсудить масштабы интересующих нас явлений — недаром ведь говорят: все познается в сравнении. Но масштаб, в свою очередь, — основа любого сравнения.

Современная физика действует в невообразимо большом диапазоне линейных размеров. Радиус наблюдаемого участка вселенной составляет примерно 1028 сантиметров, а наименьшие расстояния, доступные изучению на сегодняшний день, — 10-15 сантиметра. Представить себе столь большие и столь малые длины «в живых картинках» чрезвычайно сложно. От того, что я сообщу, например, что мерная лента длиной порядка радиуса вселенной будет весить не меньше нашей планеты, ничего к пониманию факта не прибавит. Человеческий опыт непосредственного восприятия расстояний ограничен интервалом от долей миллиметра до 1–3 километров. Вне этого интервала требуется включать некоторое воображение. Оно может быть изрядно натренировано для того, чтобы свободно измерять на глазок добрые десятки километров, как это бывает у летчиков, или считать маковое зернышко слишком большой заготовкой для вытачивания точной копии роденовского «Мыслителя», как это встречается среди умельцев — потомков великого Левши.

В сущности, аналогичную тренировку проходят и физики, для которых десятки в плюс — минус такой-то степени становятся по мере восхождения на высоты университетской премудрости чем-то вполне естественным и понятным. Как ни странно, дело здесь не в легендарных склонностях ума, а в глубоком усвоении тех понятий и образов, которые стоят за «сухой цифирью», а главное — в овладении основными принципами измерения очень больших и очень малых расстояний, масс и прочих важных характеристик. Попробуем и мы последовать по этому проверенному пути.

Прежде всего наблюдаемый диапазон размеров и расстояний следует подвергнуть традиционному разбиению на три части, каждая из которых представляет собой более или менее обособленный мир объектов и процессов.

Мегамир — вселенная в целом, галактики, звездные скопления, планетные системы.

Макромир — обычные предметы и процессы «нормальных», человеческих масштабов, воспринимаемые в целом, без особого углубления в структуру.

Микромир — большие и малые молекулы, атомы, атомные ядра, элементарные частицы.

Разумеется, такое разбиение весьма условно, а «миры» — лишь емкие художественные образы. Но в нем есть своя логика, и оно оказывается достаточно полезным.

Во-первых, огромный диапазон действительно разрезается на три непересекающихся отрезка. Например, в качестве минимального мегапромежутка мы можем принять расстояние от Земли до Луны (порядка 360 тысяч километров, то есть 3,6 ∙ 1010 см). С теми, кто убежден в несолидности такого выбора и считает, что наименьшая подобающая для «мега» порция — размер галактического скопления, я не стал бы спорить, скорее всего это дело вкуса. Скажем, мне приятно считать, что люди побывали на пороге мегамира и на Луне отпечатались следы башмаков и колес.

Аналогичные проблемы могут возникнуть и при попытке определить границу «микро». Микромиров, в сущности, много. Для ученых, исследующих молекулы, атомы, атомные ядра и элементарные частицы, микромир начинается с примерно 10-6–10-7 сантиметра и уходит в пока еще плохо понятные глубины. Микромир биолога раз в сто (в среднем!) больше. Разумеется, все они правы — каждый из них имеет в виду особый тип процессов, и не стоит затевать длинные дискуссии на этот счет, тем более что мы успели выяснить, в каком смысле используется в этой книге образ «микро».



Во-вторых, объекты, расположенные по порядку своего размера вдоль всего диапазона, оказываются в очень важной взаимосвязи — они образуют так называемую структурную иерархию. В этом устрашающем словосочетании нет никаких особых тайн. Так принято обозначать следующую ситуацию — меньший в некотором смысле объект входит в качестве структурной единицы в больший, тот в еще больший и т. д.

Двигаясь от большого к малому, мы можем нарисовать такую упрощенную картинку: вселенная состоит из галактик; галактики — из звезд (точнее — из планетных систем); звезды и планеты — из вещества в различном состоянии; вещество — из молекул; молекулы — из атомов; структурными элементами атомов являются электроны и атомные ядра; а ядра состоят из протонов и нейтронов.

Из чего составлены известные элементарные частицы, мы пока не знаем. Похоже, что у последней ступеньки великой иерархической лестницы возникает своеобразный обрыв, и глубина открывающейся под ногами пропасти впечатляет не столько еще не добытым знанием, сколько тем предварительным пониманием, которое уже достигнуто. Но рассказ об этом еще впереди…

И наконец, третьей чрезвычайно полезной особенностью разделения диапазона линейных размеров является простая классификация измерений. До сих пор наш старый добрый макромир оставался немного в тени. Вроде бы ясно — самые интересные явления происходят на самых краях этого диапазона, краях, непосредственно упирающихся в полную неизвестность.

Но вот ведь в чем беда — как бы мы ни исхитрялись в штурме неведомых глубин вселенной или в непрерывных атаках на структуру вещества, все действия окажутся совершенно бессмысленными, если мы не позаботимся о путях доставки донесений с поля боя. Научные факты не носятся в безвоздушном пространстве, они добываются людьми и для людей. Иными словами, любые невообразимо малые или невообразимо большие процессы становятся достоянием науки только тогда, когда оказываются доступными нашему восприятию.

Какими бы сложными и сверхсложными приборами ни вооружались ученые, их действия на заключительном этапе снятия показаний, по существу, не будут отличаться от того, что совершали их далекие предшественники. Старинные гравюры донесли до нас неторопливые, но полные внутреннего напряжения сцены научных свершений, где главные измерения проводились с помощью обычных линеек и весов. Современные линейки могут быть существенно автоматизированы, но в конечном счете показания стрелки самого тонкого электротехнического устройства не что иное, как «прикладывание линейки» к некоторому исследуемому объекту.

Впрочем, эти показания могут непосредственно поступать в некоторый специальный автомат, переводящий их сразу в цифровые таблицы, например, в электронно-вычислительную машину. Конечно, физик, считывающий многометровые колонки чисел с длинных рулонов бумажной ленты, не особенно похож на своего древнего коллегу, задумчиво взирающего на уровень жидкости в сосуде причудливой формы. Но в этих картинах намного больше внутреннего сходства, чем внешних различий, — оба исследователя изучают явления в доступной для человеческого восприятия форме.

Поэтому одна из важнейших задач создателей приборов — свести заключительный этап измерений к обычному эксперименту с макроскопическими объектами, то есть не слишком большими и не слишком малыми по объему, массе и прочим характеристикам телами. Причем практически основную роль играет удобный, соизмеримый с человеческими возможностями линейный масштаб. Фотопластинки в специальных устройствах, подсоединенных к телескопу, переводят гигантские пути далеких звезд в маленькие черточки, доступные простым лабораторным измерениям. В уже знакомой нам камере Вильсона пролетающая частица нарушает покой огромного числа атомов, и они, потревоженные, подают коллективный «сигнал бедствия» бледными полосками сконденсировавшихся паров, после чего в ход пускаются стандартные геометрические принадлежности.

Таким образом, измерительные операции можно условно разделить на три класса. Центральное место не только по положению относительно диапазона размеров, но и по смыслу занимают обычные измерения с макроскопическими телами. Операции в «мега» и в «микро» отличаются прежде всего массой дополнительных устройств, обеспечивающих своеобразную проекцию в наш макромир. Как правило, эти устройства усиливают слишком слабые и ослабляют слишком сильные сигналы, делая их доступными для наших органов чувств. Огромные телескопы собирают свет далеких звезд и галактик, позволяя увидеть множество удивительных явлений на совершенно темных для невооруженного глаза участках неба. Специальные фильтры помогают исследовать довольно тонкие детали поведения нашего ярчайшего центрального светила.

Вообще история астрономических измерений — настоящий оптико-геометрический роман с многими почти детективными поворотами сюжета; но пересказ его содержания не входит в наши цели.

Основные принципы проектирования из «микро» в «макро» фактически уже проиллюстрированы рассказами о камере Вильсона, беккерелевском открытии и мысленным экспериментом со сцинтиллирующим экраном и фотопластинками, которые приведены в предыдущей главе. Главная идея всех решений проблемы доступности — вызвать с помощью микрочастицы коллективное возмущение атомов вещества, заранее приведенного в состояние «полной боевой готовности».

Однако с измерениями в микромире связаны не только многочисленные технические трудности, бросающие вызов всем областям науки, участвующим в создании необходимых приборов. Существуют и некоторые принципиальные ограничения.

Предположим, мы хотим выяснить положение электрона в пространстве и скорость, с которой он движется. Для определения положения электрона прежде всего необходимо его осветить. Причем чем точнее мы хотим знать, где он находится, тем короче должна быть длина волны используемого освещения. Это общее правило, следуя которому создаются, например, микроскопы и любые другие приборы для обнаружения и изучения тех или иных препятствий. Скажем, для обнаружения самолета используются радиоволны дециметрового диапазона. Самолет имеет размеры порядка нескольких метров, то есть в десятки раз больше, чем длина волны «освещения», и радиолокационной установки в дециметровом диапазоне достаточно для того, чтобы он не проскочил незамеченным. Хорошо известно, что обычные оптические микроскопы — сколь бы мощными линзами их ни снабжали — имеют предел применимости: в них нельзя рассмотреть объекты, размер которых меньше длин волн видимого света. Практически же наблюдать можно лишь объекты, размер которых раз в десять превосходит длину волны излучения, которым освещается объект.

В нашем мысленном эксперименте все позволено. Мы можем не ограничиваться сравнительно длинноволновым излучением, характерным для радиодиапазона или видимого света, а использовать, например, ультрафиолетовое, рентгеновское или даже гамма-лучевое освещение. Более того, мы можем вообразить особое устройство, которое позволяет сколь угодно уменьшать длину волны. Такое устройство — величайшая, но пока, увы, недосягаемая мечта исследователей; однако его вполне можно использовать в мысленном опыте — оно не противоречит никаким принципам физики!

Но правило, которое мы применяли в случае радиолокационной установки или оптического микроскопа, будет действовать и в любом другом случае. Оно связано с волновой природой электромагнитного поля и в более точном виде звучит так: погрешность в определении размера или положения некоторого объекта никогда не может быть сделана меньше длины волны используемого освещения.

Разумеется, имея под рукой чудесное устройство для беспредельного уменьшения длины волны, мы способны сделать и погрешность сколь угодно малой, то есть определить положение интересующего нас электрона со сколь угодно высокой точностью. Но тут-то оказывается, что мы начисто теряем возможность решить вторую часть поставленной задачи; как вы помните, необходимо определить еще и скорость электрона.

В этом пункте неприятности наступают из-за двойственной природы электромагнитного поля. Оно ведь может быть представлено и как поток фотонов! Но фотон обладает определенным импульсом, причем этот импульс пропорционален частоте или обратно пропорционален длине волны. Падая на электрон, фотоны будут передавать ему часть импульса, то есть сообщать дополнительную скорость — этот процесс соответствует эффекту Комптона. Погрешность в определении импульса электрона как раз и равна (примерно!) импульсу, который фотон передает электрону в каждом отдельном акте соударения. В свою очередь, переданный импульс приблизительно равен фундаментальной постоянной Планка (h), деленной на длину волны.

Теперь займемся простой алгеброй — перемножим погрешности в определении как положения электрона (Δx), так и его импульса (Δp). Оказывается, что их произведение вообще не зависит от длины волны освещения и примерно равно постоянной Планка! Заключительная формула имеет вид соотношений неопределенностей Гейзенберга: (Δx) ∙ (Δp) ≈ h.

Разобранный здесь мысленный эксперимент был придуман в свое время самим В. Гейзенбергом для наглядного вывода одного из вариантов своих знаменитых соотношений и даже имеет особое название — микроскоп Гейзенберга.

Этот эксперимент действительно в чрезвычайно наглядной форме показывает, что к определению наблюдаемых величин в микромире следует подходить с особой осторожностью. Казалось бы, чего уж проще — решили измерить положение частицы и ее импульс, или скорость, а оказывается, что без света ничего сделать нельзя (нет наблюдения!), а со светом одновременное точное определение двух величин — координаты и импульса — вообще невозможно.

С точки зрения квантовой механики наша ошибка заключена уже в самой постановке задачи — электрону не следовало заранее приписывать свойство «обладать одновременно точным значением координаты и точным значением импульса». Это просто неоправданное распространение классических представлений из привычного для нас мира больших и тяжелых тел на ту область, где они неприменимы.

Таковы основные сложности, подстерегающие всех, кто пытается получить полезную информацию об устройстве микромира. Однако если трудности в создании приборов преодолены, а квантовомеханические тонкости учтены, остается главный вопрос: как пробиться к очень малым расстояниям?

Очевидный путь связан с получением все меньших и меньших длин волн, разумеется, не только световых, но и дебройлевских волн любых элементарных частиц. Фактически же, поскольку дебройлевская длина волны обратно пропорциональна импульсу частицы, следует создавать пучки частиц, обладающих все более высоким импульсом. Следовательно, тайны сверхмалых расстояний могут раскрыться только перед теми, кто сумеет использовать в своих экспериментах частицы с достаточно высокими энергиями. Прорыв к малым и сверхмалым пространственным областям — бесспорно, достойная цель и одна из главнейших причин упомянутой выше «филологической метаморфозы». Однако за такой формулировкой задачи кроется на самом деле более глубокое содержание.

Внутренность пустой коробки, очень большой или очень малой, вряд ли может кого-нибудь заинтересовать. Точно так же, для нас важны не впечатляющие пространственные размеры вблизи краев рассмотренного диапазона — 10-15 или 1028 сантиметров, — а те объекты и процессы, которые «за ними скрываются». Нам необходимо выяснить, не существуют ли за последней достигнутой пока ступенькой великой иерархической лестницы под названием «элементарные частицы» какие-то новые ступени, где еще не отпечатаны следы «всепроникающих человеческих башмаков». Не отыщутся ли там какие-то неведомые субэлементарные объекты, из которых на самом деле выстроены все известные сейчас частицы?



Весь исторический опыт, накопленный физиками, вроде бы выступает за положительный ответ. Ведь до сих пор в процессе исследования структуры вещества неизменно обнаруживался долгожданный следующий уровень строения. Действительно, составные объекты — очень частое явление. Под ними можно понимать совокупность каких-то иных, более простых объектов, называемых частями, которые связаны между собой определенными силами. Кусок железа, притянутый магнитом, — хороший пример типично составного объекта. Если мы заранее договоримся, что на расстоянии, скажем, одного метра друг от друга взаимодействием магнита с куском железа можно пренебречь, то, измеряя усилие, которое необходимо приложить для их разделения, предположим, оно оказалось равным 1 кГ (килограмм силы), мы без труда вычислим работу, затраченную на превращение одного составного объекта в две независимые части: в данном случае эта работа составляет один килограммометр (по-другому она называется энергией связи).

Энергия связи чрезвычайно важное понятие в микромире. Чтобы ионизировать атом, необходимо совершить работу по удалению электрона на достаточно большое расстояние от атомного ядра. Такую работу способен проделать, например, фотон, энергия которого превышает энергию связи электрона в атоме. Именно этот механизм и лежит в основе фотоэлектрического эффекта.

Понятие энергии связи пронизывает буквально все наши представления о структуре вещества. Вот перед нами знаменитая цепочка — четыре обычных состояния вещества: твердое тело, жидкость, газ, плазма.

В твердом теле связи между атомами наиболее сильны, они образуют как бы жесткую сетку.

При нагревании эти связи начинают разрушаться — с ростом температуры атомы приобретают все большие кинетические энергии. Вещество переходит в жидкую фазу, жесткая сетка связей сохраняется лишь местами, во всяком случае, ее обычно не хватает для того, чтобы тело самостоятельно поддерживало прежнюю форму.

При еще более сильном нагревании практически все атомы приобретают достаточно большие кинетические энергии для преодоления энергии межатомных связей, вещество становится газообразным.

И наконец, дальнейший нагрев начинает разрушать внутриатомные связи. Электроны отрываются от ядер, возникает своеобразная горячая смесь из электронов и положительно заряженных ионов, называемая плазмой.

Каковы же порядки величин различных связей в микромире? По традиции, возникшей практически одновременно с самой физикой элементарных частиц, их энергию принято измерять в электрон-вольтах. Один электрон-вольт — это энергия, которую приобретает электрон, ускоряясь разностью потенциалов в один вольт. Сокращенное название этой единицы — эВ (по специальному международному соглашению теперь принято даже в сокращенных обозначениях использовать заглавные буквы, если название единицы происходит от имени какого-либо ученого — в данном случае речь идет о выдающемся итальянском исследователе XVIII века А. Вольте). Более крупные единицы образуются по обычным правилам «метрического фольклора»: 1 килоэлектрон-вольт (КэВ) = тысяче электрон-вольт, 1 мегаэлектрон-вольт (МэВ) = миллиону эВ, 1 гигаэлектрон-вольт (ГэВ) = миллиарду эВ, 1 тераэлектрон-вольт (ТэВ) = 1012 эВ.

С точки зрения макроскопических представлений электрон-вольт очень маленькая энергетическая величина; даже один ТэВ составляет всего-навсего 1,6 эрга. Но если речь идет о том, чтобы сообщить энергию в один электрон-вольт каждой частице большого куска вещества, впечатление заметно меняется — вещество необходимо разогреть примерно до 7700 градусов!

В мире атомов и молекул характерные энергии связи заключены в интервале от малых долей электрон-вольта до нескольких электрон-вольт.

Для атомных ядер масштаб увеличивается примерно в миллион раз.

Теперь мы вполне готовы к тому, чтобы оценить, насколько хороши представления, типичные для составных моделей, например: «атом состоит из ядра и нескольких электронов», или: «атомное ядро состоит из протонов и нейтронов».

Высказывание о некотором элементе структуры имеет смысл тогда, когда он сохраняет свою индивидуальность, то есть когда его можно охарактеризовать одними и теми же (хотя бы почти одними и теми же) параметрами независимо от того, внутри ли структуры он находится или вне ее.

Естественно, основным энергетическим параметром элементарной частицы является ее масса. Массы частиц принято оценивать в энергетических единицах, причем пересчет из граммов в электрон-вольты (сначала в эрги!) осуществляется по знаменитой эйнштейновской формуле: Е = Мс2, здесь с — скорость света в пустоте, равная примерно 3 ∙ 1010 см/с. Так, масса электрона составляет 9,1 ∙ 10-28 грамма, или 0,51 МэВ. Для протона 938,28 МэВ, то есть около одного гигаэлектрон-вольта. Масса нейтрона примерно на 1,3 МэВ больше массы протона.

Для оценки «качества» составной модели мы можем теперь использовать такую полезную величину, как отношение энергии связи к массе легчайшей элементарной частицы, входящей в структуру. Эта величина характеризует, грубо говоря, долю массы, которую частица должна потерять, находясь внутри структуры.

В случае атомов указанное отношение чрезвычайно мало — всего несколько миллионных долей единицы. Следовательно, представление об электроне как о структурной единице атомов с огромной степенью точности оправданно. В атомных ядрах ситуация не столь блестящая; указанное отношение порядка — несколько тысячных долей, но и этого достаточно для разумного определения ядра как системы, составленной из протонов и нейтронов.

Таким образом, мы ответили на поставленный ранее вопрос, обсудив не только качественную сторону дела, но и обнаружив простую возможность количественной оценки.

Что же можно теперь сказать по поводу субэлементарного уровня и возможных составных частей элементарной частицы? На самом деле этот вопрос сам является «составным» — в нем явно выделяются два различных оттенка.

Первый из них таков — не являются ли некоторые из известных частиц «более элементарными», чем другие, и нельзя ли, следовательно, использовать их в качестве структурных элементов для построения остальных «менее элементарных», возможно, составных частиц?

По-видимому, такая возможность не слишком привлекательна, поскольку отношение энергии связи к массе оказывается в данном случае порядка единицы. А это значит, что одна элементарная частица внутри другой должна расстаться со своей массой, то есть практически полностью потерять свою индивидуальность. Поэтому, если в результате соударения двух элементарных частиц образовалась еще одна, новая частица, у нас нет оснований утверждать, что она «скрывалась» в одной из столкнувшихся. Разумнее полагать, что новая частица родилась непосредственно в процессе взаимодействия исходных двух.

Проблемы, связанные с таким представлением, нам еще предстоит обсудить в последующих главах.

Вторая трактовка вопроса — не могут ли существовать субэлементарные частицы, абсолютно непохожие на обычные, известные нам элементарные? Тут мы рискуем вступить в область пророчеств на тему «появится ли то, не знаю что». Запретить появление чего-то с неопределенными свойствами, разумеется, нельзя. Современная физика элементарных частиц уже выработала несколько очень интересных конкретных моделей для объектов нового типа, и мы в дальнейшем обсудим их довольно подробно.

Итак, мы установили одну из основных причин интереса к пучкам частиц очень высоких энергий: не скрывается ли за уже достигнутым уровнем строения вещества некий новый уровень с необычайно большими энергиями связи? Но существуют и иные, не менее веские причины — они всплыли в процессе уже развернувшейся гонки за высокими энергиями, и о них речь впереди…


О простом любопытстве, воздухоплавании и космических лучах

Своим первым прорывом в область высоких энергий физика элементарных частиц всецело обязана замечательному «дару небес» — космическим лучам, потоку очень быстрых частиц, приходящих из глубин вселенной и непрерывно бомбардирующих нашу планету.

Прежде чем приступить к обсуждению этого интереснейшего явления природы, еще раз воздадим хвалу великому, внешне случайному, но логически совершенно необходимому открытию естественной радиоактивности элементов. Открытию, которое не только позволило получить первые сигналы о ядерных превращениях, но и подарило уникальное средство зондирования структуры вещества. Однако оно сыграло еще одну крайне любопытную и весьма важную роль. Перед наукой замаячили необычайно привлекательные возможности поиска самых разнообразных «таинственных излучений». И наука с небывалой активностью принялась их отыскивать, объяснять и использовать.

Пожалуй, самая крупная находка на этом пути обнаружилась несколько неожиданно. Существовала старая загадка, знакомая всем исследователям статического электричества. Загадка мучительная, создающая изрядные помехи в экспериментах, — самопроизвольная утечка заряда с хорошо изолированного проводника. Современным физикам, которые на страницах романов, на экранах и, что греха таить, в реальной лабораторной жизни умеют ловко вышибать дух неповиновения из капризных осциллографов и другой прецизионной аппаратуры, трудно поверить, что мудрые классики прошлых веков испытывали немалые неприятности с обычным электроскопом. Тем самым прибором-ветераном, вписавшим немало славных страниц в историю физики и так естественно вписавшимся в уютные интерьеры школьных кабинетов.



Вероятно, первым, кто отнесся к эффекту утечки заряда со всей серьезностью, как к предмету исследования, а не просто досадной помехе, был французский ученый Ш. Кулон — военный инженер, который увлекся изучением электричества уже на полувековом рубеже своей жизни и успел сформулировать основные законы взаимодействия покоящихся зарядов и магнитов.

Основываясь на исключительно тщательных измерениях, Ш. Кулон убедился, что количество электричества на проводнике, окруженном воздухом, быстро убывает с течением времени. Он попытался и объяснить этот эффект наиболее правдоподобным образом: подставки и окружающий воздух, полагал Ш. Кулон, не являются идеальными изоляторами, часть заряда уходит через подставку, часть — уносится частицами воздуха, которые сталкиваются с проводником, захватывают долю заряда и потом отлетают под действием сил отталкивания (ведь на частицах воздуха и на проводнике заряды одного знака!).

Такое простое и наглядное объяснение продержалось в физике до начала нашего века, пока не было твердо установлено, что действие радиации, в частности гамма-излучения, ведет к созданию условий для утечки заряда. С другой стороны, исследователи обнаружили, что радиоактивные вещества рассеяны по всей земной коре (как раз в это время закладывался фундамент радиационной геофизики). И наконец, прямые измерения скорости самопроизвольного разряда электроскопа в различных условиях показали, что хорошая экранировка свинцовыми пластинками заметно замедляет утечку.

Все эти факты свидетельствовали о недостаточности гипотезы Ш. Кулона. Многие физики стали думать, что утечка связана с влиянием гамма-лучей, испускаемых элементами земной коры. Эта идея оказалась весьма популярной, хотя и недолговечной. Как всегда, были сомневающиеся, которые говорили о совсем иных источниках излучения, действующего на электроскопы. Законы разряда одинаковы в различных точках земного шара, указывали они, и трудно поверить, что радиоактивные вещества распределены абсолютно равномерно; скорее всего излучение должно иметь какие-то внеземные и очень удаленные области возникновения, тогда, и только тогда, становится понятным его равномерное распределение по всей поверхности Земли…

И вот в такой ситуации именно сомневающиеся получили неожиданную поддержку благодаря включению в игру нового средства исследований. Это новое средство — воздушные шары, позволяющие эксплуатировать многокилометровые толщи атмосферы в качестве уникального экрана. Если поток радиации исходит из земных недр, то на достаточном удалении от поверхности он будет уменьшаться из-за экранировки воздухом, и, наоборот, поток космической радиации должен возрастать по мере удаления от Земли. Итак, возникла остроумная идея — проверить закономерности разряда электроскопа на различных высотах.

Надо сказать, что воздухоплавание начала нашего века делало свои «вторые шаги», выходило из области увлечения полетами как таковыми в область научных исследований в атмосфере. Здесь стоит отметить интересную аналогию с совсем уже близкими нам событиями. После первых успешных запусков искусственных спутников Земли и детальной отработки программы полетов центр тяжести переместился в область создания крупных орбитальных научных станций, способных собирать огромную информацию об околоземном и межпланетном пространстве. И одним из важнейших достижений космических лабораторий было продолжение и всестороннее развитие тех работ по изучению внеземных излучений, которые были начаты в 1909 году швейцарцем К. Гёккелем, впервые установившем электроскоп на воздушном шаре.

К. Гёккель обнаружил, что на высоте 4 километров электроскоп теряет заряд быстрее, чем на поверхности Земли. Примерно через четыре года серию аналогичных опытов завершил физик из Австрии В. Гесс. Его данные были достаточно полны для того, чтобы сделать важнейший вывод — излучение, вызывающее «самопроизвольный» разряд электроскопа, не связано с земной корой, оно имеет либо космическое, либо атмосферное происхождение. Сам В. Гесс больше склонялся к первому варианту, а второй рассматривал скорее всего как возможное сопровождающее явление или не до конца исключенную альтернативу. За такую удивительную прозорливость и, конечно, за получение первых доказательных результатов он был впоследствии удостоен Нобелевской премии.

Между тем окончательный выбор модели затянулся еще примерно на 10 лет из-за обилия противоречивых экспериментальных данных. Физики так и не смогли получить убедительных доказательств космической гипотезы из заоблачных высот. И тогда они сделали внешне парадоксальный, но, по сути дела, простой до очевидности «ход конем»: решили извлечь истину буквально из-под земли. Начиная с 1923 года были проведены три серии глубинных экспериментов. Ионизационные свойства излучения были изучены с помощью приборов, установленных в глубокой альпийской расщелине, на 20-метровой глубине одного из калифорнийских озер и, наконец, на различных глубинах (вплоть до 220 метров!) озера Констанца.

Результаты этих исследований фактически закрыли атмосферную гипотезу. Стало ясно, что новый вид радиации обладает фантастической проникающей способностью. Мало того, что излучение пронизывало всю земную атмосферу, оно проникало сквозь слой воды, эквивалентный утроенной толщине атмосферы!

Отсюда следовало, что частицы нового излучения должны обладать огромными энергиями, в тысячу и более раз превосходящими энергии, характерные для земных радиоактивных источников.

Итак, поиски на земле, в небе, под землей и под водой увенчались замечательной находкой: был обнаружен тщательно замаскированный природой клад, размеры которого до сих пор не так-то просто оценить — клад, открывший совершенно новую эпоху в изучении структуры вещества, позволивший в буквальном смысле по-новому взглянуть на вселенную. При этом физики столкнулись с двумя захватывающими проблемами. Во-первых, нужно было немедленно постигать законы поведения элементарных частиц и атомных ядер при очень высоких энергиях. Во-вторых, стало ясно, что вселенная светится в потрясающе широком диапазоне частот и не только электромагнитными волнами, но и буквально всей таблицей Менделеева — от протонов до тяжелых ядер.

Следовательно, гигантские межзвездные и межгалактические пространства — не какие-нибудь «хладные пустыни», где нет-нет, да и скользнет одинокий луч света, а вместилища сверхгорячего, хотя и очень разреженного, газа микрочастиц. Следовательно, космос живет бурной жизнью — в недрах звезд непрерывно происходят ядерные превращения, и сигналы об этих событиях уходят в космос… И еще появилось множество поражающих воображение «следовательно», и родились новые, достойные наших усилий проблемы.

В 1925 году американский физик Р. Милликен — один из главных участников заоблачных и подводных экспериментов — предложил для потоков высокоэнергетических частиц, приходящих из космоса, очень удачное название — космические лучи. Их природа была окончательно установлена в 1927 году благодаря опытам советского физика Д. Скобельцына, который сфотографировал следы частиц космического излучения с помощью камеры Вильсона. В 1931 году Р. Милликен и Ч. Андерсон провели первое тщательное измерение энергии космических лучей. Для этого пришлось специально придумать метод ослабления пучка, ведь энергия космических частиц была так велика (порядка нескольких гигаэлектрон-вольт), что позволяла им практически не реагировать на отклоняющее магнитное поле!

На этом первооткрывательский период завершился, и космические лучи начали демонстрировать богатейшую копилку сюрпризов. Но, прежде чем мы займемся ее содержимым, давайте немного обсудим возникающие теперь «семейные проблемы».

В конце 20-х — начале 30-х годов физика элементарных частиц делает огромный шаг вперед. Открытие космических лучей, по сути дела, приводит к появлению нового раздела — физики высоких энергий. О точной дате рождения этой науки договориться не так уж и просто. Ее можно связать и с первыми доказательствами, добытыми на шарах, и с определяющими результатами экспериментов Д. Скобельцына. Я думаю, что именно пятилетие 1927–1931 годов было порогом, преодолев который исследователи смогли со всей определенностью сказать: мы имеем дело с новым типом объектов — элементарными частицами с очень высокими энергиями. Во всяком случае, возник основанный на результатах измерений количественный критерий для выделения особого предмета исследований.

Конечно, для выделения особой области исследований нужны не количественные, а уже качественные отличия основных объектов, иначе буквально к каждой цифре энергетического диапазона можно прикрепить по «бирочке» с каким-нибудь оригинальным названием! Но в физике качественная новизна, как правило, связана с преодолением некоторого количественного, часто говорят, критического рубежа. Например, трудно усомниться в том, что твердое тело и жидкость — качественно разные состояния вещества. Не достаточно ли говорить об одном веществе, одновременно указывая температуру ниже или выше точки плавления? Оказывается, нет. При переходе не все свойства меняются непрерывным образом, скажем, высокая упорядоченность атомов в твердом теле возникает «скачкообразно».

В микромире тоже существуют критические значения энергии, они связаны с величинами масс элементарных частиц. Массы частиц (как мы уже договорились, массы будем выражать в энергетических единицах) располагаются в интервале от нуля до примерно 4 гигаэлектрон-вольт, причем подавляющее большинство частиц имеют массы свыше 100 мегаэлектрон-вольт. Космические лучи в отличие от всех ранее известных радиоактивных источников обладали кинетическими энергиями не только в указанном интервале, но и намного большими. Благодаря такому огромному запасу энергии при их соударениях с другими частицами и атомными ядрами атмосферы могли образовываться любые новые частицы. Именно в этом и состоит качественно новый наблюдаемый эффект.

Так что появление на арене космических лучей стало прологом к физике высоких энергий, прологом интересным и многообещающим.

И нам стоит остановиться лишь на нескольких, но, пожалуй, наиболее драгоценных сюрпризах из обширной «космической шкатулки».

Уже в 1932 году Ч. Андерсон, изучая отклонения космических пришельцев в магнитном поле, установил, что некоторые следы в камере Вильсона соответствуют положительно заряженным частицам с массой электрона. Ими оказались позитроны — своеобразные антиподы электронов. Так превратилось в экспериментально доказанный факт предсказание релятивистской квантовой механики, удвоившее наблюдаемый мир. Это предсказание возникло на стыке двух мощных потоков новых представлений следующим образом.



К середине 20-х годов пересеклись пути квантовой механики и теории относительности: необходимо было построить уравнение Шредингера для электрона, движущегося с большими скоростями. С этой проблемой блестяще справился двадцатишестилетний английский физик-теоретик П. Дирак.

То, что обычно называют уравнением Дирака, представляет собой красивую форму записи четырех довольно хитро переплетенных между собой уравнений. Эту систему так называемых дифференциальных уравнений с помощью специальных преобразований можно привести к вполне прозрачной алгебраической форме. И тут возникает эффект, хорошо известный всем, кто решал обычные квадратные уравнения и имел удовольствие получать в качестве корней два числа, равных по абсолютной величине, но имеющих противоположные знаки. Разумеется, для упражнения из задачника по алгебре ничего страшного в таком решении нет. Отрицательные или положительные корни — какая разница! А вот при решении уравнения Дирака оказалось, что именно в этом таятся огромные опасности. Просто-напросто одно из решений этого уравнения соответствовало электрону с положительной массой, а другое — с отрицательной!

Эта неприятность родилась вместе с уравнением Дирака в 1928 году, и неприятность действительно не малая — где это видано, чтобы частица имела отрицательную массу? И вообще, что значит отрицательная масса? Если бы такое было возможно, то обычные электроны стали бы самопроизвольно «проваливаться» на отрицательные энергетические уровни, излучая гамма-кванты! Через три года молодой физик сам предпринял отважную попытку спасти свое творение, подвергавшееся острой и вполне основательной критике со стороны ведущих теоретиков. Он воспользовался недавно открытым принципом Паули, запрещавшим двум электронам находиться в одинаковых состояниях.

К этому времени принцип Паули был хорошо проверен «в деле». С его помощью удалось объяснить правила формирования электронных оболочек различных атомов, придать четкий физический смысл такому чисто химическому понятию, как валентность, то есть в конечном счете установить физическую основу известной группировки элементов в таблице Менделеева.

П. Дирак предположил, что все уровни с отрицательными значениями энергии полностью заполнены обычными электронами, причем всю совокупность таких уровней (ее назвали «дираковским морем») нельзя наблюдать без специального воздействия. Чтобы добыть электрон из «дираковского моря», необходимо сообщить ему положительную энергию, достаточную для образования двух электронов. В этом случае мы будем наблюдать обычный электрон с положительной энергией, но, кроме него, в «дираковском море» возникает вакантное место — своеобразная «дырка», которая обладает свойствами обычного электрона, но с противоположным (положительным) знаком заряда. Разумеется, массы обеих частиц положительны, поскольку вначале была сообщена энергия, которой достаточно на образование двух частиц с массой электрона. Вся разница состоит в том, что «дырка» должна нести положительный электрический заряд — из-за этого ей присвоили и второе имя: антиэлектрон, или позитрон.

Дираковское предсказание касалось на самом деле не только электрона, но и любых частиц — каждой из них полагалось иметь по своему антиподу, лишь в редких случаях частица тождественна своей античастице, например, фотон. Эта идея — поразительный пример предоткрытия, поскольку впоследствии ни один физик не высказал по-настоящему серьезных сомнений не только в существовании отдельных античастиц, но и целых антигалактик. Наблюдались лишь некоторые колебания, связанные с томительно долгим ожиданием экспериментального открытия антипротона (целых три десятилетия!).

Сейчас также наблюдаются определенные колебания в отношении к антимирам «макро» и «мега». А вдруг они вообще не обнаружатся, тем более что современная «антитаблица Менделеева» доведена только до антигелия, открытого советскими физиками в Институте физики высоких энергий под Серпуховом? Почему в ближайшей к нам области вселенной вещество очень сильно преобладает над антивеществом, тогда как на уровне микромира все выглядит в высшей степени симметрично?

Это интригующая проблема. Решение ее может привести к гораздо более впечатляющим последствиям, чем могли себе представить самые смелые писатели-фантасты, давно уже применяющие огромные объемы антивещества для ускорения звездолетов до околосветовых скоростей.

А дело заключается в следующем. При столкновении частицы с античастицей происходит так называемая аннигиляция, то есть взаимодействующие частицы исчезают, а вместо них охотно образуются другие частицы.

Сам термин «аннигиляция» (буквально — превращение в ничто, уничтожение) связан с наиболее наглядным примером этого процесса: самый вероятный исход встречи электрона и позитрона состоит в их гибели с одновременным рождением двух энергичных фотонов. Если такая реакция происходит с большим количеством вещества и антивещества, то образуется мощнейший световой поток преимущественно из жестких гамма-квантов, а при наличии подходящего фокусирующего зеркала нетрудно построить модель реактивного двигателя для звездолета…

Но фантазии фантазиями, а механизм аннигиляции ведет к предельному, с точки зрения современных физических представлений, энерговыделению. Практически вся масса вещества может быть переведена в энергию излучения, которую в принципе не запрещено преобразовывать в другие удобные формы. Не исключено, что именно «аннигиляционные реакторы» определят энергетический потенциал XXI века, но для этого надо научиться собирать и удерживать антивещество в достаточно больших количествах. Пока же получение микроскопических доз антивещества съедает целые океаны электроэнергии. Короче говоря, такие идеи еще очень далеки от практического воплощения, или, лучше будет сказать, нам кажется, что далеки.

Обратите внимание — первый же шаг в область высоких энергий принес совершенно новое и неожиданное явление. Причем неожиданное в абсолютном смысле этого слова. Например, волновая гипотеза Л. де Бройля не была предугадана физикой прошлых лет сколь-нибудь определенным образом. Тем не менее вскоре после ее появления стало понятно, что волновые представления о веществе — долгожданные гости: из глубин истории сразу всплыло великое противостояние Фалеса и Платона, Ньютона и Гюйгенса, Томсона и Гольдштейна. А вот античастицы никто и никогда не предсказывал, ни в одном физическом исследовании нельзя встретить и намека на антимиры. Разве что в отдельных натурфилософских работах появлялись неопределенные идеи о непременном существовании противоположных начал, но это основывалось скорее всего на некотором обобщении опыта человеческих взаимоотношений, например, борьбы Добра и Зла и т. п.

Два других важнейших сюрприза со стороны космических лучей тесно взаимосвязаны между собой и в некотором смысле еще более поразительны, чем открытие позитрона. Речь идет об обнаружении новых процессов — налетающая с огромной энергией космическая частица буквально взрывалась, сталкиваясь с одним из ядер вещества, генерируя множество следов, которые, в свою очередь, могли быть приписаны новым частицам, обладающим промежуточным значением массы между протоном и электроном.

Первые регистрации процессов множественного образования новых частиц, названных мезонами (дословно — срединными, промежуточными), стали отправным пунктом для того понимания центральной проблемы физики высоких энергий, которое сложилось в более или менее четкой форме лишь в настоящее время, примерно за последнее десятилетие.

В физику входило представление о новых чрезвычайно интенсивных силах, действующих между некоторыми элементарными частицами.

Необходимость в таких силах отчасти предугадана в процессе исследования атомных ядер. Уже в начале 20-х годов исследователи пришли к убеждению, что ни рассеяние на ядрах, ни сам факт их существования нельзя понять, если не предположить, что мы сталкиваемся с взаимодействиями, значительно сильней электромагнитных, но с чрезвычайно малым радиусом действия. Такая гипотеза сразу же позволяла качественно объяснить аномальное поведение альфа-частиц, пытавшихся проскочить в непосредственной близости от ядер, а также преодолеть очевидную трудность в ранних моделях самого ядра. Дело в том, что несколько протонов, образующих заряженный «остов» ядра, не могли быть устойчивой системой из-за огромных кулоновских сил отталкивания. Не могли, разумеется, если не существовало бы каких-то еще более мощных удерживающих, цементирующих их сил.

Более подробный рассказ о замечательном «ядерном клее» и интересных свойствах ядерно-активных частиц пойдет в последующих главах, там мы и обсудим не спеша обозначенные выше открытия. Здесь же мы отметим еще два полезных обстоятельства.

Во-первых, установление высокой активности космических пришельцев вдохнуло жизнь в едва уже не похороненную «с подобающими почестями» атмосферную гипотезу. Стало ясно, что, по крайней мере, часть попадающих в наземные установки частиц образуется не в глубинах вселенной, а в земной атмосфере под действием первичного истинно космического излучения.

Во-вторых, среди мезонов обнаружились своеобразные «замаскированные» электроны. Слово «своеобразные» относится лишь к способу их маскировки — они обладают примерно в 207 раз большей массой, в остальном же они начисто лишены какого-либо своеобразия, и именно этот факт оказался едва ли не самой неприступной тайной микромира. Сначала новые частицы окрестили мю-мезонами, потом название немного сократили до «мюонов», вероятно, для того, чтобы отличать их от других, гораздо более активных собратьев по мезонному семейству. К этому времени дираковское удвоение миров было более или менее неплохо освоено теорией, но вот для чего понадобилось природе еще одно, причем персональное удвоение электронов — этого никто так и не знает. Мюоны намного тяжелее электронов, но во всех реакциях строго следуют тем же правилам поведения, которые пишутся для электронов. Достаточно лишь провести во всех электронных соотношениях замену масс, то есть буквально подставить другое число, и перед вами готовый свод мюонных законов.

Так возникла «мю-е-проблема»; под таким названием проводятся международные семинары, ставятся сверхточные эксперименты, выходят в свет десятки статей. А она практически в первозданном виде и остается все той же мю-е-проблемой…


Ключи к микромиру

За последние 80–100 лет произошел коренной перелом во взаимоотношениях науки и ее наиболее крупных технических приложений. Исчезает характерное для прежних времен стремление извлекать пользу из новых явлений, не постигая их сути.

Не следует, конечно, считать, что выдающийся практицизм наших далеких пращуров был следствием какой-то особой интеллектуальной близорукости, а дальновидные умники появились совсем недавно. Дело просто в темпе событий, который, как мы уже договорились, является основной приметой текущего за нашими окнами времени. Седая старина тем и характерна, что в подавляющем большинстве случаев рецепт, найденный сегодня, оказывался вполне пригодным для многих поколений, верным почти без малейших изменений. Успешно прослужив сто, двести, а иногда и тысячу лет, рецепт становился предметом поклонения, а не изучения. И спаси господь дерзкого человека, решившего посягнуть не то что на его опровержение, но даже на простое сомнение.

Но старые времена дают нам и множество примеров гениальных изобретений, намного опередивших уровень научного понимания мироустройства. Наука едва еще выкарабкивалась из пеленок, а техническая мысль вынуждена была волоком волочь упирающегося, перепуганного огромностью этого мира младенца к его же светлому будущему. Это они, так и не вышедшие из тени неизвестности, первопроходцы, нашли простые способы разжигания и хранения огня, — достижение, которое окончательно и бесповоротно поставило человека в господствующее положение в биосфере нашей планеты. И это величайшее открытие состоялось без самомалейшего понятия об окислительных реакциях.

Задолго до открытия элементарных законов механического движения по земле прокатилось первое колесо. Большие лодки стали бороздить моря и океаны за много веков до рождения Архимеда. Да уж бог с ней, с древностью. Первый паровоз побежал по рельсам, когда солидные ученые мужи еще превозносили теорию невидимой тепловой субстанции — флогистона… Уже в начале нашего века король изобретателей Т. Эдисон, похвалявшийся тем, что никогда не заглянул ни в одну теоретическую книгу, получает свой 1093-й (!!) патент на изобретение в области электротехники…



Но рядом уже развивается совсем иная деятельность. В 1895 году русский А. Попов и итальянец Г. Маркони демонстрируют удивительные приборы — первые радиоприемные устройства, в основе изобретения которых лежит не простой поиск методом перебора, а четкое представление о недавно открытых Г. Герцем электромагнитных волнах.

Ясно, что здесь мы сталкиваемся с качественно иной ситуацией. Попробуйте вообразить себе создание радиоприемника без предшествующих чисто научных исследований быстропеременных токов, без обнаружения особых волн, генерируемых колебательным контуром. И уж совсем мистическим актом воображения представляется, скажем, создание лазера без глубокого знания квантовой теории атомно-молекулярных систем.

Из этого вовсе не следует какое-либо преуменьшение роли поиска методом проб и ошибок. Между предсказанием большого выхода энергии в процессе деления ядра урана и созданием реального ядерного реактора — дистанция огромного размера. Но тут важна принципиальная сторона вопроса — без тщательного чисто научного анализа энергетики ядерных реакций, без теории «дефекта массы», основанной на эйнштейновской связи между энергией и массой, вряд ли мы были бы даже знакомы с такими словосочетаниями, как «ядерный реактор», «термоядерный реактор» и т. п.

Чисто рецептурная наука уходит в область преданий. Сегодня будущее наступает гораздо быстрей, чем в далекие времена. Аккумулировать опыт поколений в виде каких-то практических рецептов, попросту говоря, некогда — в тупике могут оказаться не столько далекие потомки, сколько ныне здравствующие люди. Наука XX века стала активно продуцировать «заготовки впрок». Исследования, направленные на выяснение механизма явления, порождают новые исследования — процесс становится лавинообразным. Получается так, что по большинству стоящих перед обществом проблем ученые способны либо немедленно сформулировать конкретные практические рекомендации, либо указать ясные пути их выработки. И в этом важнейший источник высокого престижа естественных наук.

Но, возможно, самое любопытное состоит в том, что взрыв исследовательской активности буквально на наших глазах сметает глубоко укоренившееся представление о самой науке как о непоколебимом своде фундаментальных законов природы, огромном храме — хранилище неоспоримой истины. Эти, в общем-то, славные образы — типичное наследие старых добрых «медленных» времен, когда по одним и тем же учебникам превосходили премудрость десятки и десятки студенческих поколений, а научные статьи не успевали безнадежно устаревать еще до выхода в свет; когда ученые были скорее жрецами-добровольцами, а не научными сотрудниками с годовыми, пятилетними и перспективными двадцатилетними планами работы.

Прорыв в мир частиц высоких энергий связан с формированием науки нового типа. Физика высоких энергий дала первый образец сверхбыстрого развития и в постановке основных задач, и в методах организации исследований. Этот блестящий взлет произошел в удивительно короткий срок благодаря счастливому сочетанию двух, быть может, важнейших человеческих качеств — неиссякаемой изобретательности и умения жертвовать сиюминутными интересами ради Будущего с большой буквы. Именно это и позволило перейти к созданию самых-самых (больших, сложных, дорогостоящих…) приборов для изучения микромира — ускорителей заряженных частиц.

К концу 20-х — началу 30-х годов, когда помыслами физиков все сильней и сильней стали овладевать элементарные частицы и атомные ядра, выяснилось, что для серьезного движения вперед нужно срочно менять оружие. «Даровые» радиоактивные источники, которые верой и правдой служили науке много лет, не обеспечивали новых экспериментальных потребностей. Во-первых, они давали частицы с энергией, строго регламентированной законами радиоактивного распада. Во-вторых, эта энергия была не особенно велика — в лучшем случае порядка 10 МэВ. Кроме того, по ряду соображений для исследования ядер было выгодно использовать не альфа-частицы, а протоны.

Перед тем как перейти на долгосрочную и плодотворную работу в химии, биологии, геофизике и других областях науки, буквально «под занавес» радиоактивные источники сыграли одну из лучших своих ролей. С их помощью в 1932 году Дж. Чэдвик открыл долгожданную нейтральную составляющую атомных ядер — нейтрон, предсказанную его учителем Э. Резерфордом. Это открытие завершило длинную серию работ по установлению природы странного излучения, которое возникало в результате бомбардировки бериллия альфа-частицами и обладало высокой проникающей способностью. Дж. Чэдвик доказал, что при захвате альфа-частицы ядром бериллия образуется ядро углерода и испускается нейтральная частица, которая входила в состав одного из сталкивающихся ядер.

Экспериментальное обнаружение нейтрона позволило разработать простейшую составную модель ядра, о которой мы уже упоминали, вызвать искусственное деление тяжелых ядер и, наконец, в 1942 году запустить первую действующую модель ядерного реактора. Именно в связи с этой впечатляющей цепочкой завоеваний 30-е годы стали скорее «ядерными», чем «элементарно-частичными». Если когда-нибудь благодарные физики-ядерщики пожелают поставить монумент в честь одного из объектов своих исследований, то, на мой взгляд, это должна быть модель ядра гелия — великой альфа-частицы. Еще бы! Открытие атомных ядер в резерфордовских экспериментах, расшифровка протон-нейтронной структуры ядра произошли с ее помощью. Альфа-радиоактивность открыла путь в ядерный мир!

В высшей степени символично, что 1932 год оказался моментом передачи эстафеты — блестящий нейтронный финиш радиоактивных источников и практически сразу же мощный позитронный старт космических лучей. Старт был действительно превосходным, но многоопытные тренеры уже понимали, какие дистанции доступны для космических бегунов, а какие нет.

Космические лучи представлялись идеальным инструментом исследований по двум соображениям: их получение не требовало ни малейших расходов, и они обладали фантастически широким спектром энергий. Зато работа с ними основывалась на не слишком приятном принципе «ждать у моря погоды» и требовала невероятного терпения. Космическая частица с нужной энергией могла попасть в регистрирующее устройство сегодня, завтра, через год. Предположим, что небеса все-таки «являли милость», но это было одно, два, от силы десяток-другой событий. Что с ними можно сделать? Можно увидеть следы «неведомых зверей» — открыть новые частицы, можно зафиксировать новый тип процессов; в общем, установить уникальные факты существования чего-либо. Но получить более детальную информацию о поведении той же самой вновь открытой частицы в различных реакциях и при различных энергиях оказывается чрезвычайно сложным и слишком длительным делом. Ведь необходимо набирать сотни тысяч событий. В этом плане космические лучи могли оказать лишь одну услугу — дать предварительный сигнал о каких-то новых закономерностях.

Именно такова их основная специальность в настоящее время; и надо отметить, что зарекомендовали они себя в этом деле с лучшей стороны. Если учесть, что сейчас в составе космических лучей зарегистрированы частицы с энергиями до 1021 электрон-вольт, а на ускорителях изучают реакции при энергиях частиц лишь до 1012 эВ, то становится ясно — им еще долго предстоит выполнять функции «стратегической разведки».

Все это неплохо — одним поставят памятник, другие уйдут в разведку. А кто же станет работать? Природа не позаботилась о достойной замене и не предложила ни одного естественного источника радиации, который помог бы обойти все наметившиеся трудности. Но физики уже представляли себе путь, по которому следовало двигаться, частицы должны ускоряться электрическим полем; в принципе так же, как и при получении катодных лучей (электронов с большими скоростями). Только электроны ускорялись разностью потенциалов всего в несколько тысяч электрон-вольт, а теперь нужны миллионы. Следовательно, необходимо решать электротехнические проблемы с созданием высоковольтных установок…

Между этими ранними идеями и действующими установками лежат годы трудных поисков, великолепные находки и тягостные сомнения, радужные и пессимистические прогнозы.

1918 год. Петроград. Город борется за новую жизнь. Трудно с хлебом, трудно с работой, по ночам на вымерзших, пустынных улицах нет-нет и вспыхивают короткие ожесточенные перестрелки… Но и здесь, в центре великого социального потрясения, с невероятным напряжением сил идет битва за будущее русской науки, закладывается основа уверенного взлета. И одним из первых пунктов программы научного развития стала организация радиевого отделения при Радиологическом и рентгенологическом институте.

Огромную роль в создании нового отдела сыграл энтузиазм тридцатилетнего Л. Мысовского, который уже несколько лет успешно занимался проблемами новой физики. Фактически он был первым и едва ли не единственным физиком России, приступившим к исследованиям радиоактивности в дореволюционное время.

В начале 1922 года радиевое отделение преобразуется в знаменитый Радиевый институт, где были сконцентрированы работы с применением ядерных излучений в самых различных областях науки. Руководство физическим отделом этого института было поручено Л. Мысовскому. Летом этого же года он представил на заседание ученого совета доклад по своей совместной со студентом Петроградского электротехнического института В. Рукавишниковым работе, где была сформулирована идея использования генераторов высокого напряжения для ускорения альфа-частиц до нескольких миллионов электрон-вольт.

Практически в это же время Патентное ведомство США рассматривало оригинальную заявку, поступившую из штата Пенсильвания. В ней молодой сотрудник исследовательской лаборатории фирмы Вестингауз Дж. Слепян предлагал несколько иную конструкцию установки для ускорения заряженных частиц, так называемый индукционный ускоритель электронов.

Так общие идеи превратились в конкретные, осязаемые проекты. Но лишь последующее десятилетие перевело интересные предложения на язык действующих моделей. В 1929 году в Принстонском университете заработал первый электростатический генератор Р. Ван де Граафа с ускоряющим напряжением до 80 тысяч вольт. Через два года на третьем варианте его установки было достигнуто напряжение в полтора миллиона вольт!

Еще через год английские физики Дж. Кокрофт и Э. Уолтон коротенькой заметкой в журнале «Нейче» («Природа») оповещают научную общественность о первой впечатляющей победе ускорительной эры. С помощью двухкаскадного генератора напряжения они создали пучок прогонов с энергией 710 тысяч электрон-вольт и обстреляли литиевую мишень. В результате столкновения протона с ядром лития образовывались две энергичные альфа-частицы, то есть наблюдалась реакция расщепления ядра. Таким образом, искусственная радиоактивность была получена при помощи искусственных же источников быстрых частиц!

Вскоре был придуман совершенно иной, оригинальный принцип ускорения. В 1929 году двадцативосьмилетний адъюнкт-профессор Калифорнийского университета Э. Лоренс изобрел циклотрон — прибор, основанный на резонансном ускорении заряженных частиц высокочастотным полем, по справедливости считающийся родоначальником обширного семейства современных гигантских машин.

Несколько уточняя генеалогию ускорителей, нельзя не напомнить, что по современным масштабам предки рода гигантов были воистину карликами. Первая модель циклотрона имела диаметр магнитных полюсов 10 (!) сантиметров и представляла собой крайне нелепое сооружение из стеклянных пластинок, скрепленных сургучом. Но самое любопытное в том, что эта конструкция, хранящаяся ныне в Лондонском научном музее, все же работала — по мере «слабых своих возможностей» — и ускоряла ионы водорода. Спустя некоторое время Э. Лоренс получил в подарок от крупной телеграфной компании 74-тонный электромагнит, который более десяти лет провалялся у нее на складе (выбросить жалко, продать — никто не купит). Магнит разместили в старом деревянном доме вблизи университета и стали монтировать большой циклотрон. На фасаде появилась интригующая вывеска: «Радиационная лаборатория»; и все просвещенное население небольшого городка Беркли с нетерпением ожидало приобщения к ядерным «таинствам». Монтаж и запуск ускорителя прошли вполне успешно, и в 1932 году физики получили хороший пучок протонов с энергией 3,6 миллиона электрон-вольт. Так произошло рождение замечательного прибора — циклотрона. А с небольшого деревянного дома начинался один из крупнейших в мире центров ядерных исследований — Берклиевская радиационная лаборатория имени Э. Лоренса.

Принцип действия лоренсовского ускорителя довольно прост и в основных чертах используется в последующих проектах, включая самые современные. Заряженные частицы нужно гонять по кругу, периодически подхлестывая высокочастотным электрическим полем так, чтобы в каждом цикле они приобретали дополнительный импульс. А удерживать их на круговой траектории должно особое магнитное поле, причем чем сильней действует магнит, тем меньше радиус окружности, по которой несутся частицы.



Но возможности проникновения в область миллиардов электрон-вольт с помощью такого циклотрона оказались закрытыми. На пути замечательной идеи стояли основные принципы теории относительности. Чем больше скорость частицы, тем больше ее масса, и этот рост массы разрушает цикличность процесса — поле начинает не вовремя подстегивать отяжелевшие частицы.

Выход из трудного положения был найден только в 1944 году советским физиком В. Векслером. Раз массы ускоряемых частиц растут, рассуждал он, значит, для сохранения их «нормальных отношений» с полями последние должны также меняться синхронным образом. При этом можно идти одним из двух путей: либо менять частоту электрического поля, либо — интенсивность магнитного. Выбор пути предоставлялся экспериментаторам и конструкторам.

Метод Векслера получил название автофазировки. Соответственно ускорители, где подстраивается частота электрического поля, стали называться красивым «высоконаучным» словом синхрофазотрон, а те, в которых нарастает магнитное поле, — немного короче: синхротрон. Как это нередко случается, краткость оказалась родной сестрой таланта — именно синхротроны обеспечили прорыв к самым высоким из достигнутых энергий.

В 1957 году в Дубне вступил в строй самый крупный в мире синхрофазотрон, разгоняющий протоны до энергии 10 гигаэлектрон-вольт. На этой машине физики Объединенного института ядерных исследований — крупнейшей международной организации, объединяющей усилия ученых социалистических стран, — выполнили ряд важных работ в ранее недоступном диапазоне энергий.

С той поры прошло немало лет. За это время свершилось множество замечательных событий. Энергии, полученные на ускорителях, возросли в 40 (!) раз. В 1967 году, словно отмечая юбилейное десятилетие дубненского ускорителя, заработал синхротрон Института физики высоких энергий в небольшом лесном поселке на берегу Протвы, вблизи старинного русского города Серпухова. А уже через пять лет неподалеку от Чикаго, в Батавии, вошел в строй еще более мощный ускоритель.

На серпуховской машине была достигнута рекордная для своего времени энергия протонов — 76 гигаэлектрон-вольт. В 1972 году на батавийском синхротроне был поставлен новый «мировой рекорд» — после многих переживаний и даже крупного срыва удалось получить 200-гэвный пучок протонов. Трудное начало словно подхлестнуло американских физиков. К настоящему времени в Национальной ускорительной лаборатории имени Э. Ферми — так стал официально именоваться батавийский центр — достигнут рубеж в 400 ГэВ, и, по-видимому, когда вы будете читать эти строки, в научных журналах появятся первые сообщения о результатах экспериментов при 500 ГэВ.

Замечательных успехов добились и в Европейском центре ядерных исследований, ЦЕРНе (так звучит сокращенное название этого центра, составленное из начальных букв французского выражения). Часть пучка «старого» ускорителя на 30 ГэВ, расположенного вблизи Женевского озера в Швейцарии, отводилась в специально построенное накопительное кольцо, а потом устраивалось почти лобовое столкновение основного и накопленного пучков. Благодаря этому физики смогли заглянуть в мир процессов, которые при использовании обычной неподвижной мишени могли бы наблюдаться только при 2000 ГэВ!

Мы не станем теперь по традиции останавливаться на главных итогах прорыва в мир высоких энергий — этому посвящены следующие главы книги. Отметим лишь следующее.

Появление мощных ускорителей сделало протоны основным инструментом исследований микромира, и в то же время они сами стали наиболее доступным предметом изучения. Поэтому не следует удивляться, что на передний план современной физики высоких энергий выдвинулись определяющие свойства этой замечательной частицы, прежде всего ее способность сильно взаимодействовать с веществом. Следующий этап развития физики элементарных частиц представляет собой преимущественно «адронную эру», которая пришла на смену «электронно-радиационной эре».

Советский физик, член-корреспондент Академии наук СССР Л. Окунь назвал адронами (от греческого «хадрос» — тяжелый) семейство сильновзаимодействующих элементарных частиц, в основном потому, что они обладают большими массами. Впрочем, адроны оправдали свое название и в ином отношении — их описание оказалось, пожалуй, весьма тяжелой проблемой даже для закаленной в электронных, квантовых, релятивистских и многих других сражениях, неустрашимой физики XX века…

Загрузка...