В 1855 году англичанин Генри Бессемер провел интереснейший опыт: он расплавил в тигле кусок доменного чугуна и продул его воздухом. Хрупкий чугун превратился в ковкую сталь. Все объяснялось очень просто – кислород воздуха выжигал углерод из расплава, который удалялся в атмосферу в виде оксида и диоксида. Впервые в истории металлургии для получения продукта не требовался дополнительный подогрев сырья. Это и понятно, ведь Бессемер реализовал экзотермическую реакцию горения углерода. Процесс был удивительно быстротечен. В пудлинговой печи сталь получали лишь за несколько часов, а здесь – за считанные минуты. Так Бессемер создал конвертер – агрегат, превращающий расплавленный чугун в сталь без дополнительного нагрева. Д.И. Менделеев назвал бессемеровские конвертеры печами без топлива. А поскольку по форме агрегат Бессемера напоминал грушу, его так и называли – «бессемеровская груша».
В бессемеровском конвертере можно переплавлять не всякий чугун, а только такой, в составе которого имеются кремний и марганец. Соединяясь с кислородом подаваемого воздуха, они выделяют большое количество теплоты, которая и обеспечивает быстрое выгорание углерода. Все же теплоты не хватает, чтобы расплавлять твердые куски металла. Поэтому в бессемеровском конвертере нельзя перерабатывать железный лом или твердый чугун. Это резко ограничивает возможности его применения.
Бессемеровский процесс – быстрый, дешевый и простой способ получения стали, но есть у него и большие недостатки. Поскольку химические реакции в конвертере идут очень быстро, то углерод выгорает, а вредные примеси – сера и фосфор – остаются в стали и ухудшают ее свойства. Кроме того, при продувке сталь насыщается азотом воздуха, а это ухудшает металл. Вот почему, как только появились мартеновские печи, бессемеровский конвертер стал редко употребляться для выплавки стали. Гораздо больше конвертеры использовали для выплавки цветных металлов – меди и никеля.
Сегодняшний конвертер, конечно, можно в определенном смысле называть потомком бессемеровского детища, ибо в нем, как и прежде, сталь получают, продувая жидкий чугун. Но уже не воздухом, а технически чистым кислородом. Это оказалось намного эффективнее.
Кислородно-конвертерный способ выплавки стали пришел в металлургию более чем полвека назад. Созданный в Советском Союзе по предложению инженера-металлурга Н.И. Мозгового, он полностью вытеснил бессемеровский процесс А первая в мире тонна кислородно-конвертерной стали была успешно выплавлена в 1936 году на киевском заводе «Большевик».
Оказалось, что таким способом можно не только перерабатывать жидкий чугун, но и добавлять в него значительные количества твердого чугуна и железного лома, который раньше можно было перерабатывать только в мартеновских печах. Вот почему кислородные конвертеры получили такое большое распространение.
Но только в 1950-е годы конвертеры для выплавки стали окончательно выдвинулись на первый план. Степень использования тепла в кислородном конвертере гораздо выше, чем в сталеплавильных агрегатах подового типа. Тепловой коэффициент полезного действия конвертера составляет 70 процентов, а у мартеновских печей не более 30. Кроме того, газы отходящие из конвертера, используются при дожигании в котлах-утилизаторах, или как топливо при отводе газов из конвертера без дожигания.
Существует три вида конвертеров: с донной продувкой, верхней и комбинированной. В настоящее время наиболее распространенными в мире являются конвертеры с верхней продувкой кислородом – агрегаты весьма производительные и относительно простые в эксплуатации. Однако в последние годы во всем мире конвертеры с донным и с комбинированным (сверху и снизу) дутьем начинают теснить конвертеры с верхней продувкой.
Рассмотрим устройство кислородного конвертера с верхней продувкой. Средняя часть корпуса конвертера цилиндрической формы, стены ванны сферической формы, днище плоское. Верхняя шлемная часть конической формы. Кожух конвертера выполняют из стальных листов толщиной 30-90 миллиметров. В конвертерах садкой до 150 тонн днище отъемное, крепят его к корпусу болтами, что облегчает ремонтные работы. При садке 250—350 тонн конвертер делают глуходонным, что вызвано необходимостью создания жесткой конструкции корпуса, гарантирующей от случаев прорыва жидкого металла.
Корпус конвертера крепят к специальному опорному кольцу, к которому приваривают цапфы. Одна из цапф через зубчатую муфту соединена с механизмом поворота. В конвертерах вместимостью больше двухсот пятидесяти тонн обе цапфы являются приводными. Конвертер цапфами опирается на подшипники, установленные на станинах. Механизм поворота позволяет вращать конвертер вокруг горизонтальной оси.
Корпус и днище конвертера футеруют огнеупорным кирпичом. Подача кислорода в ванну конвертера для продувки металла осуществляется через специальную фурму, вводимую в горловину конвертера.
Первой операцией конвертерного процесса является загрузка скрапа. Конвертер наклоняют на некоторый угол от вертикальной оси и специальным коробом-совком вместимостью через горловину загружают в конвертер скрап – железный и стальной лом. Обычно загружают 20-25 процентов скрапа на плавку. Если скрап не подогревают в конвертере, то затем сразу же заливают жидкий чугун. После этого конвертер устанавливают в вертикальное положение, через горловину в конвертер вводят кислородную фурму.
Для наводки шлака в конвертер по специальному желобу вводят шлакообразующие материалы: известь и в небольшом количестве железную руду и плавиковый шпат.
После окисления примесей чугуна и нагрева металла до заданных величин продувку прекращают, фурму из конвертера удаляют и сливают металл и шлак в ковши. Легирующие добавки и раскислители вводят в ковш.
Продолжительность плавки в хорошо работающих конвертерах почти не зависит от их вместимости и составляет 45 минут, продолжительность продувки – 15-25 минут. Каждый конвертер в месяц дает 800—1000 плавок. Стойкость конвертера – 600—800 плавок.
Движение металла в конвертере весьма сложное, помимо кислородной струи, на жидкую ванну воздействуют пузыри оксида углерода. Процесс перемешивания усложняется еще и тем, что шлак проталкивается струей газа в толщу металла и перемешивается с ним. Движение ванны и вспучивание ее выделяющимся оксидом углерода приводят значительную часть жидкого расплава в состояние эмульсии, в которой капли металла и шлака тесно перемешаны друг с другом. В результате этого создается большая поверхность соприкосновения металла со шлаком, что обеспечивает высокие скорости окисления углерода.
Конвертеры с донной продувкой кислородом из-за меньшего угара железа позволяют получить больший (на 1,5-2 процента) выход годной стали по сравнению с конвертерами с верхней продувкой. Плавка в 180-тонном конвертере с донной продувкой длится 32-39 минут, продувка – 12-14 минут, то есть производительность выше, чем у конвертеров с верхней продувкой. Однако необходимость промежуточной замены днищ нивелирует это различие в производительности.
Первые конвертеры с донной продувкой за рубежом были построены в 1966—1967 годах. Необходимость создания такого конвертера обусловлена, в основном, двумя причинами. Во-первых, необходимостью переработки чугунов с повышенным содержанием марганца, кремния и фосфора, поскольку передел такого чугуна в конвертерах с верхней продувкой сопровождается выбросами металла в ходе продувки и не обеспечивает должной стабильности химического состава готовой стали. Во-вторых, тем, что конвертер с такой продувкой является наиболее приемлемой конструкцией, позволяющей осуществить реконструкцию существующих бессемеровских и томасовских цехов, и вписывается в здание существующих мартеновских цехов. Этому конвертеру свойственно наличие большого числа реакционных зон, интенсивное окисление углерода с первых минут плавки, низкое содержание оксидов железа в шлаке. В силу специфики работы сталеплавильной ванны при донной продувке в конвертерах подобного типа выход годного несколько выше, чем в других конвертерах, а запыленность отходящих газов ниже.
В конвертерах с донной продувкой, имеющих большое число фурм, все технологические процессы протекают интенсивнее, чем в конвертерах с верхней продувкой Однако общая производительность конвертеров с донной продувкой не превышает значительно таковую для конвертеров с верхней продувкой по причине ограниченной стойкости днищ.
Чтобы предохранить кладку днища конвертера от действия высоких температур, фурму делают в виде двух коаксиальных трубок – по центральной подается кислород, а по периферийной – какое-либо углеводородное топливо, чаще всего природный газ. Таких фурм обычно 16-22. Большое число более мелких фурм обеспечивает лучшее перемешивание ванны и более спокойный ход плавки.
Струя топлива отделяет реакционную зону от днища, снижает температуру около днища в месте выхода кислородных струй за счет отбора тепла на нагрев топлива, крекинг и диссоциации составляющих топлива и продуктов их окисления. Охлаждающий эффект, кроме того, обеспечивается пылевидной известью, которая подается в струю кислорода. Таким образом, продувка расплавленного металла несколькими струями кислорода снизу создает ряд благоприятных особенностей в работе конвертера. Обеспечивается большее число реакционных зон и большая межфазная поверхность контакта кислородных струй с металлом. Это позволяет увеличить интенсивность продувки, повысить скорость окисления углерода. Улучшается перемешивание ванны, повышается степень использования кислорода. В результате появляется возможность расплавления больших по массе кусков скрапа. Лучшая гидродинамика ванны обеспечивает более ровный и спокойный ход всей плавки, практически исключает выбросы. В силу этого в конвертерах с донной продувкой можно перерабатывать чугуны с повышенным содержанием марганца и фосфора.
Стремление повысить производительность агрегатов одновременно с необходимостью повысить однородность состава и температуры металла при возможности изготовления сталей широкого диапазона привело к использованию комбинированной продувки при относительно небольшом (по сравнению только с донной продувкой) количестве газов, вдуваемых через фурмы, установленные в днище конвертера. В последнее время появилось два основных варианта такого процесса, когда снизу подают кислород или инертные газы с целью обеспечить интенсивное перемешивание ванны и ускорить процесс удаления примесей. При этом, как и при донной продувке, снизу вместе с газами может подаваться пылевидная известь. По такому важному показателю, как возможный расход скрапа, конвертеры с верхней, донной и комбинированной продувкой оказываются приблизительно на одном уровне, при несколько более высоком выходе годного при донной продувке.
В настоящее время в мире применяется и разрабатывается много различных методов комбинированной продувки расплавленной ванны, рационально сочетающих верхнюю и донную продувку, причем в последней используется как кислород, так и инертные газы (аргон, азот).
В кислородно-конвертерном процессе с верхней продувкой достаточно интенсивное перемешивание достигается только в середине плавки при интенсивном окислении углерода. В начале и в конце плавки перемешивание недостаточно, что затрудняет глубокое рафинирование металла от серы и фосфора. Комбинированная подача кислорода через верхнюю и донные фурмы еще более, чем при одной донной продувке, ускоряет процесс окисления углерода и повышает производительность конвертера.
По сравнению с чисто донной продувкой в случае комбинированного процесса в сопоставимых условиях температура металла выше. Кроме того, при комбинированной продувке уменьшение расхода кислорода через верхнюю фурму снижает пылеобразование и разбрызгивание.
И еще одно преимущество кислородных конвертеров: здесь все процессы механизированы и автоматизированы, все чаще управление конвертерами поручается компьютерам.
Вся история металлургии – это борьба за качество, за улучшение физических и механических свойств металла. А ключ к качеству – химическая чистота. Даже крохотные примеси серы, фосфора, мышьяка, кислорода, некоторых других элементов резко ухудшают прочность и пластичность металла, делают его хрупким и слабым. А все эти примеси находятся в руде и коксе, и избавиться от них трудно. Во время плавки в доменной печи и в мартеновской печи основная часть примесей переводится в шлак и вместе с ним удаляется из металла. Но в тех же домнах и мартенах в металл попадают вредные элементы из горючих газов и ухудшают его свойства. Получить действительно высококачественную сталь помогла электрометаллургия, отрасль металлургии, где металлы и их сплавы получают с помощью электрического тока. Это относится не только к выплавке стали, но и к электролизу металлов и, в частности, расплавленных их солей – например, извлечению алюминия из расплавленного глинозема.
Основную массу легированной высококачественной стали выплавляют в дуговых электрических печах.
В дуговых сталеплавильных печах и плазменно-дуговых печах (ПДП) теплогенерация возникает за счет энергетических преобразований дугового разряда, происходящего в воздухе, парах расплавляемых материалов, инертной атмосфере или иной плазмообразующей среде.
Согласно общей теории печей М.А. Глинкова дуговые сталеплавильные и плазменно-дуговые печи представляют собой печи-теплообменники с радиационным режимом работы, поскольку энергетические условия на границе зоны технологического процесса, то есть на зеркале ванны жидкого металла, создают электрические дуги и огнеупорная футеровка рабочего пространства. Кроме этого, в дуговых сталеплавильных печах вертикально расположенные графитированные электроды создают неравномерное излучение дуг, зависящее от диаметра электродов и параметров электрического режима.
По условиям теплообмена между дугами, поверхностями рабочего пространства и металлом, особенностям электрофизических процессов дугового разряда, энергетическому и электрическому режимам всю плавку в дуговых печах от начала расплавления твердой металлошихты до слива жидкого металла делят на этапы.
Перед началом плавки куполообразный свод печи поднимают, отводят в сторону и загружают сверху в печь шихтовые материалы. Затем свод ставят на место, через отверстия в нем опускают в печь электроды и включают электрический ток. Чугун, железный лом и другие материалы начинают быстро плавиться.
По мере оплавления шихты под электродами и вокруг них образуются «колодцы», в которые опускаются дуги и электроды. Наступает этап «закрытого» горения дуг, когда плавление шихты происходит в «колодцах», снизу путем теплопередачи излучением на близлежащие слои шихты и теплопроводностью через слой жидкого металла, накопившегося на подине. Холодная шихта на периферии рабочего пространства нагревается за счет тепла, аккумулированного футеровкой: при этом температура внутренней поверхности футеровки интенсивно снижается с 1800—1900 до 900—1000 градусов Кельвина. На этом этапе футеровка рабочего пространства экранирована от излучения дуг, поэтому целесообразно обеспечить максимальную тепловую мощность с учетом электротехнических возможностей печного трансформатора.
Когда количества наплавленного жидкого металла будет достаточно для заполнения пустот между кусками твердой шихты, электрические дуги открываются и начинают гореть над зеркалом металлической ванны. Наступает этап «открытого» горения дуг, при котором происходит интенсивное прямое излучение дуг на футеровку стен и свода, температура повышается со скоростью до 30-100 градусов Кельвина в минуту и возникает необходимость снижения электрической мощности дуг в соответствии с тепловоспринимающей способностью футеровки.
Современные дуговые сталеплавильные печи работают на трехфазном токе промышленной частоты. В дуговых печах прямого действия электрические дуги возникают между каждым из трех вертикальных графитированных электродов и металлом. Футерованный кожух в дуговых сталеплавильных печах имеет сфероконическую форму. Рабочее пространство перекрыто сверху купольным сводом. Кожух установлен на опорной конструкции с гидравлическим (реже с электромеханическим) механизмом наклона печи. Для слива металла печь наклоняют на 40-45 градусов, для скачивания шлака – на 10-15 градусов (в другую сторону). Печи оборудованы механизмами подъема и поворота свода – для загрузки шихты через верх печи, передвижения электродов – для изменения длины дуги и регулирования мощности, вводимой в печь. Крупные печи оборудованы устройствами для электромагнитного перемешивания жидкого металла в ванне, системами удаления и очистки печных газов.
Отечественные плазменно-дуговые печи имеют вместимость от 0,5 до 200 тонн, мощность – от 0,63 до 125 МВт. Сила тока на мощных и сверхмощных плазменно-дуговых печей достигает 50-100 кА.
В зависимости от технологического процесса и состава шлаков футеровка плазменно-дуговых печей может быть кислая (при выплавке стали для фасонного литья) или основная (при выплавке стали для слитков).
Особенностью конструкции плазменно-дуговых печей с огнеупорной футеровкой как разновидности плавильных ванных печей дугового нагрева является наличие одного или нескольких плазмотронов постоянного тока и подового электрода – анода. Для сохранения атмосферы плазмообразующего газа рабочее пространство плазменно-дуговых печей герметизируется с помощью специальных уплотнений. Наличие водоохлаждаемого электрода в подине создает опасность взрыва, поэтому плазменно-дуговые печи снабжают системой контроля состояния футеровки подины и сигнализацией, предупреждающей о проплавлении подового электрода жидким металлом.
В настоящее время работают плазменно-дуговые печи с огнеупорной футеровкой вместимостью от 0,25 до 30 тонн мощностью от 0,2 до 25 МВт. Максимальная сила тока – до 10 кА.
Наиболее энергоемким периодом плавки в печах обоих типов является период плавления. Именно тогда потребляется до 80 процентов общего расхода энергии, причем в основном электрической. Длительность всей плавки в зависимости от принятой технологии выплавки электростали может быть 1,5-5 часов. Электрический коэффициент полезного действия дуговых сталеплавильных печей составляет 0,9-0,95, а тепловой – 0,65-0,7. Удельный расход электрической энергии составляет 450—700 кВт-ч на тонну, снижаясь за счет уменьшения удельной теплоотдающей поверхности для более крупных дуговых сталеплавильных печей.
Плазменно-дуговые печи имеют более низкие показатели. Электрический коэффициент полезного действия у них равен 0,75-0,85. Это объясняется дополнительными потерями в плазмотроне при формировании плазменной дуги. Тепловой же – около 0,6, так как возникают дополнительные потери в водоохлаждаемых элементах конструкции. Особенностью эксплуатации плазменно-дуговых печей является использование дорогостоящих плазмообразующих газов, что вызывает необходимость создания систем регенерации отработанных газов и применения технологически приемлемых дешевых газовых смесей.
Новые возможности в сталеплавильном производстве появились в связи с успешным освоением в конце 1980-х годов донного (через подину) выпуска металла из дуговых электропечей. Такая система выпуска была успешно реализована, например, в сталеплавильном цехе завода фирмы «Тиссен шталь» в Оберхаузене (ФРГ), на 100-тонных печах завода в Фридриксферке (Дания) и др. Они могут довольно длительное время работать в непрерывном режиме, например, датские 100-тонные агрегаты – в течение недели. При выпуске плавки, который длится не более 2 минут, печь наклоняется всего на 10-15 градусов вместо 40-45 градусов (для обычных агрегатов). Это позволяет почти полностью заменить огнеупорную футеровку стен водоохлаждаемыми панелями, резко сократить расход различных материалов и электроэнергии, производить полную отсечку печного шлака.
Как это ни удивительно на первый взгляд, современная дуговая сталеплавильная печь сверхвысокой мощности имеет удельный расход энергии значительно более низкий, чем мартеновская печь. К тому же труд сталевара мартеновской печи значительно тяжелее и утомительнее работы конверторщика или электросталеплавильщика.
Прокатный стан – это машина для обработки металлов давлением между вращающимися валками. После того как сталевары отлили слиток, этот огромный брусок стали нужно превратить в изделия – в кузов автомобиля, железнодорожный рельс или строительную балку. Но для этого нужно, чтобы слиток принял удобную для изготовления деталей форму – либо длинного бруса с поперечным сечением в виде квадрата, круга, балки, либо стального листа или проволоки и т д. Эти различные формы слиток и принимает на прокатных станах.
Прокатка в горячем состоянии стала использоваться лишь в начале XVIII века, причем сначала этим способом готовились более или менее тонкие железные листы, но уже с 1769 года начали подобным образом прокатывать проволоку. Первый прокатный стан для железных болванок был предложен английским изобретателем Кортом, когда он разрабатывал метод пудлингования. Корт первым догадался, что при изготовлении некоторых изделий рациональнее поручить молоту только отжимку шлаков, а окончательную форму придавать путем прокатки.
В 1783 году Корт получил патент на изобретенный им способ проката фасонного железа с помощью особых вальцов. Из пудлинговой печи крица поступала под молот, здесь она проковывалась и получала первоначальную форму, а затем пропускалась через вальцы. Этот способ потом стал очень распространенным.
Однако лишь в XIX столетии техника проката была поставлена на должную высоту, что во многом было связано с интенсивным строительством железных дорог. Тогда были изобретены прокатные станы для производства рельсов и вагонных колес, а потом и для многих других операций.
Устройство прокатного стана в XIX веке было несложным. Вращающиеся в противоположные стороны валки захватывали добела раскаленную металлическую полосу и, сжимаясь большей или меньшей силой, проводили ее между своими поверхностями. Таким образом, металл изделия подвергался сильному обжатию при высокой температуре и заготовка приобретала необходимую форму. При этом, например, железо получало свойства, которые не имело от природы. Отдельные зерна металла, которые до прокатки располагались в его массе в беспорядке, в процессе сильного обжатия вытягивались и образовывали длинные волокна. Мягкое и ломкое железо становилось после этого упругим и прочным.
К концу столетия техника проката настолько усовершенствовалась, что этим способом стали получать не только сплошные, но и пустотелые изделия. В 1885 году братья Меннесманы изобрели способ прокатки бесшовных железных труб. До этого трубы приходилось изготовлять из железного листа, – их сгибали и сваривали. Это было и долго, и дорого. На стане Меннесманов круглую болванку пропускали между двумя косо друг к другу поставленными валками, действовавшими на нее двояким образом. Во-первых, вследствие сил трения между валками и заготовкой последняя начинала вращаться. Во-вторых, из-за формы валков точки средней их поверхности вращались быстрее крайних. Поэтому, из-за косого расположения валков заготовка как бы ввинчивалась в пространство между ними. Если бы болванка была твердой, она бы не смогла пройти. Но так как ее предварительно сильно разогревали до белого каления, металл заготовки начинал скручиваться и вытягиваться, а в осевой зоне проходило его разрыхление – возникала полость, которая постепенно распространялась по всей длине заготовки. Пройдя через валки, заготовка насаживалась на специальный стержень (оправку), благодаря чему внутренней полости предавалось правильное круглое сечение. В результате выходила толстостенная труба.
Чтобы уменьшить толщину стенок, трубу пропускали через второй так называемый пилигримный прокатный стан. Он имел два валка переменного профиля. При прокатке трубы расстояние между валками сначала постепенно уменьшалось, а затем делалось больше диаметра трубы.
Каково же устройство современных прокатных станов? Слиток обычно проходит через несколько прокатных станов. Первый из них – блуминг или слябинг. Это самые мощные прокатные станы. Их называют обжимными, потому что их назначение – обжать слиток, превратить его в длинный брус (блум) или пластину (сляб), из которых потом на других станах будут изготовлены те или иные изделия.
Блуминги и слябинги – исполинские машины. Производительность современных блумингов и слябингов – порядка 6 миллионов тонн слитков в год, а масса слитков – от 1 до 18 тонн.
Перед обжимом слитки необходимо хорошо прогреть. Их выдерживают от четырех до шести часов в нагревательных колодцах при 1100—1300 градусов Цельсия. Затем слитки краном вынимают и кладут на электрическую тележку – электрокар, который и подает их к блумингу или слябингу.
У блуминга – два огромных валка. Верхний может подниматься и опускаться, уменьшая или увеличивая просвет между собой и нижним валком.
Раскаленный слиток, пройдя через валки, попадает на рольганг – транспортер из вращающихся роликов. Оператор непрерывно меняет направление вращения валков блуминга и роликов рольганга. Поэтому слиток движется через валки то вперед, то назад, и каждый раз оператор все больше уменьшает зазор между валками, все сильнее обжимая слиток. Через каждые 5-6 проходов специальный механизм – кантователь переворачивает слиток на 90 градусов, чтобы обработать его со всех сторон. В конце концов, получается длинный брус, который по рольгангу направляется к ножницам. Здесь брус делят на куски – блумы.
Так же происходит прокатка и на слябинге, с той лишь разницей, что у слябинга 4 валка – 2 горизонтальных и 2 вертикальных, которые обрабатывают слиток сразу со всех сторон. Затем полученную длинную пластину режут на плоские заготовки – слябы.
Блуминги и слябинги используются только на тех заводах, где разливка стали производится старым способом – в изложницы. Там, где работают установки непрерывной разливки стали (УНРС), получают уже готовые блумы или слябы.
Готовые блумы и слябы идут в другие прокатные цехи, где на специальных прокатных станах из них делают, как говорят металлурги, профили, или профильный металл, то есть заготовки определенной толщины, формы, профиля.
Листовые станы, прокатывающие слябы в лист, имеют гладкие валки. На таких валках нельзя прокатать рельс или другое изделие сложного профиля. В валках, например, рельсобалочных станов делаются вырезы той формы, какая необходима для получения изделия. В каждом валке вырезается как бы половина профиля будущего изделия. Когда валки сближаются друг с другом, получается, как говорят металлурги, ручей, или калибр. На каждой паре валков таких калибров несколько. Первый имеет форму, только отдаленно похожую на форму изделия, следующие все больше приближаются к ней, и, наконец, последний калибр в точности соответствует тем размерам и форме изделия, какие надо получить. Сталь неподатлива, и ее приходится деформировать постепенно, пропуская через все калибры по очереди. Именно поэтому большинство станов имеет не одну пару валков, а несколько. Станины с валками (их называют клети) устанавливают параллельно либо в ряд, либо в шахматном порядке. Раскаленная заготовка мчится по рольгангам из клети в клеть, да еще в каждой клети движется то вперед, то назад, проходя через все калибры.
Сейчас все большее распространение получают высокопроизводительные станы непрерывной прокатки. Здесь клети стоят последовательно одна за другой. Миновав одну клеть, заготовка попадает во вторую, в третью, в четвертую и т д. После каждого обжатия заготовка вытягивается, и каждая последующая клеть должна за тот же промежуток времени пропустить через себя заготовку все большей длины. Некоторые непрерывные станы прокатывают металл со скоростью 80 метров в секунду (290 километров в час), а в год они обрабатывают несколько миллионов тонн. Например, производительность листового широкополосового непрерывного стана «2000», работающего на Новолипецком металлургическом заводе, достигает 6 миллионов тонн.
В СССР во Всесоюзном научно-исследовательском институте металлургического машиностроения были созданы принципиально новые станы литейно-прокатные. У них процессы непрерывного литья совмещены в единый поток с непрерывной прокаткой. Сегодня десятки таких станов работают в нашей стране для прокатки стальной, алюминиевой и медной проволоки.
Потребность в трубах для транспортировки нефти и природного газа на дальние расстояния вызвала необходимость создать трубные станы. Диаметр нефтяных и газовых труб увеличился. Первые трубопроводы были диаметром 0,2 метра, затем стали выпускать трубы больших диаметров – вплоть до 1,4 метра.
Применяются две принципиально различные технологии производства труб. Первый способ: заготовку нагревают до 1200—1300 градусов Цельсия, а затем на специальном стане в ней проделывают отверстие (ее прошивают) – получается короткая труба (гильза) с толстыми стенками. Потом гильзу раскатывают в длинную трубу. Так получают бесшовные трубы. Второй способ: стальной лист или ленту сворачивают в трубу и сваривают по прямой линии или по спирали.
Большой производительностью обладают непрерывные агрегаты шовно-стыковой сварки труб. Это комплекс из десятков машин и механизмов, работающих в одной технологической линии. Здесь все автоматизировано: на долю оператора, управляющего комплексом, остается только нажимать кнопки на пульте управления. Начинается процесс с нагрева непрерывной стальной ленты. Затем машины сворачивают ее в трубу, сваривают по шву, вытягивают в длину, уменьшают в диаметре, калибруют, разрезают на части, нарезают резьбу. 500 метров труб ежеминутно – такова производительность комплекса.
В последние годы появилось новое направление: на прокатных станах изготавливают не заготовки, а сразу готовые детали машин. На таких станах прокатывают автомобильные и тракторные полуоси, шпиндели текстильных веретен, детали тракторов, электродвигателей, буровых машин. Здесь прокатка вытеснила трудоемкие операции: ковку, штамповку, прессование и механическую обработку на различных металлорежущих станках – токарных, фрезерных, строгальных, сверлильных и др.
К этому же направлению относятся и получившие большое распространение профилегибочные станы, изготовляющие гнутые профили, и станы, прокатывающие фасонные профили высокой точности. Первые станы выгибают изделия сложной формы из стального листа, вторые – прокатывают сложные изделия с очень точными размерами. И в том и в другом случае изделия не нуждаются в дальнейшей обработке на станках. Их режут на части нужной длины и используют в машинах, механизмах и строительных конструкциях.
Солнечное излучение – экологически чистый и возобновляемый источник энергии. Запасы солнечной энергии огромны. К началу XXI века человечество разработало и освоило ряд принципов преобразования тепловой энергии в электрическую. Их можно условно разделить на машинные и безмашинные методы. Последние часто называют методами прямого преобразования энергии, поскольку в них отсутствует стадия преобразования тепловой энергии в механическую работу.
Среди машинных преобразователей наиболее известны паро– и газотурбинные установки, работающие на всех наземных тепловых и атомных электростанциях.
Принципиальная схема замкнутой газотурбинной установки выглядит так. Солнечная радиация, собранная концентратором на поверхности солнечного котла, нагревает рабочее тело – инертный газ до температур порядка 1200—1500 градусов Кельвина и под давлением, создаваемым компрессором, подает горячий газ на лопатки газовой турбины, которая приводит в действие электрогенератор переменного тока. Отработавший в турбине газ поступает сначала в регенератор, где подогревает рабочий газ после компрессора. Тем самым он облегчает работу основного нагревателя – солнечного котла. Затем газ охлаждается в холодильнике-излучателе.
Испытания трехкиловаттной газотурбинной установки, проведенные в 1977 году на пятиметровом фацетном параболическом концентраторе в Физико-техническом институте Академии наук Узбекистана, показали, что установки такого типа весьма маневренны. Выход на номинальные обороты составлял не более минуты с момента наведения солнечного пятна на полость цилиндрического котла. Коэффициент полезного действия этой установки – 11 процентов.
В энергоустановке с паротурбинным преобразователем собранная концентратором солнечная энергия нагревает в солнечном котле рабочую жидкость, переходящую в насыщенный, а затем и в перегретый пар, который расширяется в турбине, соединенной с электрогенератором. После конденсации в холодильнике-излучателе отработавшего в турбине пара его конденсат, сжимаемый насосом, вновь поступает в котел. Поскольку подвод и отвод тепла в этой установке осуществляются изотермически, средние температуры подвода и отвода оказываются выше, чем в газотурбинной установке, а удельные площади излучателя и концентратора могут оказаться меньше. У подобной установки, работающей на органическом рабочем теле, коэффициент полезного действия составляет 15-20 процентов при сравнительно невысоких температурах подвода тепла – всего 600—650 градусов Кельвина.
От многих недостатков, присущих машинным преобразователям, свободны энергоустановки с так называемыми безмашинными преобразователями: термоэлектрическими, термоэмиссионными и фотоэлектрическими, непосредственно преобразующими энергию солнечного излучения в электрический ток.
«Термоэлектрогенераторы основаны на открытом в 1821 году немецким физиком Т.И. Зеебеком термоэлектрическом эффекте, состоящем в возникновении на концах двух разнородных проводников термо-ЭДС, если концы этих проводников находятся при разной температуре, – пишет в «Соросовском образовательном журнале» Л.М. Драбкин. – Открытый эффект первоначально использовался в термометрии для измерения температур. Энергетический КПД таких устройств – термопар, подразумевающий отношение электрической мощности, выделяемой на нагрузке, к подведенному теплу, составлял доли процента. Только после того, как академик А.Ф. Иоффе предложил использовать для изготовления термоэлементов вместо металлов полупроводники, стало возможным энергетическое использование термоэлектрического эффекта, и в 1940—1941 годах в Ленинградском физико-техническом институте был создан первый в мире полупроводниковый термоэлектрогенератор. Трудами и его школы в 40-50-е годы была разработана и теория термоэлектрического эффекта в полупроводниках, а также синтезированы весьма эффективные (по сей день) термоэлектрические материалы».
Соединяя между собой отдельные термоэлементы, можно создавать достаточно мощные термобатареи. Электростанция мощностью 10 ГВт может весить до 200 тысяч тонн. Снижение веса энергоустановки напрямую связано с повышением коэффициента полезного действия преобразования солнечной энергии в электричество. Этого можно достичь двумя путями: увеличением термического коэффициента полезного действия преобразователя и снижением необратимых потерь энергии во всех элементах энергоустановки.
В первом случае концентрированное излучение позволяет получать очень высокие температуры. Но одновременно при этом весьма возрастают требования к точности систем слежения за Солнцем, что для громадных по размерам концентрирующих систем маловероятно. Поэтому усилия исследователей неизменно направлялись на снижение необратимых потерь. Они попытались уменьшить переток тепла с горячих спаев на холодные теплопроводностью. Для решения этой задачи требовалось добиться увеличения добротности полупроводниковых материалов. Однако после многолетних попыток синтезировать полупроводниковые материалы с высокой добротностью стало ясно, что достигнутая сегодня величина является предельной. Тогда возникла идея разделить горячий и холодный спаи воздушным промежутком, подобно двухэлектродной лампе – диоде. Если в такой лампе разогревать один электрод – катод и при этом охлаждать другой электрод – анод, то во внешней электрической цепи возникнет постоянный ток. Впервые это явление наблюдал в 1883 году Томас Эдисон.
«Открытое Эдисоном явление получило название термоэлектронной эмиссии, – пишет Л.М. Драбкин. – Подобно термоэлектричеству оно долгое время применялось в технике слабых токов. Позднее ученые обратили внимание на возможности использования метода для преобразования тепла в электричество. И хотя природа у термоэлектричества и термоэлектронной эмиссии разная, но выражения для КПД у них одинаковые.
Главные составляющие необратимых потерь в ТЭП связаны с неизотермическим характером подвода и отвода тепла на катоде и аноде, перетоком тепла с катода на анод по элементам конструкции ТЭП, а также с омическими потерями в элементах последовательного соединения отдельных модулей.
Для достижения высоких КПД цикла Карно современные ТЭП создают на рабочие температуры катодов 1700—1900 К, что при температурах охлаждаемых анодов порядка 700 К позволяет получать КПД порядка 10 процентов. Таким образом, благодаря снижению необратимых потерь в самом преобразователе и при одновременном повышении температуры подвода тепла КПД ТЭП оказывается вдвое выше, чем у описанного выше ТЭГ, но при существенно более высоких температурах подвода тепла».
Теперь рассмотрим фотоэлектрический метод преобразования энергии. В солнечных батареях используется явление внешнего фотоэффекта, проявляющегося на p-n-переходе в полупроводнике при освещении его светом. Создают p-n (или n-p)-переход путем введения в монокристаллический полупроводниковый материал-базу примеси с противоположным знаком проводимости. При попадании на p-n-переход солнечного излучения происходит возбуждение электронов валентной зоны и образуется электрический ток во внешней цепи. Коэффициент полезного действия современных солнечных батарей достигает 13-15 процентов.
У солнечных электростанций есть одна, но весьма существенная проблема. Получать и использовать «чистую» солнечную энергию на поверхности Земли мешает атмосфера. А что если разместить солнечные энергостанции в космосе, на околоземной орбите. Там не будет атмосферных помех, невесомость позволит создавать многокилометровые конструкции, которые необходимы для «сбора» энергии Солнца. У таких станций есть большое достоинство. Преобразование одного вида энергии в другой неизбежно сопровождается выделением тепла, и сброс его в космос позволит предотвратить опасное перегревание земной атмосферы.
Как на самом деле будут выглядеть солнечные космические электростанции, сегодня точно сказать нельзя, хотя к проектированию подобных электростанций конструкторы приступили еще в конце 1960-х годов. Любой вариант проекта солнечной космической электростанции предполагает, что это колоссальное сооружение. Даже самая маленькая космическая электростанция должна весить десятки тысяч тонн. И эту гигантскую массу необходимо будет запустить на удаленную от Земли орбиту.
Современные средства выведения в состоянии доставить на низкую – опорную – орбиту необходимое количество блоков, узлов и панелей солнечных батарей. Чтобы уменьшить массу огромных зеркал, концентрирующих солнечный свет, можно делать их из тончайшей зеркальной пленки, например, в виде надувных конструкций. Собранные фрагменты солнечной космической электрической станции нужно доставить на высокую орбиту и состыковать там. А долететь к «месту работы» секция солнечной электростанции сумеет своим ходом, стоит только установить на ней электроракетные двигатели малой тяги.
Но это в будущем. Пока же солнечные батареи с успехом питают космические станции.
Запасы ветровой энергии, по сути дела, безграничны. Эта энергия возобновляема, и в отличие от тепловых станций ветроэнергетика не использует богатства недр, а ведь добыча угля, нефти, газа связана с огромными затратами труда. К тому же тепловые станции загрязняют окружающую среду, а плотины ГЭС создают на реках искусственные моря, нарушая природное равновесие. С другой стороны, ветроэлектростанция такой же мощности, как ГЭС или АЭС, по сравнению с ними занимает гораздо большую площадь. И справедливости ради надо сказать, что ветроэлектростанции не совсем безвредны: они мешают полетам птиц и насекомых, шумят, отражают радиоволны вращающимися лопастями, создавая помехи приему телепередач в близлежащих населенных пунктах.
Обычно рабочим органом ветродвигателя служат лопасти воздушного винта, который и называют ветроколесом. Теорию его еще в начале XX века разработал известный русский ученый Н.Е. Жуковский. Для описания явлений, связанных с прохождением воздушного потока через колесо, он применил теорию подъемной силы крыла самолета и определил значение максимально возможного коэффициента использования энергии ветра идеальным колесом. Коэффициент полезного действия оказался равным 59,3 процента.
Ветер – стихия весьма капризная то он дует с одной стороны, через некоторое время – с другой. Чтобы колесо эффективно использовало энергию воздушного потока, его необходимо каждый раз разворачивать против ветра. Для этой цели служат специальные устройства – хвостовая пластина (флюгер) или небольшое ветровое колесо (виндроза).
Ветер редко дует с постоянной скоростью. Изменилась его скорость – замедлилось или ускорилось вращение колеса и связанного с ним вала, через который вращение колеса передается электрическому генератору. Чтобы вал вращался с постоянной частотой, применяют разные приспособления.
Для получения энергии ветра используются разные конструкции. Это многолопастные «ромашки» и винты вроде самолетных пропеллеров с тремя, двумя и даже одной лопастью. Вертикальные конструкции хороши тем, что улавливают ветер любого направления; остальным приходится разворачиваться по ветру. Такой вертикальный ротор напоминает разрезанную вдоль и насаженную на ось бочку. Встречаются и оригинальные решения. Например, тележка с парусом ездит по кольцу из рельсов, а ее колеса приводят в действие электрогенератор.
Наиболее распространенным типом ветровых энергоустановок (ВЭУ) является турбина с горизонтальным валом и числом лопастей от 1 до 3. Турбина, мультипликатор и электрогенератор размещаются в гондоле, установленной на верху мачты. В последних моделях ВЭУ используются асинхронные генераторы переменной скорости, а задачу кондиционирования вырабатываемой электроэнергии выполняет электроника.
Ветровые электростанции выгодны, как правило, в регионах, где среднегодовая скорость ветра составляет 6 метров в секунду и выше и которые бедны другими источниками энергии, а также в зонах, куда доставка топлива очень дорога. В России это, в первую очередь, Сахалин, Камчатка, Арктика, Крайний Север и т д.
При среднегодовой скорости ветра около 7 метров в секунду и среднем числе часов работы на полной мощности 2500 часов в год такая установка вырабатывает электроэнергию стоимостью 7-8 центов/кВч. Сегодня наиболее распространены ВЭУ единичной мощностью 100—500 кВт, хотя построены и эксплуатируются агрегаты единичной мощностью в несколько мегаватт.
Малые ВЭУ (мощностью менее 100 кВт) обычно предназначаются для автономной работы. Системы, которым они выдают энергию, привередливы, требуют подачи энергии более высокого качества и не допускают перерывов в питании, например, в периоды безветрия. Поэтому им необходим «дублер», то есть резервные источники энергии, например, дизельные двигатели той же, как у ветроустановок, или меньшей мощности.
Что касается более мощных ветроустановок (свыше 100 кВт), то они применяются как электростанции и включаются обычно в энергосистемы. Обычно на одной площадке устанавливается достаточно большое количество ВЭУ, образующих так называемую ветровую ферму. На одном краю «фермы» может дуть ветер, на другом в это время тихо. Ветряки нельзя ставить слишком тесно, чтобы они не загораживали друг друга. Поэтому «ферма» занимает много места. Такие «фермы» есть в США, во Франции, в Англии, а в Дании «ветряную ферму» разместили на прибрежном мелководье Северного моря – там она никому не мешает и ветер устойчивее, чем на суше. В Калифорнии (США) на одной из них размещено около тысячи ветроустановок, так что суммарная установленная мощность фермы превышает 100 МВт.
Обычно для снижения зависимости от капризов ветра в систему включают маховики, частично сглаживающие порывы ветра, и разного рода аккумуляторы, в основном электрические. Но вместе с тем используют и воздушные. В этом случае ветряк нагнетает воздух в баллоны. Выходя оттуда, его ровная струя вращает турбину с электрогенератором. Еще один вариант – гидравлические аккумуляторы. Здесь силой ветра вода поднимается на определенную высоту, затем, падая вниз, она вращает турбину. Ставят даже электролизные аккумуляторы. Ветряк дает электрический ток, разлагающий воду на водород и кислород. Их запасают в баллонах. Потом по мере необходимости водород и кислород сжигают в топливном элементе либо в газовой турбине, вновь получая ток, но уже без резких колебаний напряжения, связанных с капризами ветра.
В Испании довольно долго работала удивительная ветроустановка, сама создававшая для себя ветер! Обширный круг земли в основании выстроенной высокой трубы покрыли полиэтиленовой пленкой на каркасных опорах. Жаркое испанское солнце нагревало и землю, и воздух под пленкой. В результате в трубе возникала ровная постоянная тяга, а встроенная в трубу крыльчатка вращала генератор. Тяга не прекращалась даже в пасмурные дни и ночью: земля долго хранит тепло. Однако эксплуатация такой установки оказалась довольно дорогой. Постепенно металлическая труба проржавела, а пленка разрушилась. После очередного урагана ремонтировать систему не стали.
ВЭУ занимались и занимаются и в России. В начале 1990-х годов была создана ветроустановка небольшой мощности «Конвет-1Э» двух модификаций – с асинхронным генератором (2 кВт, 230 В) и индукторным генератором постоянного тока (12 или 24 В). Ветроколесо с двумя лопастями вращает генератор. Благодаря применению инвертора или выпрямителя можно обеспечивать энергией телевизор, холодильник, радиоприемник, заряжать аккумуляторную батарею. В зонах со среднегодовыми скоростями ветра 5-6 метров в секунду стоимость 1 кВт-ч от такой ВЭУ в 1,4-1,7 раза ниже, чем от равноценного по мощности бензинового агрегата. Масса установки – 460 килограммов.
Как известно, беда многих ветряков – мощные воздушные потоки, под действием которых они нередко ломаются. В «Конвет-1Э» применили различные автоматические устройства, чтобы не дать колесу чрезмерно раскрутиться при сильном ветре. Конструкторам удалось добиться аэродинамического КПД в 46-48 процентов. Это достигнуто за счет применения высококачественных неметаллических лопастей с более совершенным, крученным по длине профилем.
Быстроходные ветроустановки иностранных фирм работают главным образом, начиная со скоростей ветра 5-6 метров в секунду. Особая конструкция лопастей и специальные приспособления позволяют «Конвету-1Э» эффективно начинать работать уже при силе ветра 4 метра в секунду.
Суммарная мощность ветроустановок в мире быстро возрастает. По использованию ВЭУ в мире лидируют США, в Европе – Германия, Англия, Дания и Нидерланды.
Германия получает от ветра десятую часть своей электроэнергии, а всей Западной Европе ветер дает 2500 МВт электроэнергии. По мере того как ветряные электростанции окупаются, а их конструкции совершенствуются, цена «воздушного» электричества падает. Так, в 1993 году во Франции себестоимость 1 кВт-ч электроэнергии, полученной на ветростанции, равнялась 40 сантимам, а к 2000 году она снизилась в 1,5 раза.
Первая в мире атомная электростанция (АЭС), построенная в городе Обнинске под Москвой, дала ток в июне 1954 года. Мощность ее была весьма скромной – 5 МВт. Однако она сыграла роль экспериментальной установки, где накапливался опыт эксплуатации будущих крупных АЭС. Впервые была доказана возможность производства электрической энергии на основе расщепления ядер урана, а не за счет сжигания органического топлива и не за счет гидравлической энергии.
АЭС использует ядра тяжелых элементов – урана и плутония. При делении ядер выделяется энергия – она и «работает» в атомных электростанциях. Но можно использовать только ядра, имеющие определенную массу – ядра изотопов. В атомных ядрах изотопов содержится одинаковое число протонов и разное – нейтронов, из-за чего ядра разных изотопов одного и того же элемента имеют разную массу. У урана, например, 15 изотопов, но в ядерных реакциях участвует только уран-235.
Реакция деления протекает следующим образом. Ядро урана самопроизвольно распадается на несколько осколков; среди них есть частицы высокой энергии – нейтроны. В среднем на каждые 10 распадов приходится 25 нейтронов. Они попадают в ядра соседних атомов и разбивают их, высвобождая нейтроны и огромное количество тепла. При делении грамм урана выделяется столько же тепла, сколько при сгорании трех тонн каменного угля.
Пространство в реакторе, где находится ядерное топливо, называют активной зоной. Здесь идет деление атомных ядер урана и выделяется тепловая энергия. Чтобы предохранить обслуживающий персонал от вредного излучения, сопровождающего цепную реакцию, стенки реактора делают достаточно толстыми. Скоростью цепной ядерной реакции управляют регулирующие стержни из вещества, поглощающего нейтроны (чаще всего это бор или кадмий). Чем глубже опускают стержни в активную зону, тем больше нейтронов они поглощают, тем меньше нейтронов участвует в реакции и меньше выделяется тепла. И наоборот, когда регулирующие стержни поднимают из активной зоны, количество нейтронов, участвующих в реакции, возрастает, все большее число атомов урана делится, освобождая скрытую в них тепловую энергию.
На случай, если возникнет перегрев активной зоны, предусмотрена аварийная остановка ядерного реактора. Аварийные стержни быстро падают в активную зону, интенсивно поглощают нейтроны, цепная реакция замедляется или прекращается.
Тепло из ядерного реактора выводят с помощью жидкого или газообразного теплоносителя, который прокачивают насосами через активную зону. Теплоносителем может быть вода, металлический натрий или газообразные вещества. Он отбирает у ядерного топлива тепло и передает его в теплообменник. Эта замкнутая система с теплоносителем называется первым контуром. В теплообменнике тепло первого контура нагревает до кипения воду второго контура. Образующийся пар направляют в турбину или используют для теплофикации промышленных и жилых зданий.
До катастрофы на АЭС в Чернобыле советские ученые с уверенностью говорили о том, что в ближайшие годы в атомной энергетике будут широко использовать два основных типа реакторов. Один из них, ВВЭР – водо-водяной энергетический реактор, а другой – РБМК – реактор большой мощности, канальный. Оба типа относятся к реакторам на медленных (тепловых) нейтронах.
В водо-водяном реакторе активная зона заключена в огромный, диаметром 4 и высотой 15 метров, стальной корпус-цилиндр с толстыми стенами и массивной крышкой. Внутри корпуса давление достигает 160 атмосфер. Теплоносителем, отбирающим тепло в зоне реакции, служит вода, которую прокачивают насосами. Эта же вода служит и замедлителем нейтронов. В парогенераторе она нагревает и превращает в пар воду второго контура. Пар поступает в турбину и вращает ее. И первый и второй контуры – замкнутые.
Раз в полгода выгоревшее ядерное горючее заменяют на свежее, для чего надо реактор остановить и охладить. В России по этой схеме работают Нововоронежская, Кольская и другие АЭС.
В РБМК замедлителем служит графит, а теплоносителем – вода. Пар для турбины получается непосредственно в реакторе и туда же возвращается после использования в турбине. Топливо в реакторе можно заменять постепенно, не останавливая и не расхолаживая его.
Первая в мире Обнинская АЭС относится именно к этому типу. По той же схеме построены Ленинградская, Чернобыльская, Курская, Смоленская станции большой мощности.
Одной из серьезных проблем АЭС является утилизация ядерных отходов. Во Франции, к примеру, этим занимается крупная фирма «Кожема». Топливо, содержащее уран и плутоний, с большой осторожностью, в специальных транспортных контейнерах – герметичных и охлаждаемых – направляется на переработку, а отходы – на остекловывание и захоронение.
«Нам показали отдельные этапы переработки топлива, привезенного с АЭС с величайшей осторожностью, – пишет в журнале «Наука и жизнь» И. Лаговский. – Разгрузочные автоматы, камера разгрузки. Заглянуть в нее можно через окно. Толщина стекла в окне 1 метр 20 сантиметров. У окна манипулятор. Невообразимая чистота вокруг. Белые комбинезоны. Мягкий свет, искусственные пальмы и розы. Теплица с настоящими растениями для отдыха после работы в зоне. Шкафы с контрольной аппаратурой МАГАТЭ – международного агентства по атомной энергии. Операторский зал – два полукруга с дисплеями, – отсюда управляют разгрузкой, резанием, растворением, остекловыванием. Все операции, все перемещения контейнера последовательно отражаются на дисплеях у операторов. Сами залы работ с материалами высокой активности находятся довольно далеко, на другой стороне улицы.
Остеклованные отходы невелики по объему. Их заключают в стальные контейнеры и хранят в вентилируемых шахтах, пока не повезут на место окончательного захоронения…
Сами контейнеры являют собой произведение инженерного искусства, целью которого было соорудить нечто такое, что невозможно разрушить. Железнодорожные платформы, груженные контейнерами, пускали под откос, таранили на полном ходу встречными поездами, устраивали другие мыслимые и немыслимые аварии при перевозке – контейнеры выдерживали все».
После чернобыльской катастрофы 1986 года ученые стали сомневаться в безопасности эксплуатации АЭС и, в особенности, реакторов типа РБМК. Тип ВВЭР в этом отношении более благополучен: авария на американской станции Тримайл-айленд в 1979 году, где частично расплавилась активная зона реактора, радиоактивность не вышла за пределы корпуса. В пользу ВВЭР говорит долгая безаварийная эксплуатация японских АЭС.
И, тем не менее, есть еще одно направление, которое, по мнению ученых, способно обеспечить человечество теплом и светом на ближайшее тысячелетие. Имеются в виду реакторы на быстрых нейтронах, или реакторы-размножители. В них используется уран-238, но для получения не энергии, а горючего. Этот изотоп хорошо поглощает быстрые нейтроны и превращается в другой элемент – плутоний-239. Реакторы на быстрых нейтронах очень компактны: им не нужны ни замедлители, ни поглотители – их роль играет уран-238. Называются они реакторами-размножителями, или бридерами (от английского слова «breed» – размножать). Воспроизведение ядерного горючего позволяет в десятки раз полнее использовать уран, поэтому реакторы на быстрых нейтронах считаются одним из перспективных направлений атомной энергетики.
В реакторах такого типа, кроме тепла, нарабатывается еще и вторичное ядерное топливо, которое можно использовать в дальнейшем. Здесь ни в первом, ни во втором контурах нет высокого давления. Теплоноситель – жидкий натрий. Он циркулирует в первом контуре, нагревается сам и передает тепло натрию второго контура, а тот, в свою очередь, нагревает воду в пароводяном контуре, превращая ее в пар. Теплообменники изолированы от реактора.
Одна из таких перспективных станций – ей дали название Монзю – была построена в районе Шираки на побережье Японского моря в курортной зоне в четырехстах километрах к западу от столицы.
«Для Японии, – говорит руководитель отдела ядерной корпорации Кансаи К. Такеноучи, – использование реакторов-размножителей означает возможность уменьшить зависимость от привозного природного урана за счет многократного использования плутония. Поэтому понятно наше стремление к разработке и совершенствованию "быстрых реакторов", достижению технического уровня, способного выдержать конкуренцию с современными АЭС в отношении экономичности и безопасности.
Развитие реакторов-размножителей должно стать основной программой выработки электроэнергии в ближайшем будущем».
Строительство реактора Монзю – уже вторая стадия освоения реакторов на быстрых нейтронах в Японии. Первой было проектирование и постройка экспериментального реактора Джойо (что по-японски означает «вечный свет») мощностью 50-100 МВт, который начал работать в 1978 году. На нем исследовались поведение топлива, новые конструкционные материалы, узлы.
Проект Монзю стартовал в 1968 году. В октябре 1985 года начали сооружать станцию – рыть котлован. В процессе освоения площадки 2 миллиона 300 тысяч кубометров скального грунта было сброшено в море. Тепловая мощность реактора – 714 МВт. Топливом служит смесь окислов плутония и урана. В активной зоне 19 регулирующих стержней, 198 топливных блоков, в каждом из которых по 169 топливных стержней (тепловыделяющих элементов – ТВЭЛов) диаметром 6,5 миллиметров. Они окружены радиальными топливовоспроизводящими блоками (172 штуки) и блоками нейтронных экранов (316 штук).
Весь реактор собран как матрешка, только разобрать его уже невозможно. Огромный корпус реактора, из нержавеющей стали (диаметр – 7,1 метра, высота – 17,8 метра), помещен в защитный кожух на случай, если при аварии разольется натрий.
«Стальные конструкции камеры реактора, – сообщает в журнале «Наука и жизнь» А Лаговский, – обечайки и стеновые блоки – в качестве защиты заполнены бетоном. Первичные натриевые системы охлаждения вместе с корпусом реактора окружены противоаварийной оболочкой с ребрами жесткости – ее внутренний диаметр 49,5 метра, а высота – 79,4 метра. Эллипсоидное дно этой громады покоится на сплошной бетонной подушке высотой 13,5 метра. Оболочка окружена полутораметровым кольцевым зазором, а далее следует толстый слой (1-1,8 метра) армированного бетона. Купол оболочки также защищен слоем армированного бетона толщиной 0,5 метра.
Вслед за противоаварийной оболочкой устроен еще один защитный корпус – вспомогательный – размером 100 на 115 метров, удовлетворяющий требованиям противосейсмического строительства. Чем не саркофаг?
Во вспомогательном корпусе реактора размещены вторичные системы натриевого охлаждения, пароводяные системы, топливные загрузочно-разгрузочные устройства, резервуар для хранения отработанного топлива. В отдельных помещениях расположены турбогенератор и резервные дизель-генераторы.
Прочность противоаварийной оболочки рассчитана как на избыточное давление в 0,5 атмосферы, так и на вакуум в 0,05 атмосферы. Вакуум может образоваться при выгорании кислорода в кольцевом зазоре, если разольется жидкий натрий. Все бетонные поверхности, которые могут войти в контакт с разлившимся натрием, сплошь облицованы стальными листами, достаточно толстыми для того, чтобы выдержать тепловые напряжения. Так защищаются на тот случай, которого вообще может и не произойти, поскольку должна быть гарантия и на трубопроводы, и на все другие части атомной установки».
Ученые нашей страны и большинства развитых стран мира уже много лет занимаются проблемой использования термоядерных реакций для целей энергетики. Созданы уникальные термоядерные установки – сложнейшие технические устройства, предназначенные для изучения возможности получения колоссальной энергии, которая выделяется пока лишь при взрыве водородной бомбы. Ученые хотят научиться контролировать ход термоядерной реакции – реакции соединения тяжелых ядер водорода (дейтерия и трития) с образованием ядер гелия при высоких температурах, – чтобы использовать выделяющуюся при этом энергию в мирных целях, на благо людям.
В литре водопроводной воды содержится совсем немного дейтерия. Но если этот дейтерий собрать и использовать как топливо в термоядерной установке, то можно получить энергии столько, сколько от сжигания почти 300 килограммов нефти. А для обеспечения энергией, которую сейчас получают при сжигании обычного топлива, добываемого за год, потребовалось бы извлечь дейтерий из воды, содержащейся в кубе со стороной всего 160 метров. Одна река Волга ежегодно несет в Каспийское море около 60000 таких кубов воды.
Для осуществления термоядерной реакции необходимо соблюдение нескольких условий. Так, температура в зоне, где происходит соединение тяжелых ядер водорода, должна составлять примерно 100 миллионов градусов. При такой огромной температуре речь идет уже не о газе, а о плазме. Плазма – это такое состояние вещества, когда при высоких температурах газа нейтральные атомы теряют принадлежащие им электроны и превращаются в положительные ионы. По-другому, плазма – смесь свободно движущихся положительных ионов и электронов. Второе условие состоит в необходимости поддерживать в зоне реакции плотность плазмы не ниже 100 тысяч миллиардов частиц в кубическом сантиметре. И, наконец, главное и самое трудное, – надо удержать ход термоядерной реакции хотя бы не меньше одной секунды.
Рабочая камера термоядерной установки – тороидальная, похожа на огромный пустотелый бублик. Она заполнена смесью дейтерия и трития. Внутри самой камеры создается плазменный виток – проводник, по которому пропускают электрический ток силой около 20 миллионов ампер.
Электрический ток выполняет три важные функции. Во-первых, он создает плазму. Во-вторых, разогревает ее до ста миллионов градусов. И, наконец, ток создает вокруг себя магнитное поле, то есть окружает плазму магнитными силовыми линиями. В принципе силовые линии вокруг плазмы должны были бы удержать ее в подвешенном состоянии и не дать плазме возможность соприкоснуться со стенками камеры Однако удержать плазму в подвешенном состоянии не так просто. Электрические силы деформируют плазменный проводник, не обладающий прочностью металлического проводника. Он изгибается, ударяется о стенку камеры и отдает ей свою тепловую энергию. Для предотвращения этого поверх тороидальной камеры надевают еще катушки, создающие в камере продольное магнитное поле, оттесняющее плазменный проводник от стенок. Только и этого оказывается мало, поскольку плазменный проводник с током стремится растянуться, увеличить свой диаметр. Удержать плазменный проводник от расширения призвано также магнитное поле, которое создается автоматически, без посторонних внешних сил. Плазменный проводник помещают вместе с тороидальной камерой еще в одну камеру большего размера, сделанную из немагнитного материала, обычно меди. Как только плазменный проводник делает попытку отклониться от положения равновесия, в медной оболочке по закону электромагнитной индукции возникает индукционный ток, обратный по направлению току в плазме. В результате появляется противодействующая сила, отталкивающая плазму от стенок камеры.
Удерживать плазму от соприкосновения со стенками камеры магнитным полем предложил в 1949 году А.Д. Сахаров, а немного позже американец Дж. Спитцер.
В физике принято давать названия каждому новому типу экспериментальных установок. Сооружение с такой системой обмоток именуется токамаком – сокращение от «тороидальная камера и магнитная катушка».
В 1970-е годы в СССР была построена термоядерная установка, названная «Токамак-10». Ее разработали в Институте атомной энергии им. И.В. Курчатова. На этой установке получили температуру плазменного проводника 10 миллионов градусов, плотность плазмы не ниже 100 тысяч миллиардов частиц в кубическом сантиметре и время удержания плазмы близко к 0,5 секунды. Крупнейшая на сегодня в нашей стране установка «Токамак-15» также построена в московском научном центре «Курчатовский институт».
Все созданные термоядерные установки пока лишь потребляют энергию на разогрев плазмы и создание магнитных полей. Термоядерная установка будущего должна, наоборот, выделять столько энергии, чтобы небольшую ее часть можно было использовать для поддержания термоядерной реакции, то есть подогрева плазмы, создания магнитных полей и питания многих вспомогательных устройств и приборов, а основную часть – отдавать для потребления в электрическую сеть
В 1997 году в Великобритании на токамаке JET достигли совпадения вложенной и полученной энергии. Хотя и этого, конечно, недостаточно для самоподдержания процесса: до 80 процентов полученной энергии теряется. Для того чтобы реактор работал, необходимо производить энергии в пять раз больше, чем тратится на нагревание плазмы и создание магнитных полей.
В 1986 году страны Европейского союза вместе с СССР, США и Японией решили совместными усилиями разработать и построить к 2010 году достаточно большой токамак, способный производить энергию не только для поддержания термоядерного синтеза в плазме, но и для получения полезной электрической мощности. Этот реактор назвали ITER, аббревиатура от – «международный термоядерный экспериментальный реактор». К 1998 году удалось завершить проектные расчеты, но из-за отказа американцев в конструкцию реактора пришлось вносить изменения, чтобы уменьшить его стоимость.
Можно позволить частицам двигаться естественным образом, а камере придать форму, повторяющую их траекторию. Камера тогда имеет довольно причудливый вид. Она повторяет форму плазменного шнура, возникающего в магнитном поле внешних катушек сложной конфигурации. Магнитное поле создают внешние катушки гораздо более сложной конфигурации, чем в токамаке. Устройства подобного рода называют стеллараторами. В нашей стране построен торсатрон «Ураган-3М». Этот экспериментальный стелларатор рассчитан на удержание плазмы, нагретой до десяти миллионов градусов.
В настоящее время у токамаков появились и другие серьезные конкуренты, использующие инерциальный термоядерный синтез. В этом случае несколько миллиграммов дейтерий-тритиевой смеси заключают в капсулу диаметром 1-2 миллиметра. На капсуле фокусируют импульсное излучение нескольких десятков мощных лазеров. В результате капсула мгновенно испаряется. В излучение надо вложить 2 МДж энергии за 5-10 наносекунд. Тогда световое давление сожмет смесь до такой степени, что может пойти реакция термоядерного синтеза. Выделившаяся энергия при взрыве, по мощности эквивалентного взрыву ста килограммов тротила, будет преобразовываться в более удобную для использования форму – например в электрическую. Экспериментальная установка такого типа (NIF) строится в США и должна начать работать в 2010 году.
Однако строительство стеллараторов и установок инерциального синтеза также наталкивается на серьезные технические трудности. Вероятно, практическое использование термоядерной энергии – вопрос не ближайшего будущего.
В США разрабатывается проект строительства электростанции на Гольфстриме. Первая в мире океанская электростанция мощностью 136 мегаватт будет сооружена во Флоридском проливе, где Гольфстрим перемещает 25 миллионов кубометров воды в секунду (это в двадцать раз превышает суммарный расход воды всех рек земного шара).
Реализация проекта стала возможной только после создания нового гидравлического двигателя – реактивной геликоидной (спиралевидной) гидротурбины, или турбины Горлова, как ее называют по имени изобретателя – профессора Северо-Восточного университета в Бостоне.
Автор проекта первой океанской электростанции Александр Горлов – выпускник Московского института инженеров железнодорожного транспорта, по окончании которого строил мосты, участвовал в разработке и внедрении новой технологии строительства тоннелей, а после защиты кандидатской диссертации работал главным специалистом в крупном НИИ. Крутой поворот в его судьбе связан со знакомством с Александром Солженицыным. Близость к опальному в то время писателю привела к драматическим последствиям: начались преследования со стороны КГБ, молодого ученого уволили из института, он не мог устроиться на работу по специальности, о защите подготовленной им докторской диссертации не могло быть и речи. В 1975 году Горлов был вынужден уехать за границу.
Оказавшись в эмиграции, он добился значительных успехов в научной, педагогической и изобретательской деятельности: Александр Горлов – доктор технических наук, профессор крупнейшего в США частного университета, директор лаборатории энергии воды и ветра, обладатель 15 патентов на изобретения, в том числе на геликоидную гидротурбину, применение которой открывает новую страницу в развитии гидроэнергетики.
«Русский ученый, изгнанный из родной страны, может дать решение глобальных проблем энергетики», – пишет газета «Файнэншл таймс».
Оригинальная турбина, созданная Горловым, называется геликоидной (от греческого «геликс» – «спираль» и «эйдос» – «вид»). Эта турбина не нуждается в сильном напоре, создаваемом с помощью плотины, и может эффективно работать при сравнительно небольших скоростях течения. Она имеет три спиральные лопасти и под действием потока воды вращается в два-три раза быстрее скорости течения. Как показали испытания опытных образцов, коэффициент полезного действия турбины Горлова в три раза выше всех низконапорных турбин, предназначенных для работы в свободном водяном потоке. В отличие от многотонных металлических гидротурбин, применяемых на речных гидроэлектростанциях, размеры изготовленной из пластика турбины Горлова невелики (диаметр 50 сантиметров, длина 84 сантиметра), масса ее всего 35 килограммов. Эластичное покрытие поверхности лопастей уменьшает трение о воду и исключает налипание морских водорослей и моллюсков. Коэффициент полезного действия турбины Горлова в три раза выше, чем у обычных турбин.
Конструкция станции представляет собой металлическую платформу, собираемую из готовых секций с установленным в них энергетическим оборудованием. Оборудование одной секции состоит из 16 турбин, жестко соединенных торцами и образующих вертикальную конструкцию длиной тринадцать метров. Электрогенератор в водонепроницаемой оболочке установлен на ее верхнем конце. При вращении турбин генератор вырабатывает ток мощностью 38 кВт. Для первой очереди строительства электростанции мощностью 30 мегаватт потребуется около 800 таких блоков.
Платформа будет установлена на якорях и погружена на глубину, гарантирующую свободный проход судов с самой большой осадкой. Определенные сложности представляет рыболовецкий флот. Ведь во время промысла рыболовные сети могут пострадать и одновременно причинить электростанции серьезный ущерб. Для исключения подобной ситуации станцию предполагается обозначить на поверхности океана буями со световой и радиоэлектронной сигнализацией.
На самой станции не будет операторов: автоматическое управление обеспечит система компьютеров. Периодический наружный осмотр станции, а также необходимые ремонтные работы смогут осуществлять водолазы.
Монтаж океанской электростанции осуществит недавно созданная фирма «Гольфстрим энерджи», а производство гидротурбин будет организовано на предприятии компании «Элайд сигнал». Их стоимость значительно ниже других видов современного энергетического оборудования аналогичного назначения.
Что же касается общей стоимости проекта океанской электростанции, то она составляет около трехсот миллионов долларов. Финансирование будет осуществлять государство с привлечением частных инвесторов. Планируется, что расходы должны окупиться в течение пяти лет.
Важное место при разработке проекта океанской электростанции занимает вопрос об использовании вырабатываемой электроэнергии. Первоначально предполагалось передавать ее по кабелю на материк или остров Марафон, находящийся на расстоянии пяти километров от места расположения станции, однако совет директоров фирмы «Гольфстрим энерджи», в состав которого входит профессор Горлов, пришел к выводу, что оптимальным вариантом является использование электроэнергии на месте для производства водорода путем электролиза океанской воды. Жидкий водород – экологически чистое топливо, способное в будущем заменить бензин и другие нефтепродукты, при сгорании которых внешняя среда загрязняется вредными веществами.
Согласно проекту, электроэнергия будет по кабелю передаваться на стоящее рядом с океанской электростанцией заякоренное судно, оснащенное технологическим оборудованием для производства сжижения и временного хранения водорода до отгрузки его потребителям.
Однако водород в энергетических целях может использоваться не только в качестве топлива для сжигания в двигателях автомобилей и самолетов, но и в так называемых топливных элементах – важнейшей составной части электрохимических генераторов, осуществляющих прямое преобразование химической энергии в электрическую. В этом случае водород служит химическим реагентом, взаимодействующим в присутствии катализатора с окислителем, в частности с кислородом. В настоящее время электрохимические генераторы используются в качестве автономных источников энергии в системах электропитания космических аппаратов.
По мнению экспертов, дальнейшее совершенствование топливных элементов позволит создать на базе электрохимических генераторов мощные энергетические установки, которые составят серьезную конкуренцию ГЭС, тепловым и атомным электростанциям, поскольку экологически они более безопасны. Широкое применение таких установок вызовет огромный рост потребления водорода, спрос на который наилучшим образом может быть удовлетворен путем использования плавучих фабрик водорода, получающих электроэнергию от океанских электростанций. Не исключено, что водород может стать символом энергетики XXI века.
Проект строительства электростанции на Гольфстриме вызвал большой интерес в ряде стран. По мнению южнокорейских специалистов, турбины Горлова могут дать большой эффект при их использовании на приливных электростанциях у побережья Корейского полуострова.
Японские ученые считают весьма перспективным план сооружения океанской электростанции на Куросио, мощность которого, например, у южной оконечности острова Хонсю достигает 38 миллионов кубометров воды в секунду. Они считают, что в перспективе широкое использование океанских электростанций позволит Японии обеспечить электроэнергией так называемые морские города в Тихом океане. Подобный долгосрочный проект японских ученых предусматривает постепенное переселение значительной части жителей на искусственные острова. Это даст возможность улучшить экологическую обстановку, а также справиться с проблемой перенаселения. Высвобождающуюся площадь предполагается использовать под сельскохозяйственные угодья и национальные парки. Пока программа находится на стадии разработки, ведутся консультации с лабораторией Горлова. Свою заинтересованность в проекте уже высказало правительство Тайваня.
Весьма вероятно, что будущее энергетики будет связано со строительством океанских электростанций. Ведь они более экономичны, чем атомные. А уступая по этому параметру тепловым и речным, превосходят их в экологической безопасности.
Как правило, первопечатником называют немца Иоганна Гутенберга. Хотя есть сведения, что еще в 1045 году китаец Пи Чень, член императорского суда, придумал разборный шрифт.
Еще раньше, в IX веке на востоке – в Китае, Тибете – был известен способ печатания с деревянных досок, на которых гравировались целые страницы рукописи. Этот способ в Европе получил название «ксилография». Студент Страсбургского университета Иоганн Гутенберг вместе с несколькими компаньонами занялся изготовлением ксилографических книг. Ему пришла идея гравировать не целые страницы сразу, с каждой из которых можно было снять очень мало качественных оттисков, а делать отдельные буквы и потом из них, словно из кубиков, складывать строки. Он придумал следующий способ изготовления шрифта сначала на торце металлического бруска – пуансона – гравировали обратное выпуклое изображение буквы, потом выбивали ее на мягкой медной пластинке. Затем эту пластинку – матрицу – вставляли в нижнюю часть полой трубки, а через открытый верх заливали специальный сплав, который позднее стали называть гартом. В результате можно было сделать сколько угодно точных копий пуансона – литер. А из литер уже строка за строкой набиралась книга. Только на пятом десятке лет жизни Гутенберг сумел изготовить нужное количество литер – первую наборную кассу и сделать печатный станок.
Способ получения оттисков с помощью таких форм называется высокой печатью. Изготовить такие формы несложно. Ведь достаточно лишь получить с них оттиски. Для этого нужно нанести ровный тонкий слой краски на печатающие элементы и надавить ими на бумагу. Высокую печать выгодно отличает нетребовательность к краске. Она может быть практически любого химического состава: и на жировой основе, и на основе водных и спиртовых растворителей.
Позднее изобрели иную разновидность высокого способа – флексографическую печать. Здесь применяются резиновые или полимерные печатные формы. С их помощью добиваются хороших оттисков не только на бумаге, но и на других материалах, таких как алюминиевая фольга, целлофан, гофрокартон.
Со временем, естественно, росли и требования к качеству печати. Возникла необходимость в воспроизведении на бумаге полутоновых изображений всей цветовой гаммы. Решение пришло вместе с изобретением глубокой печати. При этом способе печатающие элементы делают не выше, а ниже пробельных, причем глубина их различна. Чем темнее должен быть тот или иной участок оттиска, тем глубже соответствующий ему элемент печатной формы, толще слой заполняющей его краски и тем больше ее перейдет с формы на оттиск.
Сегодня наиболее распространены два типа печатных машин – листовые и офсетные. В листовой печатной машине талер, на котором закрепляется печатная форма, непрерывно движется вперед и назад. В то же время опускается и прокатывается по форме валик красящего аппарата и смазывает ее краской. Над талером вращается большой печатный цилиндр. Опускаясь, он прижимает к форме чистый бумажный лист, на котором остается отпечаток текста и рисунков. Листовая печатная машина все делает самостоятельно. Мастер только нажимает кнопку включателя. Установленные на машине самонаклады – захваты с резиновыми присосами сами берут с верха стопы бумаги только один лист и аккуратно кладут его на талер. А другие самонаклады прижимают отпечатанный лист и также осторожно укладывают на приемный стол. Машина сама следит за тем, правильно ли она работает. Стоит лишь присосам захватить по ошибке из стопы не один лист, а два, как машина тотчас останавливается.
Примером может служить листовая печатная машина «Speedmaster SM 102» фирмы «Хайдельберг», предназначенная для печати коммерческой продукции, этикеток, печати на пленке и на других упаковочных материалах. Оснастив эту машину соответствующими дополнительными устройствами, можно печатать этикетки на особо тонкой бумаге.
В них применено около двух тысяч новых узлов и деталей. Инженеры фирмы получили более сорока патентов на изобретения, сделанные в ходе конструкторской проработки.
Во время исследовательского этапа работы были проведены маркетинговые исследования, направленные на выявление потребностей пользователей. Результаты показали, что в большинстве профессиональных типографий и печатных центров применяются листовые офсетные машины формата 70x100 сантиметров. Поэтому специалисты фирмы сосредоточили усилия на повышении производительности именно этого класса машин. Им удалось добиться производительности 15000 оттисков в час. Высокая производительность новых печатных машин в большой степени определяется рабочей скоростью. Особое внимание было уделено сокращению времени на подготовку к печати и обслуживание машины.
На «Speedmaster SM 102» используется новое поколение самонакладов. Эти самонаклады оборудованы удлиненными направляющими для проводки отдельных листов над передними упорами на накладной стол. Листы тормозятся непосредственно перед передними упорами до скорости, составляющей 25 процентов от скорости машины, что позволяет точно выравнивать листы даже малой массы при работе на высоких скоростях. Подъем стапеля регулируется автоматически в зависимости от толщины бумаги. Присосы вакуумной головки предварительно устанавливаются по определенной кривой в зависимости от свойств запечатываемого материала, что обеспечивает высокую производительность. Стабильность подачи бумаги достигается благодаря малому ходу качающихся присосов. Прозрачное ограждение позволяет снизить уровень шума.
Оснащение самонаклада листорезальным устройством – это альтернатива обычному листовому стапелю, позволяющая снизить стоимость запечатываемого материала.
В настоящее время наиболее распространен офсетный способ печати. Он отличается широкими возможностями художественного оформления издания, сравнительной дешевизной изготовления печатных форм, довольно высокой скоростью печати и рядом других положительных качеств. По оценкам многих специалистов, в ближайшее время классический офсетный способ печати будет продолжать доминировать в мировой практике.
Офсетные машины работают гораздо быстрее обычных плоских печатных машин. Внутри такой машины вращается еще один печатный цилиндр – офсетный, покрытый резиной. Он пробегает по форме раньше бумажного листа. Отпечаток шрифта и иллюстраций сперва переводится на эту резину, а уже с нее на бумажный лист. В таких машинах бывает обычно по несколько секций, которые заправляют различными красками. Бумажный лист поочередно проходит через все секции, и на нем появляется либо разноцветный шрифт, либо цветная картинка.
Листовая печатная машина дает за час до 15 тысяч оттисков. Офсетная – десятки тысяч. Но печатников, выпускающих газеты и журналы, эта скорость не удовлетворяет.
Более высокую скорость обеспечивают ротационные печатные машины. Первую такую машину разработал в 1904 году немецкий инженер Э. Мертенсон. В ротационной печатной машине все главные детали имеют цилиндрическую форму. Это упрощает конструкцию аппарата и позволяет значительно увеличить скорость печатания.
Такую машину заправляют бумажной лентой длиной 6-7 километров, намотанной в огромный рулон. Ротационная машина работает с огромной скоростью. Бумажная лента пробегает с быстротой поезда под вращающимися валами со стереотипами, по которым с той же быстротой уже прокатились валы с краской. На бумаге отпечатывается сперва одна сторона газетного или журнального листа, а затем другая. Машина сама отрезает отпечатанные листы, фальцует (сгибает), сама выбрасывает готовые пачки на конвейер.
Самая современная и эффективная ротационная машина – «Экоман» (Ecoman) фирмы «MAN Roland». Одно из важнейших преимуществ этой машины – широкие возможности варьирования ее компоновки. Благодаря гибкому построению на этой машине можно организовать эффективное производство практически любой газетной продукции.
Восьмиярусное расположение печатных секций – составная часть системы «Экоман». Такое построение в сочетании со сдвоенным фальцаппаратом делает машину идеальной для печати больших тиражей. Для печатания коммерческой продукции машину можно оснастить ИК-сушкой или сушкой горячим воздухом.
Конструкция бумагопроводящей системы обеспечивает постоянное натяжение бумажного полотна. Для высококачественной четырехкрасочной печати используется дополнительное автоматическое устройство контроля и регулировки натяжения бумажного полотна. Проводка бумажного полотна может быть выбрана с левым или правым направлением. Это позволяет оптимизировать путь бумажного полотна. При двустороннем запечатывании двух полотен в одну краску оснащается двумя лентопроводящими системами.
Машина «Экоман» в стандартном исполнении оснащена рулонной зарядкой, отличающейся простотой конструкции и надежностью работы.
Компактный пленочный красочный аппарат обеспечивает быструю смену краски, простоту обслуживания, высокое качество печати. Для лучшей очистки красочного ящика предусмотрено его разделение на две-четыре откидывающиеся части.
В машине «Экоман» применяется увлажняющий аппарат разбрызгивающего типа, в котором передаточный валик расположен между накатным валиком и растирочным цилиндром увлажняющего аппарата.
В «Экоман» все узлы машины (рулонная зарядка, печатные секции, фальцаппарат) объединены в общую систему управления – PECOM, которая производит централизованную обработку сигналов от исполнительных механизмов, после чего подает соответствующие команды.
Система управления позволяет использовать станцию технического планирования продукции TPP для обработки заказов. Эта станция проводит подготовку к печатному процессу, начиная от обработки сведений о характере продукции, о плане загрузки машины и заканчивая подачей необходимых команд исполнительным механизмам.
Не так давно полиграфические машины годились только для многократного воспроизведения одного и того же изображения. После изобретения цифровой печати положение изменилось. Цифровая печатная машина работает под управлением компьютера и по принципу действия аналогична лазерному принтеру. С помощью компьютера можно быстро вносить изменения в печатную форму после каждого оборота формного цилиндра и получать на выходе в той или иной степени отличающиеся экземпляры оттисков. Цифровой способ используется главным образом для печатания небольших тиражей (даже одного экземпляра) или в целях оперативной полиграфии.
Давно ушло в прошлое время, когда хлеб убирали вручную: жали серпами, связывали в снопы, обмолачивали цепами, отделяли зерно от соломы и половы на ручных веялках. Чтобы вручную за день сжать хлеб на одном гектаре земли, требовалось тридцать жнецов, а чтобы вымолотить зерно из колосьев и отделить его от соломы – еще сорок человек.
Для облегчения этих тяжелых и трудоемких работ были созданы машины: жатки, скашивающие хлеб; молотилки, обмолачивающие зерно; сортировки, отделяющие полноценное зерно от негодных семян и семян сорняков, очищающие зерно от примесей. А потом жатку, молотилку и сортировку объединили в одну машину, поставили ее на колеса – и появился зерноуборочный комбайн. Первую такую машину в 1868 году разработал русский изобретатель А.Р. Власенко. Сначала такие машины за собой возил трактор, а позднее они стали самоходными.
Комбайнер работает сейчас в значительно более комфортных условиях, чем раньше. Кабина оборудована кондиционером, отопителем, вентиляционной установкой, очищающей подаваемый воздух, электрическим стеклоочистителем, тонированными стеклами, солнцезащитными козырьками, фарами для работы в ночное время, зеркалом заднего вида, термосом для питьевой воды.
На комбайнах марки «Дон» впервые в нашей стране были применены бесконтактные электронные устройства для контроля за всеми основными сборочными единицами и агрегатами.
Система автоматического контроля технологического процесса и состояния важнейших агрегатов комбайна «Дон» обеспечивает измерение частоты вращения основных рабочих органов комбайна и скорости его движения. Она также выявляет отклонения от номинала частоты вращения валов или режимов двигателя, гидросистемы, молотильного аппарата и других агрегатов от нормы и предупреждает об этом комбайнера с помощью светового табло и звуковой сигнализации.
Световое табло установлено в кабине на передней стенке отсека кондиционирования и вентиляции, здесь же расположен блок переключателей электрооборудования комбайна.
На комбайнах последнего поколения для контроля основных эксплуатационных параметров и управления технологическим процессом широко используются компьютерные устройства.
А вот как работает современный комбайн. Сначала полосу стеблей убираемой культуры захватывают лопасти мотовила и подводят к режущему аппарату. Срезанные стебли подаются мотовилом к шнеку жатки.
Шнек, имея спирали правого и левого направления, перемещает срезанные стебли от краев к центру жатки, где расположен пальчиковый механизм. Пальчиковый механизм шнека захватывает их, а также стебли, непосредственно поступающие на него, и направляет в окно жатки, из которого масса отбирается битером проставки и передается к транспортеру наклонной камеры, который направляет ее в приемную камеру молотилки.
В комбайнах используют три типа молотильных аппаратов: бильный, штифтовый и аксиально-роторный. Основное назначение молотильного аппарата – выделить из колоса все зерна, по возможности не повреждая их. При этом стремятся и к минимальным повреждениям стеблей, чтобы не затруднять сепарацию зерна на решетах очистки и соломотрясе.
В своей книге «Зерновые комбайны» А.Ф. Морозов отмечает, что в процессе обмолота должна быть разрушена естественная связь между семенами, пленками и колосковыми чешуйками. Обмолот в молотильном устройстве происходит в результате многократных ударов по стеблям и колосу при протаскивании массы через молотильный зазор между барабаном и подбарабаньем (декой). Барабан, вращаясь, захватывает массу бичами, нанося при этом по ней удары, и продвигает ее по молотильному зазору. Скорость перемещения массы зависит как от скорости вращения барабана, так и от величины молотильного зазора. Верхний слой стеблей движется значительно быстрее нижнего, соприкасающегося с неподвижной декой.
Обмолот в штифтовом молотильном устройстве происходит в результате многократных ударов по стеблям и колосу при протаскивании массы между штифтами подбарабанья.
В аксиально-роторном молотильно-сепарирующем устройстве хлебная масса обмолачивается также благодаря воздействию на нее бичей, но в процессе обмолота она совершает винтообразное движение.
Молотилки отечественных комбайнов «Дон» и «Нива» выполнены по классической схеме, наиболее распространенной в зарубежных комбайнах. В нее входят молотильное устройство с одним бильным барабаном и решетчатым подбарабаньем, активный отбойный битер, клавишный сепаратор соломистого вороха, двухстанная решетная очистка.
Из молотильного аппарата хлебная масса выходит в виде двух фракций – соломенного и зернового вороха. Соломенный ворох, содержащий в основном крупную солому и часть зерна, попадает на соломотряс, на котором выделяются оставшееся зерно и мелкие соломистые частицы, а солома по соломотрясу поступает к копнителю.
В зависимости от конструкции молотильного устройства и условий уборки в соломе, поступающей на соломотряс, содержится от 5 до 30 процентов общего количества зерна, проходящего через комбайн.
В отечественных комбайнах применяются соломотрясы только клавишного типа. Принцип работы такого соломотряса основан на выделении зерна из слоя соломистого вороха в результате встречных ударов, наносимых клавишами по падающей на них массе.
При сходе с соломотряса солома захватывается граблинами соломонабивателя и направляется в камеру копнителя. По мере наполнения копнителя растет усилие подпрессовки соломы, которое воздействует на клапан аварийного заполнения и включает сигнал полного заполнения копнителя. Если механизатор почему-либо не заметил этого сигнала и не сбросил копну, то включается автомат сброса копны.
Зерновой ворох, выделенный через подбарабанье, а также зерно и мелкие соломистые частицы, выделенные на соломотрясе, поступают на транспортную доску, которая подает этот ворох на очистку.
На решетах очистки, обдуваемых вентилятором, зерно окончательно отделяется от соломистых примесей. Чистое зерно, прошедшее через оба решета, поступает по скатной доске решетного стана в зерновой шнек и транспортируется элеватором в бункер.
«Недомолоченные колоски, сходящие с нижнего решета и с удлинителя верхнего решета вместе с примесью свободного зерна и половы, – пишет А.Ф. Морозов, – попадают в колосовой шнек и перемещаются шнеком и элеватором к автономному домолачивающему устройству, где выделяется оставшееся в колосках зерно.
Образовавшийся после домолота ворох поступает в горловину распределительного шнека, который сбрасывает его на конец транспортной доски (благодаря специальной конструкции кожуха распределительного шнека ворох равномерно распределяется по ширине молотилки). При этом труднообмолачиваемые колоски могут несколько раз циркулировать по контуру "домолот-очистка", пока не произойдет их полный вымолот.
Мелкая соломистая часть вороха транспортируется воздушным потоком и решетами к половонабивателю, который подает ее в камеру копнителя или в шнек половоотборника измельчителя.
При использовании навесного измельчителя солома с соломотряса поступает непосредственно на измельчающий аппарат и после измельчения молотковыми ножами выбрасывается через дефлектор в тележку или на поле. При этом она проходит через нижний люк и лопатки разбрасывателя, которые можно устанавливать в одно из двух положений: для разбрасывания по полю или укладки в валок».
К зерноуборочным комбайнам выпускаются дополнительные приспособления, позволяющие собирать разные сельскохозяйственные культуры. Так, кукурузоуборочный комбайн срезает высокий кукурузный стебель, отделяет от него початок и дробит стебель на мелкие кусочки (после дополнительной обработки из этой массы готовят корм для скота – силос).
Льноуборочный комбайн сначала осторожно вытягивает нежные стебельки льна из земли, стальными гребенками счесывает с них коробочки с семенами и листочки, а потом связывает стебельки в снопы.
Существует и специальный комбайн для уборки сахарной свеклы. Стальными пальцами он захватывает ботву, выдергивает растение из грядки, отрезает ножом зелень и стряхивает прилипшую землю.
Картофелеуборочный комбайн сначала подкапывает большой пласт земли и осторожно размельчает его, чтобы не повредить клубни. Затем, перемещая и одновременно встряхивая, просеивает землю на прутковом транспортере, освобождает картофель и подает его в кузов грузовика.
Помимо перечисленных комбайнов инженеры создали и продолжают совершенствовать машины для уборки других видов зерновых и овощей.
Точная механика родилась еще в XVII веке – с появлением стенных и настольных часов. Она не потребовала качественного технологического скачка, поскольку использовала традиционные приемы, но только в более мелких масштабах. И сегодня, как ни малы здесь детали, их еще можно изготовлять по общим стандартам, работая теми же инструментами и на тех же станках – пусть самых прецизионных, – применяя обычные способы сборки изделий.
«Ключевым тут является, пожалуй, механический обрабатывающий инструмент, – пишет в журнале «Техника – молодежи» Борис Понкратов. – Его возможности и ставят пределы миниатюризации. Но в этих пределах точная механика переживает ныне бурный расцвет. Она все шире внедряется в самую массовую продукцию – фотоаппараты, аудио– и видеотехнику, дисководы и принтеры для персональных компьютеров, ксероксы – не говоря уж о различном специальном оборудовании, например, для состыковки волоконно-оптических линий связи.
Лазерная микрообработка одна занимает целый диапазон, хотя, надо сразу сказать, самостоятельного значения не имеет: принципиально новых операций тут немного. В основном речь идет о пайке микросхем и создании отверстий различной формы (скажем, в фильерах для получения сверхтонких волокон из синтетических смол). Зато настоящего революционного технологического перевооружения требует следующий шаг – микромеханика. Размеры микромеханических устройств таковы, что для их создания недостаточно малых и сверхмалых устройств. В качестве критерия возьмем минимальные размеры объектов, с которыми способна манипулировать данная технология. Для упрощения картины округлим величины с точностью до порядка. И нанеся их на масштабную шкалу, получим своего рода спектр, где каждая технология занимает определенный «диапазон» (примерные минимальные размеры даны в миллиметрах): классическая точная механика – 1, лазерная микрообработка – 0,01, микромеханика и микроэлектроника – 0,0001, нанотехнология – 0,000001».
Рубеж поистине роковой для любых механизмов – расстояния менее 100 нм. Тогда заметно «слабеют» законы классической механики, и все больше дают себя знать межатомные силы, тепловые колебания, квантовые эффекты. Резко затрудняется локализация элементов устройств, теряет смысл понятие траекторий их движения. Короче, в подобных условиях вообще нельзя говорить о «механизмах», состоящих из «деталей».
Микромеханике повезло: ей с самого начала удалось устроиться «на плечах гиганта» – микроэлектроники, получив от нее практически готовую технологию массового производства. Ведь отработанная и постоянно развивающаяся технология сложнейших электронных микросхем лежит в том же диапазоне масштабов. И точно так же, как на одной пластинке кремния получают многие сотни готовых интегральных схем, оказалось возможным делать разом несколько сот механических деталей. То есть наладить нормальное массовое производство.
Кремний, используемый в микроэлектронике, стал основным материалом и для микромеханизмов. Тем более что здесь открылась замечательная возможность создавать и те и другие структуры в комплексе, в едином технологическом процессе. Производство таких гибридов оказалось настолько дешевым, что некоторые образцы быстро нашли применение в производстве самой массовой коммерческой продукции, например, кремниевый акселерометр, которым теперь снабжена одна из известных систем безопасности в автомобилях – надувной мешок.
Инерционный датчик этого прибора спроектирован Ричардом Мюллером из Калифорнийского университета. В общих чертах конструкция предельно проста: кремниевый стерженек диаметром в несколько микрон подвешен над отверстием, проделанным в кремниевой же подложке. Когда возникает ускорение, стерженек с подведенным к нему электрическим потенциалом начинает вибрировать и индуцирует сигнал, поступающий на обработку в микропроцессор, расположенный в десятке микрон по соседству. Достаточно резкое падение скорости (в момент удара при аварии) мгновенно фиксируется акселерометром, и он выдает команду на наполнение воздушной подушки в центре рулевого колеса, предохраняющей водителя от самой типичной травмы – удара о руль или ветровое стекло.
Японская корпорация «Тошиба» создала электромагнитный двигатель диаметром 0,8 миллиметра и весом 4 миллиграмма. Мощность его, разумеется, невелика, но достаточна для миниатюрных роботов, разработкой которых сейчас упорно занимаются ведущие компании страны под общим руководством министерства экономики и промышленности. Помимо «Тошибы» главную скрипку в этой программе играют корпорации «Мицубиси электрик» и «Хитачи». Длина разрабатываемых ими роботов – от сантиметра до нескольких миллиметров. Человек будет заглатывать капсулу с таким устройством, и после растворения ее оболочки аппарат, повинуясь радиосигналам и вложенной в него программе, начнет самостоятельное движение по кровеносным сосудам, желудочно-кишечному тракту и другим путям.
Миниатюрные роботы предназначены для диагностики, проведения микроопераций, для доставки лекарств точно по назначению и в нужное время. Их предполагают использовать также для ремонта и смены батарей у искусственных органов.
Немецкая фирма «Микротек» уже создала прототип медицинского инструмента нового типа – миниатюрную «подводную лодку» для плавания по кровеносным сосудам. Под управлением врача она способна выполнять некоторые операции. Длина этого автономного зонда – 4 миллиметра, а диаметр – 0,65 миллиметра. Двигателя у него нет, винт приводится во вращение с помощью внешнего переменного магнитного поля, которое позволяет развивать скорость до одного метр в час. В дальнейшем микрозонд оснастят фрезой для снятия холестериновых бляшек со стенок сосудов. Он сможет переносить капсулы с лекарством в нужное место. Предлагается и еще один вариант – размещать на таких микроаппаратах генераторы ультразвука. Просвечивая органы пациента изнутри, врачи получат информацию, остающуюся недоступной при обычной диагностике.
Нашли применение и еще несколько скромных, но полезных микроприборов – например, встроенный непосредственно в подшипник измеритель скорости вращения или внутренние датчики артериального давления, сердечного ритма, содержания сахара в крови и других параметров организма, передающие информацию наружу радиосигналом.
Самое твердое вещество в природе – алмаз. Это углеродное соединение имеет кристаллическую решетку в форме тетраэдра – пирамиды с четырьмя равновеликими треугольными гранями. Его вершины образованы четырьмя атомами углерода. Треугольник – очень жесткая фигура его можно сломать, но деформировать или смять нельзя. Именно поэтому прочность алмаза столь высока. В природе известны кристаллы с решеткой, состоящей не из атомов, а из молекул. Если молекулы достаточно велики и связи между ними сильны, то кристаллическая решетка оказывается чрезвычайно прочной. Этим условиям в полной мере отвечают фуллерены: имея диаметр больше 0,5 нм, они соединяются в кристалл с ячейками размером менее 1,5 нм.
Как это часто бывает, открытие фуллеренов не стало результатом целенаправленного поиска. Основное направление работ в лаборатории Р. Смолли в Университете Райса (Техас), где в 1980-е годы было сделано открытие, связанное с исследованиями структуры металлических кластеров. Методика подобных исследований основана на измерении масс-спектров частиц, которые образуются в результате интенсивного воздействия лазерного излучения на поверхность исследуемого материала.
«В августе 1985 года в лабораторию Смолли приехал известный астрофизик Г. Крото, – пишет Александр Валентинович Елецкий в «Соросовском образовательном журнале», – который работал над проблемой отождествления спектров инфракрасного излучения, испускаемого некоторыми межзвездными скоплениями. Одно из возможных решений этой проблемы, достаточно давно стоявшей в астрофизике, могло быть связано с кластерами углерода, который, как известно, составляет основу межзвездных скоплений. Целью визита Крото в Техас была попытка, воспользовавшись аппаратурой лаборатории Смолли, по масс-спектру кластеров углерода получить заключение об их возможной структуре. Результаты экспериментов привели в шоковое состояние его участников. В то время как для большинства исследованных ранее кластеров типичные значения магических чисел составляют в зависимости от взаимного расположения атомов значения 13, 19, 55 и т п., в масс-спектре кластеров углерода наблюдались явно выраженные пики с числом атомов 60 и 70. Единственным непротиворечивым объяснением такой особенности кластеров углерода явилась гипотеза, согласно которой атомы углерода образуют стабильные замкнутые сферические и сфероидальные структуры, впоследствии названные фуллеренами».
Эта гипотеза, подтвержденная в дальнейшем более детальными исследованиями, по существу и легла в основу открытия фуллеренов. Публикация о первых наблюдениях фуллеренов была направлена в журнал «Nature» уже через 20 дней после приезда Крото в Техас. В этой статье помимо предположения о сфероидальной форме фуллеренов содержались идеи о возможности существования эндоэдральных молекул фуллеренов, то есть молекул, внутри которых заключены один или несколько атомов другого элемента. Дальнейшие исследования подтвердили и это предположение.
Расстояние между молекулами в таких кристаллах меньше, чем расстояние между атомами в решетке алмаза. Кроме того, в ячейках обоих видов есть «особый» фуллерен, взаимодействующий с остальными через 12-16 очень коротких и сильных межмолекулярных связей. Все это и определяет необычайную твердость кристаллического фуллерита: она в два-три раза выше твердости алмаза.
За открытие фуллеренов Г. Крото, Р. Смолли и Р. Керл были удостоены Нобелевской премии по химии.
Подлинный бум в исследованиях фуллеренов начался в 1990 году. Это произошло после того, как немецкий астрофизик В. Кретчмер и американский исследователь Д. Хафман разработали технологию получения фуллеренов в достаточных количествах. Технология основана на термическом распылении электрической дуги с графитовыми электродами и последующей экстракции фуллеренов из продуктов распыления с помощью органических растворителей, например, бензола, толуола. Новая технология позволила многочисленным научным лабораториям исследовать фуллерены не только в молекулярной форме, но также и в кристаллическом состоянии. В результате были сделаны новые открытия. Так, в 1991 году американские ученые обнаружили сверхпроводимость фуллереновых кристаллов, легированных атомами щелочных металлов, с критической температурой от 18 до 40 градусов Кельвина в зависимости от сорта щелочного металла. И по сегодняшний день исследования и разработки в области фуллеренов являются одним из приоритетных направлений мировой науки и технологии. Подобная популярность связана с удивительными физико-химическими свойствами фуллеренов, открывающими возможность их прикладного использования.
Молекулы фуллеренов обладают высокой электроотрицательностью. Они способны присоединять к себе до шести свободных электронов. Это делает фуллерены сильными окислителями. Они способны образовывать множество новых химических соединений с новыми интересными свойствами. В состав химических соединений фуллеренов, входят шестичленные кольца углерода с одинарными и двойными связями. Поэтому можно рассматривать их как трехмерный аналог ароматических соединений. Кристаллы фуллеренов представляют собой полупроводники с шириной запрещенной зоны 1-2 эВ. Они обладают фотопроводимостью при облучении видимым светом.
«Широк круг возможных технологических применений фуллеренов, – пишет Езерский. – Так, использование фуллеренов в качестве присадки к смазочному маслу существенно (до 10 раз) снижает коэффициент трения металлических поверхностей и соответственно повышает износостойкость деталей и агрегатов. Активно разрабатываются также другие возможности массовых применений фуллеренов, связанные, в частности, с созданием нового типа аккумуляторных батарей, не подверженных, в отличие от традиционно используемых батарей на основе лития, разрушению электродов. Особого внимания заслуживает проблема использования фуллеренов в медицине и фармакологии. Одна из основных трудностей, стоящих на пути успешного решения этой задачи, связана с созданием водорастворимых нетоксичных соединений фуллеренов, которые могли бы вводиться в организм человека и доставляться с кровью в орган, подлежащий терапевтическому воздействию. Широко обсуждается в литературе идея создания противораковых медицинских препаратов на основе водорастворимых эндоэдральных соединений фуллеренов (молекулы фуллеренов, внутри которых помещен один или несколько атомов какого-либо элемента) с внедренными внутрь структуры фуллеренов радиоактивными изотопами. Введение такого лекарства в ткань позволит избирательно воздействовать на пораженные опухолью клетки, препятствуя их дальнейшему размножению».
Наиболее молодое и вместе с тем перспективное направление в исследовании свойств поверхности – сканирующая зондовая микроскопия. Зондовые микроскопы имеют рекордное разрешение – менее 0,1 нм. Они могут измерить взаимодействие между поверхностью и сканирующим ее микроскопическим острием – зондом – и выводят трехмерное изображение на экран компьютера.
Методы зондовой микроскопии позволяют не только видеть атомы и молекулы, но и воздействовать на них. При этом – что особенно важно – объекты могут изучаться не обязательно в вакууме (что обычно для электронных микроскопов), но и в различных газах и жидкостях.
Изобрели зондовый – сканирующий туннельный микроскоп в 1981 году сотрудники Исследовательского центра фирмы ИБМ Г. Биннинг и Х. Рорер (США). Через пять лет за это изобретение они были удостоены Нобелевской премии.
Биннинг и Рорер попытались сконструировать прибор для исследования участков поверхности размером менее 10 нм. Итог превзошел самые смелые ожидания: ученым удалось увидеть отдельные атомы, размер которых в поперечнике составляет лишь около одного нанометра. В основе работы сканирующего туннельного микроскопа лежит квантово-механическое явление, называемое туннельным эффектом. Очень тонкое металлическое острие – отрицательно заряженный зонд – подводится на близкое расстояние к образцу, тоже металлическому, заряженному положительно. В тот момент, когда расстояние между ними достигнет нескольких межатомных расстояний, электроны начнут свободно проходить через него – «туннелировать»: через зазор потечет ток.
Очень важное значение для работы микроскопа имеет резкая зависимость силы туннельного тока от расстояния между острием и поверхностью образца. При уменьшении зазора всего на 0,1 нм ток возрастет примерно в 10 раз. Поэтому даже неровности размером с атом вызывают заметные колебания величины тока.
Чтобы получить изображение, зонд сканирует поверхность, а электронная система считывает величину тока. В зависимости от того, как эта величина меняется, острие либо опускается или поднимается. Таким образом, система поддерживает величину тока постоянной, а траектория движения острия повторяет рельеф поверхности, огибая возвышенности и углубления.
Острие перемещает пьезосканер, который представляет собой манипулятор из материала, способного изменяться под действием электрического напряжения. Пьезосканер чаще всего имеет форму трубки с несколькими электродами, которая удлиняется или изгибается, перемещая зонд по разным направлениям с точностью до тысячных долей нанометра.
Информация о движении острия преобразуется в изображение поверхности, которое строится по точкам на экране. Участки разной высоты для наглядности окрашиваются в различные цвета.
В идеале на конце острия зонда должен находиться один неподвижный атом. Если же на конце иглы случайно оказалось несколько выступов, изображение может двоиться, троиться. Для устранения дефекта иглу травят в кислоте, придавая ей нужную форму.
С помощью туннельного микроскопа удалось сделать ряд открытий. Например, обнаружили, что атомы на поверхности кристалла расположены не так, как внутри, и часто образуют сложные структуры.
С помощью туннельного микроскопа можно изучать лишь проводящие ток объекты. Однако он позволяет наблюдать и тонкие диэлектрики в виде пленки, когда их помещают на поверхность проводящего материала. И хотя этот эффект еще не нашел полного объяснения, тем не менее его с успехом применяют для изучения многих органических пленок и биологических объектов – белков, вирусов.
Возможности микроскопа велики. С помощью иглы микроскопа даже наносят рисунки на металлические пластины. Для этого используют в качестве «пишущего» материала отдельные атомы – их осаждают на поверхность или удаляют с нее. Таким образом в 1991 году сотрудники фирмы ИБМ написали атомами ксенона на поверхности никелевой пластины название своей фирмы – IBM. Букву «I» составили всего 9 атомов, а буквы «B» и «M» – 13 атомов каждую.
Следующим шаг в развитии сканирующей зондовой микроскопии сделали в 1986 году Биннинг, Квейт и Гербер. Они создали атомно-силовой микроскоп. Если в туннельном микроскопе решающую роль играет резкая зависимость туннельного тока от расстояния между зондом и образцом, то для атомно-силового микроскопа решающее значение имеет зависимость силы взаимодействия тел от расстояния между ними.
Зондом атомно-силового микроскопа служит миниатюрная упругая пластина – кантилевер. Причем один ее конец закреплен, на другом же конце сформировано зондирующее острие из твердого материала – кремния или нитрида кремния. При перемещении зонда силы взаимодействия между его атомами и неровной поверхностью образца будут изгибать пластину. Добившись такого перемещения зонда, когда прогиб остается постоянным, можно получить изображение профиля поверхности. Такой режим работы микроскопа, называющийся контактным, позволяет измерять с разрешением в доли нанометра не только рельеф, но и силу трения, упругость и вязкость исследуемого объекта.
Сканирование в контакте с образцом довольно часто приводит к его деформации и разрушению. Воздействие зонда на поверхность может быть полезным, например, при изготовлении микросхем. Однако зонд способен легко порвать тонкую полимерную пленку или повредить бактерию, вызвав ее гибель. Чтобы избежать этого, кантилевер приводят в резонансные колебания вблизи поверхности и регистрируют изменение амплитуды, частоты или фазы колебаний, вызванных взаимодействием с поверхностью. Такой метод позволяет изучать живые микробы: колеблющаяся игла действует на бактерию, как легкий массаж, не причиняя вреда и позволяя наблюдать за ее движением, ростом и делением.
В 1987 году И. Мартин и К. Викрама-сингх (США) предложили в качестве зондирующего острия использовать намагниченную микроиглу. В результате появился магнитно-силовой микроскоп.
Такой микроскоп позволяет разглядеть отдельные магнитные области в материале – домены – размером до 10 нм. Его также применяют и для сверхплотной записи информации, формируя на поверхности пленки домены с помощью полей иглы и постоянного магнита. Подобная запись в сотни раз плотнее, чем на современных магнитных и оптических дисках.
На мировом рынке микромеханики, где заправляют такие гиганты, как ИБМ, «Хитачи», «Жиллетт», «Поляроид», «Олимпус», «Джойл», «Диджитал инструментс», нашлось место и для России. Все громче слышен голос маленькой фирмы МДТ из подмосковного Зеленограда.
«Давайте скопируем на пластину, в 10 раз меньшую человеческого волоса, наскальный рисунок, выполненный нашими далекими предками, – предлагает главный технолог Денис Шабратов. – Компьютер управляет "кистью", зондом – иглой длиной 15 микрон, диаметром в сотые доли микрона. Игла движется вдоль "полотна", и там, где его касается, появляется мазок размером с атом. Постепенно на экране дисплея возникает олень, за которым гонятся всадники».
МДТ единственная в стране фирма-изготовитель зондовых микроскопов и самих зондов. Она входит в четверку мировых лидеров. Изделия фирмы покупают в США, Японии, Европе.
А все началось с того, что Денис Шабратов и Аркадий Гологанов, молодые инженеры одного из оказавшихся в кризисе институтов Зеленограда, думая, как жить дальше, выбрали микромеханику. Они не без основания посчитали ее наиболее перспективным направлением.
«Мы не комплексовали, что придется соперничать с сильными конкурентами, – вспоминает Гологанов. – Конечно, наше оборудование уступает импортному, но, с другой стороны, это заставляет исхитряться, шевелить мозгами. А уж они-то у нас точно не хуже. И готовности пахать хоть отбавляй. Работали сутками, без выходных. Самым трудным оказалось даже не изготовить суперминиатюрный зонд, а продать. Знаем, что наш лучший в мире, кричим о нем по Интернету, засыпаем клиентов факсами, словом, бьем ножками, как та лягушка, – ноль внимания».
Узнав, что один из лидеров по производству микроскопов – японская фирм «Джойл» ищет иглы очень сложной формы, они поняли, что это их шанс. Заказ стоил много сил и нервов, а получили гроши. Но деньги не были главным – теперь они могли во весь голос объявить: знаменитый «Джойл» – наш заказчик. Подобным образом почти полтора года МДТ бесплатно изготавливала специальные зонды для Национального института стандартов и технологий США. И новое громкое имя появилось в списке клиентов.
«Сейчас поток заказов таков, что мы уже не можем удовлетворить всех желающих, – говорит Шабратов. – Увы, это специфика России. Опыт показал, у нас имеет смысл выпускать столь наукоемкую продукцию малыми сериями, массовое же производство – налаживать за рубежом, где нет срывов поставок, низкого их качества, необязательности смежников».
Возникновение сканирующей зондовой микроскопии удачно совпало с началом бурного развития компьютерной техники, открывающей новые возможности использования зондовых микроскопов. В 1998 году в Центре перспективных технологий (Москва) создана модель сканирующего зондового микроскопа «ФемтоСкан-001», которым управляют также через Интернет. Теперь в любой точке земного шара исследователь сможет работать на микроскопе, а каждый желающий – «заглянуть» в микромир, не отходя от компьютера.
Сегодня подобные микроскопы используются только в научных исследованиях. С их помощью совершаются наиболее сенсационные открытия в генетике и медицине, создаются материалы с удивительными свойствами. Однако уже в ближайшее время ожидается прорыв, и прежде всего, в медицине и микроэлектронике. Появятся микророботы, доставляющие по сосудам лекарства непосредственно к больным органам, будут созданы миниатюрные суперкомпьютеры.
Обычно с помощью видимого света наблюдать объекты ангстремной толщины нельзя. Однако существует микроскоп, позволяющий сделать это. Предел разрешающей силе микроскопа устанавливает явление дифракции света. Дифракция – огибание волнами препятствий. В более широком смысле – любое отклонение при распространении волн от законов геометрической оптики. В случае с микроскопом дифракция определяет то минимальное расстояние между двумя светящимися точками, при котором мы их увидели бы в микроскоп как две, а не одну.
После небольших вычислений оказывается, что минимальное расстояние, на котором могут находиться две светящиеся точки, будет порядка половины длины волны света, на которой они излучают. Так, для излучения на длине волны 630 нм можно рассчитывать на разрешение объектов размером не более 315 нм.
Но на явление дифракции можно взглянуть с другой стороны. Известно, что свет – это поток фотонов, квантовых частиц. Именно квантовая механика поможет нам понять, как получить разрешение, намного превосходящее дифракционный предел.
Дело в том, что соотношение неопределенности связывает два вектора импульс частицы и ее радиус-вектор. Как пишет С.И. Валянский в «Соросовском образовательном журнале»: «Теперь если задаться неопределенностью в определении импульса, то тем самым мы задали ту неопределенность в определение координаты квантового объекта, уменьшить которую мы уже не можем. Это задает нам некоторый объем в координатном пространстве. Пусть это будет некоторый кубик известного объема. Но никто не запрещает нам его деформировать, не изменяя его объем и не нарушая тем самым общего соотношения неопределенности. А деформируем мы этот кубик в некоторый тонкий блин, имеющий большую площадь, но маленькую толщину.
Если квант будет двигаться в направлении, параллельном плоскости этого блина, то в силу большой неопределенности его локализации в плоскости блина можно получить достаточно большую определенность в проекции импульса на эту плоскость. Вместе с тем мы получаем достаточно высокую локализацию кванта в перпендикулярном к этой плоскости направлении, но огромную неопределенность в проекции импульса на это направление.
Таким образом, точность определения направления движения кванта в плоскости, параллельной плоскости блина, напрямую связана с толщиной этого блина. Иначе говоря, чем в более тонкий блин раскатаем наш объем, тем с большей точностью мы сможем измерять направление движения кванта в плоскости блина. Итак, мы, оказывается, можем точно определять одну из проекций радиус-вектора и одну из проекций импульса. Только эти проекции взаимно перпендикулярны».
Но как теорию реализовать на практике? Ведь, чтобы работать с большими потоками квантов, локализованных в тонком слое, надо, чтобы они достаточно хорошо распространялись в этом тонком слое, поскольку мы хотим сделать область их локализации в направлении, перпендикулярном их движению, нанометровых размеров.
Вот здесь на помощь и приходят плазмоны. Плазмоны – это квазичастицы (кванты), возникающие в результате колебаний электронов проводимости относительно ионов. Для твердых тел, например металлов, это колебания электронов проводимости относительно ионного остова кристалла.
Квазичастицами они названы для того, чтобы отличить от настоящих квантовых частиц – электронов, протонов, нейтронов и т д. Их различие заключается в том, что если нагреть металл так, чтобы он превратился в газ исходно составлявших его атомов, то там никаких плазмонов не будет. Они существуют только тогда, когда есть металл как целое.
Нас в дальнейшем будут интересовать кванты электромагнитного поля, связанные с осцилляциями поверхностных зарядов при отсутствии возбуждающего поля. По аналогии с обычными плазмонами вводят квазичастицы – поверхностные плазмоны (ПП). Область их локализации находится вблизи поверхности раздела, где локализованы поверхностные заряды.
В 1902 году американский оптик Роберт Вуд обнаружил изменение интенсивности пучка света, дифрагирующего на решетке. Это было первое экспериментальное наблюдение поверхностных плазмонов в оптическом диапазоне. Но понято это было только в 1941 году, когда итальянскому физику-теоретику Уго Фано удалось объяснить аномалии Вуда. И только в конце 1960-х годов Андреас Отто применил идеи, развитые в работах немецкого физика, к электромагнитным волнам оптического диапазона. Он сформулировал условия, при которых можно возбуждать ПП-волны на гладких поверхностях, и указал метод их возбуждения в оптическом диапазоне длин волн. Тем самым был открыт путь к экспериментальному исследованию поверхностных плазмонов в оптическим диапазоне.
В 1971 году, через три года после выхода работы Отто, Эрвин Кречманн предложил еще одну схему возбуждения поверхностных плазмонов в оптическом диапазоне. В геометрии Кречманна тонкая проводящая пленка, на поверхности которой возбуждаются поверхностные плазмоны, наносится прямо на призму, с помощью которой они возбуждаются.
В 1988 году Вольфганг Кноль и Бенно Ротенхойслер предложили использовать поверхностные плазмоны для микроскопии. Они продемонстрировали рабочую модель микроскопа, в котором поверхностные плазмоны возбуждались по схеме Кречманна, для исследования специально сделанной сетки с известными параметрами. Результаты оказались столь впечатляющими, что вскоре этот новый прибор стал применяться в физике, химии, биологии и технике. Многие исследователи обратились к этому прибору из-за простоты его конструкции и высокого разрешения.
В основу конструкции поверхностно-плазмонного микроскопа положена схема возбуждения поверхностных плазмонов по методу Кречманна.
С.И. Валянский: «На гипотенузную грань прямоугольной треугольной призмы наносится тонкая металлическая пленка. Ее освещают со стороны призмы монохроматическим линейно поляризованным светом с расходимостью на порядок меньше, чем полуширина резонансной кривой для данной пленки. Причем вектор поляризации лежит в плоскости падения света – так называемый P-поляризованный свет. Отраженный от пленки свет попадает на фотоматрицу, сигнал с которой обрабатывается компьютером. Мы помним, что разрешение в плоскости пленки у нас несколько микрон. Поэтому между призмой и фотоматрицей на пути света ставится телескоп, расширяющий пучок так, чтобы свет, идущий с микронной площадки пленки, захватывал несколько элементов фотоматрицы.
Это одна из простых схем поверхностно-плазмонного микроскопа, но далеко не единственная. Существует большое количество их модификаций, удобных для решения конкретных задач.
Как же работает поверхностно-плазмонный микроскоп? Условия резонансного возбуждения поверхностных плазмонов зависят не только от свойств металлической пленки, на поверхности которой они возбуждаются, но и от диэлектрических свойств среды, с которой эта пленка граничит. Любую тонкую пленку на поверхности металла можно представить как локальное изменение диэлектрических свойств внешней среды. А это сразу сказывается на условии резонансного возбуждения в этом месте поверхностных плазмонов. Иначе говоря, резонансная кривая смещается в этом месте относительно кривой для чистой пленки в область больших углов.
Значит, если настроить наш микроскоп на угол, соответствующий оптимальному возбуждению поверхностных плазмонов для чистой металлической пленки, то в тех местах, где будет находиться измеряемый объект, интенсивность отраженного света будет больше, и тем больше, чем толще этот фрагмент».
Микроскоп реагирует не на толщину, а на изменения параметра, зависящего от диэлектрической проницаемости и толщины измеряемого объекта. Главный элемент всего прибора – тонкая металлическая пленка. От правильного выбора ее толщины и качества зависит разрешение всего устройства.
Возбуждение поверхностных плазмонов происходит не при каком-то определенном угле падения, а при наборе углов. Если вспомнить, что набор углов соответствует набору импульсов фотонов, то все станет понятным. Причина этого – конечное время жизни поверхностных плазмонов.
Разрешение микроскопа будет тем лучше, чем на большее расстояние сумеет распространиться ПП. Если скорость распространения его фиксирована, то за меньшее время жизни он распространится на меньшее расстояние. И ясно, что из-за поглощения и рассеяния на шероховатостях металлической пленки длина пробега может только уменьшиться.
Однако не только поверхность пленки ответственна за время жизни поверхностных плазмонов, но и ее объемные свойства. Диэлектрическая проницаемость металла имеет как действительную, так и мнимую часть. Из-за наличия последней происходит поглощение электромагнитной энергии и соответственно уменьшение времени жизни поверхностных плазмонов. Поэтому для увеличения разрешения микроскопа надо брать металл с минимальной величиной мнимой диэлектрической проницаемости. Таким металлом является серебро.
Неблагоприятным аспектом, однако, является то, что серебряная пленка быстро деградирует, окисляясь примерно за неделю. Но эту трудность удалось преодолеть, разработав метод защиты поверхности серебряной пленки.
Если металлическая пленка будет тонкой, то близкая граница призмы приведет к тому, что поверхностным плазмонам будет выгоднее распасться и преобразоваться в объемное излучение, чем оставаться поверхностным возбуждением, то есть время жизни его будет невелико. По той же причине доля энергии, которая идет на генерацию поверхностных плазмонов, будет невелика.
Очевидно, если толщина металлической пленки будет слишком большой, то практически вся энергия возбуждающей электромагнитной волны будет поглощаться в объеме пленки, не доходя до ее поверхности. И пленка будет работать как зеркало. Естественно, есть оптимальная толщина, которую и надо определить.
Данный эффект достаточно широко применяется в качестве метода исследования различных переходных слоев и тонких пленок. Это основная область его применения. Микроскоп и конструировали первоначально для наблюдения за организацией мономолекулярных ориентированных пленок в момент их формирования на поверхности жидкости и при переносе их на твердые подложки.
Другая область применения – биология, прямое наблюдение биологических объектов. В этом случае важно не столько высокое разрешение микроскопа по толщине, сколько высокое разрешение объектов, внутренняя структура которых определяется элементами с малыми изменениями в диэлектрической проницаемости.
Обычно биологи для наблюдения своих объектов вводят контрастную жидкость, после чего их можно наблюдать. Плазменный микроскоп позволяет наблюдать их без этих ухищрений. При помощи подобного микроскопа можно, например, различить в водной среде границу между цитоплазмой и клеточной стенкой.
Микроскоп – сенсор на основе ПП-резонанса – можно использовать для снятия кинетики протекания химических и биохимических реакций, контролировать размер образующихся на поверхности комплексов.
У современной физики есть испытанное средство проникать в тайны атомного ядра – обстрелять его частицами или облучить и посмотреть, что с ним произойдет. Для самых первых исследований атома и его ядра хватало энергии излучений, возникающих при естественном распаде радиоактивных элементов. Но вскоре этой энергии оказалось недостаточно, и, чтобы еще глубже «заглянуть» в ядро, физикам пришлось задуматься над тем, как искусственно создать поток частиц высоких энергий.
Известно, что, попав между электродами с разным зарядом, заряженная частица, например, электрон или протон, ускоряет движение под действием электрических сил. Это явление и породило в 1930-е годы идею создания так называемого линейного ускорителя.
По конструкции линейный ускоритель представляет собой длинную прямую трубку-камеру, внутри которой поддерживается вакуум. По всей длине камеры расставлено большое количество металлических трубок-электродов. От специального генератора высокой частоты на электроды подают переменное электрическое напряжение – так, что, когда первый электрод оказывается заряженным, допустим положительно, второй электрод будет заряжен отрицательно. Дальше снова положительный электрод, за ним – отрицательный.
Пучок электронов выстреливается из электронной «пушки» в камеру и под действием потенциала первого, положительного электрода начинает ускоряться, проскакивая сквозь него дальше. В этот же момент фаза питающего напряжения меняется, и электрод, только что заряженный положительно, становится отрицательным. Теперь уже он отталкивает от себя электроны, как бы подгоняя их сзади. А второй электрод, став за это время положительным, притягивает электроны к себе, еще более ускоряя их. Потом, когда электроны пролетят через него, он снова станет отрицательным и подтолкнет их к третьему электроду.
Так по мере движения вперед электроны постепенно разгоняются, достигая к концу камеры околосветовой скорости и приобретая энергию в сотни миллионов электрон-вольт. Через установленное в конце трубы окошко, непроницаемое для воздуха, порция ускоренных электронов обрушивается на изучаемые объекты микромира – атомы и их ядра.
Нетрудно понять, что чем больше энергия, которую мы хотим сообщить частицам, тем длиннее должна быть труба линейного ускорителя – десятки, а то и сотни метров. Но не всегда это возможно. Вот если бы свернуть трубу в компактную спираль. Тогда такой ускоритель свободно мог бы разместиться в лаборатории.
Воплотить эту идею в жизнь помогло еще одно физическое явление. Заряженная частица, попав в магнитное поле, начинает двигаться не по прямой, а «завивается» вокруг магнитных силовых линий. Так появился еще один тип ускорителя – циклотрон. Первым циклотрон был построен еще в 1930 году Э. Лоуренсом в США.
Основная часть циклотрона – мощный электромагнит, между полюсами которого помещена плоская цилиндрическая камера. Она состоит из двух полукруглых металлических коробок, разделенных небольшим зазором. Эти коробки – дуанты – служат электродами и соединены с полюсами генератора переменного напряжения. В центре камеры находится источник заряженных частиц – что-то вроде электронной «пушки».
Вылетев из источника, частица (предположим, что теперь это положительно заряженный протон) сразу же притягивается к электроду, заряженному в данный момент отрицательно. Внутри электрода электрическое поле отсутствует, поэтому частица летит в нем по инерции. Под влиянием магнитного поля, силовые линии которого перпендикулярны плоскости траектории, частица описывает полуокружность и подлетает к зазору между электродами. За это время первый электрод становится положительным и теперь выталкивает частицу, в то время как другой втягивает ее в себя. Так, переходя из одного дуанта в другой, частица набирает скорость и описывает раскручивающуюся спираль. Из камеры частицы выводятся с помощью специальных магнитов на мишени экспериментаторов.
Чем ближе скорость частиц в циклотроне подходит к скорости света, тем они становятся тяжелее и начинают постепенно отставать от меняющего свой знак электрического напряжения на дуантах. Они уже не попадают в такт электрическим силам и перестают ускоряться. Предельная энергия, которую удается сообщить частицам в циклотроне, составляет 25-30 МэВ.
Чтобы преодолеть этот барьер, частоту электрического напряжения, поочередно подаваемого на дуанты, постепенно уменьшают, подстраивая ее в такт «отяжелевшим» частицам. Ускоритель такого типа называется синхроциклотроном.
На одном из крупнейших синхроциклотронов в Объединенном институте ядерных исследований в Дубне (под Москвой) получают протоны с энергией 680 МэВ и дейтроны (ядра тяжелого водорода – дейтерия) с энергией 380 МэВ. Для этого потребовалось соорудить вакуумную камеру диаметром 3 метра и электромагнит массой 7000 тонн!
По мере того как физики все глубже проникали в структуру ядра, требовались частицы все более высоких энергий. Возникла необходимость строить еще более мощные ускорители – синхротроны и синхрофазотроны, в которых частицы движутся не по спирали, а по замкнутой окружности в кольцевой камере. В 1944 году независимо друг от друга советский физик В.И. Векслер и американский физик Э.М. Макмиллан открыли принцип автофазировки. Суть метода заключается в следующем: если определенным образом подобрать поля, частицы будут все время автоматически попадать в фазу с ускоряющим напряжением. В 1952 году американские ученые Э. Курант, М. Ливингстон и Х. Снайдер предложили так называемую жесткую фокусировку, которая прижимает частицы к оси движения. С помощью этих открытий удалось создать синхрофазотроны на сколь угодно высокие энергии.
Существует и другая система классификации ускорителей – по типу ускоряющего электрического поля. Высоковольтные ускорители работают за счет высокой разности потенциалов между электродами ускоряющего пространства, которое действует все время, пока частицы пролетают между электродами. В индукционных ускорителях «работает» вихревое электрическое поле, индуцируемое (возбуждаемое) в месте, где в данный момент находятся частицы. И, наконец, в резонансных ускорителях используют изменяемое по времени и по величине электрическое ускоряющее поле, синхронно с которым, «в резонанс», происходит ускорение всего «комплекта» частиц. Когда говорят о современных ускорителях частиц на высокие энергии, имеют в виду в основном кольцевые резонансные ускорители.
В еще одном виде ускорителей – протонном – на очень высокие энергии к концу периода ускорения скорость частиц приближается к скорости света. Они обращаются по круговой орбите с постоянной частотой. Ускорители для протонов высоких энергий называют протонными синхротронами. Три самых крупных расположены в США, Швейцарии и России.
Энергия ныне действующих ускорителей достигает десятков и сотен гигаэлектронвольт (1 ГэВ = 1000 МэВ). Один из самых крупных в мире – протонный синхрофазотрон У-70 Института физики высоких энергий в городе Протвино под Москвой, вступивший в строй в 1967 году. Диаметр ускорительного кольца составляет полтора километра, общая масса 120 магнитных секций достигает 20000 тонн. Каждые две секунды ускоритель выстреливает по мишеням залпом из 10 в двенадцатой степени протонов с энергией 76 ГэВ (четвертый показатель в мире). Чтобы достигнуть такой энергии, частицы должны совершить 400000 оборотов, преодолев расстояние в 60000 километров! Здесь же сооружен подземный кольцевой тоннель длиной двадцать один километр для нового ускорителя.
Интересно, что пуски ускорителей в Дубне или Протвино в советские времена проводились только по ночам, поскольку на них подавалась чуть ли не вся электроэнергия не только Московской, но и соседних областей!
В 1973 году американские физики привели в действие в городе Батавии ускоритель, в котором частицам удавалось сообщить энергию в 400 ГэВ, а потом довели ее до 500 ГэВ. Сегодня самый мощный ускоритель находится в США. Он называется «Тэватрон», поскольку в его кольце длиной более шести километров с помощью сверхпроводящих магнитов протоны приобретают энергию около 1 тераэлектронвольт (1 ТэВ равен 1000 ГэВ).
Чтобы достичь еще более высокой энергии взаимодействия пучка ускоренных частиц с материалом исследуемого физического объекта, надо разогнать «мишень» навстречу «снаряду». Для этого организуют столкновение пучков частиц, летящих навстречу друг другу в особых ускорителях – коллайдерах. Конечно, плотность частиц во встречных пучках не столь велика, как в материале неподвижной «мишени», поэтому для ее увеличения применяют так называемые накопители. Это кольцевые вакуумные камеры, в которые «порциями» вбрасывают частицы из ускорителя. Накопители снабжены ускоряющими системами, компенсирующими частицам потерю энергии. Именно с коллайдерами ученые связывают дальнейшее развитие ускорителей. Их сооружено пока считанные единицы, и находятся они в самых развитых странах мира – в США, Японии, ФРГ, а также в Европейском центре ядерных исследований, базирующемся в Швейцарии.
Современный ускоритель – это «фабрика» по производству интенсивных пучков частиц – электронов или в 2000 раз более тяжелых протонов. Пучок частиц из ускорителя направляется на подобранную, исходя из задач эксперимента, «мишень». При соударении с ней возникает множество разнообразных вторичных частиц. Рождение новых частиц и есть цель опытов.
С помощью специальных устройств – детекторов – эти частицы либо их следы регистрируют, восстанавливают траекторию движения, определяют массу частиц, электрический заряд, скорость и другие характеристики. Затем путем сложной математической обработки информации, полученной с детекторов, на компьютерах восстанавливают всю «историю» взаимодействия и, сопоставив результаты измерений с теоретической моделью, делают выводы: совпадают реальные процессы с построенной моделью или нет. Именно так добывается новое знание о свойствах внутриядерных частиц.
Чем выше энергия, которую приобрела частица в ускорителе, тем сильнее она воздействует на атом «мишени» или на встречную частицу в коллайдере, тем мельче будут «осколки».
С помощью коллайдера в США, например, проводятся эксперименты с целью воссоздания в лабораторных условиях Большого взрыва, с которого, как предполагается, началась наша Вселенная. В этом смелом эксперименте принимали участие физики из двадцати стран, среди которых были и представители России. Российская группа летом 2000 года непосредственно участвовала в эксперименте, дежурила на ускорителе, снимала данные.
Вот что говорит один их российский ученых – участников этого эксперимента – кандидат физико-математических наук, доцент МИФИ Валерий Михайлович Емельянов: «В 60 милях от Нью-Йорка, на острове Лонг-Айленд, был построен ускоритель RHIC – Relativistic Heavy Ion Collider – коллайдер на тяжелых релятивистских ионах. «Тяжелых» – поскольку уже в этом году он начал работать с пучками ядер атомов золота. «Релятивистских» – тоже понятно, речь идет о скоростях, при которых во всей красе проявляются эффекты специальной теории относительности. А «коллайдером» (от collide – сталкиваться) он называется потому, что в его кольце происходит столкновение встречных пучков ядер. Кстати, в нашей стране ускорителей такого типа нет. Энергия, которая приходится на один нуклон, составляет 100 ГэВ. Это очень много – почти вдвое больше ранее достигнутого. Первое физическое столкновение было зафиксировано 25 июня 2000 года». Задачей ученых было попытаться зарегистрировать новое состояние ядерного вещества – кварк-глюонную плазму.
«Задача очень сложна, – продолжает Емельянов, – а математически – вообще некорректна: одно и то же фиксируемое распределение вторичных частиц по импульсам и скоростям может иметь совершенно разные причины. И только при детальном эксперименте, в котором задействована масса детекторов, калориметры, датчики множественности заряженных частиц, счетчики, регистрирующие переходное излучение, и т п., есть надежда зарегистрировать тончайшие отличия, присущие именно кварк-глюонной плазме. Механизм взаимодействия ядер при столь больших энергиях интересен сам по себе, но куда важнее, что впервые в лабораторных условиях мы можем исследовать зарождение нашей Вселенной».
Первые голограммы получил в 1947 году венгерский физик Деннис Габор, работавший тогда в Англии. Это название восходит к словам «холос» (весь, полностью) и «грамма» (написание). До изобретения венгерского ученого любая фотография была плоской. Она передавала лишь два измерения предмета. Глубина пространства ускользала от объектива.
В поисках решения Габор отталкивался от одного известного факта. Лучи света, отброшенные трехмерным объектом, достигают фотопленки в разные моменты времени. И все они проделывают различный путь за разное время. Говоря научным языком: все волны приходят с фазовым смещением. Смещение зависит от формы предмета. Ученый пришел к выводу, что объем любого предмета можно выразить через разность фаз отраженных световых волн.
«Конечно, человеческий глаз не в состоянии уловить это запаздывание волн, – пишет в журнале «Всемирный следопыт» Николай Малютин, – ибо оно выражается в очень маленьких промежутках времени. Данную величину надо преобразовать в нечто более осязаемое, например в перепады яркости. Это и удалось ученому, прибегнувшему к одному трюку. Он решил наложить волну, отраженную от предмета – то есть искаженную – на попутную ("опорную") волну. Происходила "интерференция". Там, где встречались гребни двух волн, они усиливались – там появлялось светлое пятно. Если же гребни волны накладывались на впадину, волны гасили друг друга, там наблюдалось затемнение. Итак, при взаимном наложении волн возникает характерная интерференционная картина, чередование тонких линий, белых и черных. Эту картину можно запечатлеть на фотопластинке – голограмме. Она будет содержать всю информацию об объеме предмета, попавшего в объектив.
Чтобы "объемный портрет" получился очень точным и детальным, надо использовать световые волны одинаковой фазы и длины. При дневном или искусственном освещении такой фокус не пройдет. Ведь свет обычно представляет собой хаотическую смесь волн разной длины. В нем есть все краски: от коротковолнового голубого излучения до длинноволнового красного. Эти световые компоненты самым причудливым образом сдвинуты по фазе».
Поскольку источников когерентного света в то время не существовало, ученый использовал излучение ртутной лампы, «вырезав» из него с помощью различных ухищрений очень узкую спектральную полоску. Однако мощность светового потока при этом становилась такой мизерной, что на изготовление голограммы требовалось несколько часов. Само качество голограмм оказалось весьма низким. Причины были в несовершенстве и источника света, и самой оптической схемы записи. Дело в том, что при записи голограммы возникает сразу два изображения по разные стороны пластинки.
У венгерского ученого одно из них всегда оказывалось на фоне другого, и при их фотографировании резким оказывалось только одно изображение, в то время как второе создавало на снимке размытый фон. Чтобы в таком случае увидеть изображение на голограмме, ее нужно просветить насквозь излучением той же длины волны, которая применялась при записи. Но есть и очевидное преимущество: такое объемное изображение создается любым, даже самым маленьким участком голограммы-пластинки, вследствие того, что луч, рассеиваемый каждой точкой предмета, освещает голограмму полностью. Выходит, любая ее точка хранит информацию обо всей освещенной поверхности объекта.
Появление лазера дало новый толчок развитию голографии, поскольку его излучение обладает всеми необходимыми качествами: оно когерентно и монохроматично. В 1962 году в США физики Эммет Лейт и Юрис Упатниекс создали оптическую схему топографической установки, которая с некоторыми изменениями используется до сих пор. Для того чтобы устранить наложения картинок, лазерный луч расщепляют на два и направляют на пластинку под разными углами. В результате голографические картинки формируются независимыми лучами, идущими по разным направлениям.
Другой принципиально новый способ голографирования удалось создать российскому физику Юрию Николаевичу Денисюку. Ученый использовал интерференцию встречных пучков света. Попадая на пластинку с разных сторон, пучки складываются в слое фотоэмульсии, формируя объемную голограмму.
С появлением лазера давняя идея Габора наконец-то была реализована. В 1971 году ученый получил за свое изобретение Нобелевскую премию по физике.
В 1969 году Стивен Бентон придумал способ изготовления голограмм при обычном, белом свете. «Для этого, – отмечает Малютин, – с помощью фотошаблона – тонкого слоя с множеством микрошлицов – надо изготовить «мастер-голограмму» и копировать ее голографическим способом. Шлицевой шаблон, наподобие призм, расщепляет дневной свет на основные цвета спектра. В каждый из шлицов входит световой пучок одной-единственной длины волны. Это обеспечивает интерференцию и помогает получить картинку, яркую, разноцветную, сверкающую разными красками в зависимости от угла зрения, – ту самую голограмму, к которому мы привыкли за последние годы».
Главное преимущество цветной голографии кроется в том, что ее можно копировать машинным способом, используя определенную технику тиснения. Красочную копию экспонируют на особый светочувствительный слой – фоторезистный лак. Этот материал отличается высокой разрешающей способностью. (Его применяют, например, в микролитографии, чтобы нанести на плату те или иные элементы микросхемы.)
В нашем случае, при массовом тиражировании голограмм, вначале берут цифровую камеру и фотографируют объект со всех сторон. Компьютер соединяет отдельные снимки. И вот трехмерное изображение готово. Затем в лаборатории лазер «гравирует» эту картинку на фоточувствительной пластине. Получается тонкий поверхностный рельеф. С помощью электролиза «гравюру» наносят на никелевую матрицу.
Матрица нужна для массового тиражирования голограмм. Их оттиски – по методу горячего тиснения – получают на металлической фольге. Теперь, как только луч света падает на голограмму, она начинает играть всеми цветами радуги. Среди этого многоцветья предстает перед зрителем изображенный предмет. Подобные голограммы дешевы. Изготовить их можно в любом количестве, лишь бы было оборудование.
Такие голограммы используют во всем мире в качестве наклеек на товарные упаковки и документы. Они служат прекрасной защитой от подделок: скопировать голографическую запись очень трудно.
Можно создавать голограммы, на которых изображены предметы, не существующие в реальности. Достаточно компьютеру задать форму объекта и длину волны падающего на него света. По этим данным компьютер рисует картину интерференции отраженных лучей. Пропустив световой пучок сквозь искусственную голограмму, можно увидеть объемное изображение придуманного предмета.
По мнению Сергея Транковского: «Настоящим подарком голография стала для инженеров: теперь они могут исследовать и регистрировать процессы и явления, описанные порой только теоретически.
Например, лопатки турбореактивного авиационного двигателя во время работы нагреваются до сотен градусов и деформируются. Каким образом распределяется при этом напряжение в детали, где находится ее слабое место, угрожающее разрушением, – определить это прежде было либо крайне сложно, либо вообще невозможно. С помощью голографических методов такие исследования проводят без особого труда.
Освещенная лазерным светом, голограмма восстанавливает световую волну, отраженную деталью при съемке, и изображение появляется там, где раньше находилась деталь. Если же деталь осталась на месте, возникают сразу две волны: одна идет непосредственно от объекта, другая – от голограммы. Эти волны когерентны и могут интерферировать. В том случае, если объект во время наблюдения подвергся деформации, его изображение покрывается полосами, по которым судят о характере изменений.
Методы топографического контроля очень удобны. Они позволяют измерять величину деформации деталей и амплитуду их вибрации, исследовать поверхности предметов сложной формы, следить за точностью изготовления как очень больших изделий (например, зеркал диаметром в несколько метров для телескопов), так и миниатюрных линз (как в микроскопе). Объект может плохо отражать свет, иметь неровную поверхность, быть совершенно прозрачным – на качество голограммы это не влияет. Благодаря мощным лазерным импульсам голограммы записывают за тысячные доли секунды. А потому сейчас можно изучать взрывы, электрические разряды и потоки газов, движущиеся со сверхзвуковой скоростью».
С помощью голограммы можно видеть сквозь матовое стекло или другую рассеивающую свет преграду. С рассеивателя снимают голограмму и совмещают одно из восстановленных с нее изображений с самим рассеивателем. Световые волны, идущие навстречу друг другу от голограммы и от рассеивателя, складываются и взаимно уничтожаются. Преграда исчезает, а предмет, лежащий за ней, становится виден во всех подробностях.
У современных технологов появилась новая идея. Она основана на способности лазера по заданной программе «сделать» из заготовки деталь любой формы и размера. Достаточно внутрь технологического лазера вставить голограмму эталонной детали, чтобы избавиться от необходимости писать программу и настраивать лазерную установку. Голограмма сама «подберет» такую конфигурацию луча и распределение его интенсивности, что «вырезанная» деталь будет точной копией эталона.
Надо обратить внимание на еще один, очень похожий способ выделения полезных сигналов, который называется оптической фильтрацией, или распознаванием образов. Подобным образом можно отыскивать нужные изображения среди множества других похожих, например отпечатков пальцев. Для этого с эталона необходимо сделать голограмму, а затем поставить на пути светового пучка, отраженного от проверяемого объекта. Голограмма пропустит свет только от объекта, полностью идентичного эталону, «бракуя» другие изображения. Яркое пятно на выходе оптического фильтра – сигнал, что объект обнаружен. Примечательно, что поиск ведется с огромной скоростью, недостижимой при использовании других методов, поскольку он может вестись автоматически.
«Голографические методы, – пишет Транковский, – применимы не только к свету – электромагнитному излучению, но и к любым другим волнам. В частности, предмет, погруженный в непрозрачную или мутную жидкость, можно разглядеть с помощью звука. Излучатели акустических колебаний создают в жидкости две когерентные волны. Одна (предметная) «озвучивает» предмет, вторая (опорная) – поверхность жидкости. Их интерференция вызывает на ней рябь – так называемую акустическую голограмму. Освещая ее пучком лазерного света, восстанавливают объемное изображение предмета, лежащего в воде. Впрочем, поступают и по-другому: сигнал от системы миниатюрных микрофонов записывают на фотопластинку в виде полос почернения, а потом восстанавливают с нее объемное изображение лучом лазера».
Внутреннее строение Земли, веществ, из которых она состоит, изучают геология и геофизика. Геологические методы позволяют исследовать только верхнюю часть земной коры. Пробурить скважину даже на глубину в несколько километров очень непросто. Геофизика позволяет проникнуть внутрь Земли гораздо дальше. Эта наука исследует аномалии земных полей, такие как отклонения плотности, магнитной восприимчивости, удельного электрического сопротивления, скорости распространения упругих волн и т д.
Для глубинного (до 10000 метров) изучения крупных частей суши и океанов, разведки месторождений нефти, газа и твердых полезных ископаемых используют методы разведочной геофизики. Они включают в себя гравиразведку, магниторазведку, электроразведку, сейсморазведку, терморазведку, ядерную геофизику – всего более ста методов.
Метод гравиразведки основан на очень точном измерении силы тяжести Земли, то есть гравитационного поля планеты. Земля – не однородный шар, в ней есть пустоты и области уплотнения, например залежи руды. В результате сила тяжести над ними оказывается либо чуть меньше, либо чуть больше среднего значения. Эти изменения и регистрируют гравиметрами.
С помощью магниторазведки изучают геомагнитное, или естественное магнитное, поле Земли. Его величина зависит от размеров и глубины залегания намагниченных объектов, например залежей железных руд. Магнитометрами измеряют абсолютную величину магнитного поля либо его относительные значения, которые сравнивают с измеренными в опорных пунктах.
Методы электроразведки основаны на изучении возникающих природных и искусственных электрических полей. Первые – результат солнечного и космического излучений, непрерывных ударов молний в землю, химических и физических реакций. Вторые возникают при воздействии на Землю линий электропередачи, антенн теле– и радиостанций. По характеристикам электрического поля (например, по сопротивлению) исследователи научились различать горные породы и залежи металлических руд.
При радиолокационных исследованиях применяют георадары. Такой радиолокатор «смотрит» внутрь Земли. Антенна георадара излучает радиоимпульс, отражающийся от плотных пород и возвращающийся к принимающей антенне. Почва и горные породы быстро поглощают радиоволны, поэтому проникают они только на глубину в несколько десятков метров. Метод основан на отличии скорости распространения радиоволн, зависящей от физических свойств горных пород и жидкостей, их насыщающих (воды, нефти).
Тепловые поля Земли, возникшие в результате сложных физических и химических процессов, исследуются при помощи тепловизоров. Их чувствительные элементы принимают инфракрасное (тепловое) излучение глубинных пород. Излучение это очень слабое, поэтому приемники тепловизора охлаждаются жидким азотом или гелием до температуры минус 200—230 градусов Цельсия. Принятые сигналы поступают на экран телевизора или фиксируются на фотопленке. Распределение температур зависит от внутреннего строения планеты.
Разлом земной коры, даже давно затянувшийся наносными породами, дает о себе знать температурными аномалиями на поверхности земли. Изучая их динамику, можно судить о явлениях, которые вызывают напряжения и деформации в земной коре, чреватые катаклизмами. Сотрудники Института аэрокосмического приборостроения из столицы Татарии это делать научились.
«Потрясающие снимки показал мне Роберт Мухамедяров, – пишет в журнале «Чудеса и приключения» Михаил Дмитрук, – на них видно все, что находится в недрах на глубинах до нескольких километров.
– Смотрите: это разломы земной коры, – провел он пальцем вдоль светлых полос. А потом указал на темные пятна: – Здесь находятся месторождения нефти и газа.
Эти снимки получены с помощью аэрокосмической аппаратуры, которая сделала недра почти прозрачными. Сквозь землю стало видно, как сквозь стекло. Что за чудеса?
– Мы установили взаимосвязь между плотностью пород и температурой на поверхности земли, – объясняет Роберт Давлетович. – Проще не скажешь. В разных местах температура отклоняется на мизерные величины, но их фиксирует наша сверхчувствительная аппаратура. Компьютер вычерчивает на снимке линии одинаковых температур. Там, где линии сгущаются, выше плотность вещества в недрах (скальные породы, залежи металлических руд). А разрежаются линии там, где породы разуплотнены (разломы земной коры, карстовые пустоты, линзы подземных озер, залежи угля, нефти, газа). Дешифровав тепловизорные снимки, компьютер выдает цветные изображения местности, на которых, как на ладони, видно глубинное строение недр.
Профессор развеял мои сомнения. Он показал другие подземные снимки, которые очень легко проверить. Их сделали не из космоса, а с самолета или вертолета, поэтому разрешающая способность снимков повысилась в сотни раз. И на них четко видны подземные коммуникации – их невозможно различить даже на поверхности невооруженным глазом. Вот передо мной поле, где скосили урожай пшеницы. На его тепловом изображении видны перекрещивающиеся газопроводы, которые под полем зарыты в землю. А вот план этих сооружений, взятый у газовиков: он точно совпадает с тепловизорным снимком. Мало того, на нем четко видны места повреждения изоляции на подземных трубах, а также утечки газа. Эта информация очень нужна газовикам, и ученые готовы предоставить ее. Кстати, их летающая аппаратура дает раз в десять больше сведений, чем робот, ползающий в трубе. А получить эти данные сверху можно в тысячи раз быстрее. Но, может, это стоит бешеных денег? Нет, аэрокосмическая диагностика гораздо дешевле внутритрубной».
В 1979 году Роберта Мухамедярова, будущего доктора технических наук, профессора, перевели в НПО «Государственный институт прикладной оптики» начальником отдела и главным конструктором приборов для космических аппаратов. Позднее именно под его руководством отдел перерос в отделение, а в 1990 году выделился из НПО как самостоятельный Институт аэрокосмического приборостроения в Казани. Однако в новейшую российскую историю, как и многие российские предприятия, благополучно сел на мель.
До сих пор на спутнике «Океан» аппаратура, сделанная в институте, дает изображение не хуже, чем американская. Но вместе с кризисом космической отрасли в России стала не нужна и казанская аппаратура для спутников. Работа в новых условиях заставила перейти на самолеты и вертолеты. Но, как говорится, нет худа без добра: с малых высот сотрудники института при помощи своей аппаратуры стали делать еще более удивительные открытия, чем из космоса.
Тепловизорные снимки могут потрясти любого. Так, к примеру, сквозь огромную металлическую емкость для хранения нефти сверху можно увидеть… трещину в железобетонном фундаменте этого сооружения. Машины давно уехали, а на стоянке остались их тепловые тени. Глубоко в море виден тепловой след затонувшего корабля. А вот еще одно чудо: на снимке сквозь землю проступают контуры еще не раскопанных археологами фундаментов древних зданий!
«Но Роберт Давлетович гордится и другими снимками, – пишет Дмитрук, – по которым можно диагностировать здания и сооружения. Под домами, мостами, дорогами, трубопроводами четко видны разломы коры, карстовые пустоты, коллекторы, потоки грунтовых вод, прочие сюрпризы природы. Если бы о них заранее знали строители, то обошли бы стороной эти гиблые места. Но объекты уже построены, их фундаменты и опоры проваливаются в пустоты и плывуны, вызывая деформацию зданий и сооружений. Долго ли они еще простоят и в каких местах их надо укреплять? Это тоже видно: все напряжения и деформации вызывают небольшие отклонения температуры, которые ясно проявляются на снимках».
В институте запатентовали много новых принципов и устройств, которые позволяют увеличивать разрешающую способность тепловизоров практически неограниченно. Здесь научились улавливать одну десятитысячную долю градуса – это вполне достаточно для технической диагностики зданий и сооружений. Кроме того, снимки можно делать ночью во время сжатия строительных материалов и днем – во время их температурного расширения. В такие моменты особенно ярко проявляются все дефекты – и настоящие, и будущие.
Но главное – диагностика земной коры: по напряжениям и деформациям в ее пластах можно прогнозировать подвижки, вызывающие землетрясения. Предвидеть землетрясения архиважно для любой страны, которая находится в зоне повышенной сейсмичности.
Мухамедяров готов дать прогноз, где и когда случатся такие катаклизмы. При одном условии – если получит средства на эти исследования.
Земля как объект исследования геологии доступна для прямого наблюдения только с поверхности. О ее составе и строении можно судить лишь по косвенным данным. Оттого и стремятся геологи проникнуть как можно дальше в глубь Земли с помощью бурения. Современная техника позволяет бурить скважины на континентах глубиной до 10-15 километров.
Буровые скважины чаще всего делают для разведки месторождений полезных ископаемых, для извлечения из недр воды, нефти и газа, а также для инженерных изысканий и других прикладных целей. Кроме того, с 1970-х годов бурение все шире используется как метод решения фундаментальных научных проблем современной геологии. Кстати, сами результаты научного бурения во многом оказались неожиданными и заставили пересмотреть теоретические представления, которые до этого казались очевидными и незыблемыми.
Начало систематического научного бурения относится к 1960-м годам. В 1968 году в США было спущено на воду специальное буровое судно, и началась реализация международной программы глубоководного бурения в океанах. За более чем тридцатилетнюю историю в Мировом океане пробурили сотни скважин, которые пересекли рыхлые осадки океанского дна и углубились в подстилающие базальты. Самая глубокая из скважин была пробурена в Тихом океане к югу от берегов Коста-Рики. Ее глубина достигла 2105 метров ниже океанского дна. Океанское бурение открыло новую страницу в геологии, поскольку раньше точных данных о строении дна океанов практически не было.
Теперь о бурении на суше. Скважины научного бурения на континентах, как правило, относятся к категориям глубоких (3-7 километров) или сверхглубоких (более 7 километров). В этом отношении с ними можно сопоставить лишь скважины, которые бурятся для поисков, разведки и эксплуатации глубоко залегающих месторождений нефти и газа в США. Самая глубокая скважина из них – Берта Роджерс (9583 метра) была пробурена в 1973—1974 годах всего за 502 дня. Столь высокая скорость проходки обусловлена двумя факторами. Первый – возможности американской техники. Второй – бурение осуществлялось без отбора керна, то есть без подъема образцов горных пород на поверхность. Отбор керна требует большого дополнительного времени, но совершенно необходим при научном бурении. По этой причине глубокие и сверхглубокие поисковые и разведочные скважины имеют достаточно ограниченное значение как источники научной информации.
Первая программа систематического сверхглубокого континентального бурения с научными целями разработана и осуществлена в СССР. Основы этой программы были сформулированы еще в 1960—1962 годах. В мае же 1970 года на севере Мурманской области в десяти километрах от города Заполярного началось бурение Кольской сверхглубокой скважины. Ее проектную глубину определили в пятнадцать километров Но достичь ее не удалось, в 1991 году бурение прекратили на глубине 12261 метр. Тем не менее Кольская скважина до сих пор остается самой глубокой в мире.
Успехи Советского Союза не могли не подстегнуть другие страны. Ускорили разработку программ научного континентального бурения в Германии, Франции, США, Канаде, Японии, Великобритании. Одного из лучших результатов добились немцы, пробурившие сверхглубокую скважину КТБ-Оберпфальц в Баварии (1990—1994 годы), которая достигла глубины 9101 метр.
«Существуют разные способы бурения, – пишут в «Соросовском образовательном журнале» В.С. Попов и А.А. Кременецкий. – Если глубина скважин невелика (сотни метров), то двигатель, находящийся на поверхности, вращает колонну стальных бурильных труб, на нижнем конце трубы крепится буровая коронка, армированная твердыми сплавами или алмазами. Вращаясь, коронка вырезает цилиндрический столбик породы, который постепенно заполняет специальную внутреннюю (колонковую) трубу. При бурении без отбора керна часто используют буровые головки, которые представляют собой систему нескольких вращающихся конусов, армированных твердыми сплавами. Если стенки скважины неустойчивы, в нее опускают стальную обсадную трубу. В процессе бурения насос постоянно закачивает в скважину специальный глинистый раствор, необходимый для придания устойчивости стенкам, охлаждения инструмента, выноса мелких частиц породы (шлама) и для других целей. Время от времени колонну буровых труб поднимают на поверхность с помощью лебедки, установленной на буровой вышке, выгружают керн, если необходимо, заменяют изношенную коронку на новую и опять опускают буровой снаряд на забой.
Бурение сопровождается измерениями физических свойств пород вдоль ствола скважины. Для этого на специальном кабеле в скважину опускают приборы, которые фиксируют температуру, электропроводность, магнитную восприимчивость, радиоактивность и другие свойства пород. Этот процесс называют каротажем скважин».
Опыт бурения в США и других странах показал следующее. За счет мощности двигателей и давления насосов, нагнетающих буровой раствор, а также увеличения грузоподъемности лебедок и прочности стальных буровых труб, таким способом можно бурить скважины глубиной до 9-10 километров. Для бурения более глубоких скважин необходимы другие нетрадиционные инженерные решения. И такие решения были предложены и реализованы в ходе выполнения программ сверхглубокого научного бурения.
Выяснилось, что в тех случаях, когда забой скважины находится на многокилометровой глубине, целесообразно использовать забойные двигатели, установленные не на поверхности, а в нижней части буровой колонны, которая при этом сама не вращается. Забойные двигатели – это миниатюрные турбины или винтовые механизмы, которые приводятся во вращение буровым раствором, нагнетаемым под давлением в скважину.
Для уменьшения веса колонны буровых труб, достигающих длины несколько километров, их изготавливают из специальных легких, но достаточно прочных и термостойких сплавов. Алюминиевые сплавы, использованные при бурении Кольской скважины, были в 2,4 раза легче стали.
При достижении большой глубины возникает значительная разница между гидростатическим давлением столба бурового раствора и литостатическим (горным) давлением, обусловленным весом горных пород. Это может привести к разрушению стенок скважины, а это, в свою очередь, вызывает серьезные осложнения при бурении. Для достижения равновесия горного давления увеличивают плотность бурового раствора, добавляя в него специальные наполнители.
«Одна из наиболее сложных технических задач, – пишут Попов и Кременецкий, – заключается в том, чтобы обеспечить надежную работу бурового оборудования при высоких температурах, существующих в сверхглубоких скважинах. Это касается металлических деталей, их соединений, смазок, бурового раствора и измерительной аппаратуры. Хотя на забое, то есть в самой нижней точке скважины Солтон-Си в США на глубине 3220 метров была зафиксирована температура 355 градусов Цельсия, а в другой скважине, пробуренной до 1440 метров в одной из молодых вулканических структур на западе США, измеренная температура достигала 465 градусов, современные технические средства не позволяют бурить сверхглубокие скважины при столь высоких температурах в течение длительного времени, поскольку термостойкость существующего бурового оборудования не превышает 200—300 градусов. Самые большие проблемы возникают с измерительной аппаратурой, особенно с электроникой, которая отказывает уже при 150 градусов. Водные буровые растворы сохраняют технологические свойства до 230—250 градусов. При более высокой температуре приходится переходить на нефтяную основу растворов и применять более сложные смеси. Высокая температура земных недр остается одним из главных факторов, ограничивающих глубину научного бурения.
Серьезные технические трудности связаны с самопроизвольным искривлением глубоких скважин в процессе бурения из-за неравномерного разрушения пород на забое, геологических неоднородностей разреза и других причин. Например, забой Кольской скважины на глубине около 12 километров отклонился от вертикали на 840 метров. Существуют технические приемы удержания скважины в вертикальном положении. Так, благодаря удачной конструкции специального приспособления скважина КТБ-Оберпфальц в Германии оставалась до глубины 7500 метров самой вертикальной скважиной в мире. Однако глубже это приспособление вышло из строя из-за высокой температуры и давления, и скважина пошла своим путем; в результате на глубине 9101 метр она отклонилась от вертикали на 300 метров».
Сверхглубокое бурение потребовало создания специальной измерительной аппаратуры, контролирующей условия вдоль ствола и на забое. Малопригодной оказалась обычная технология каротажа с датчиками, которые опускают в скважину на термостойком кабеле. В результате длительных поисков удалось разработать телеметрическую и другую электронную аппаратуру, крепящуюся на буровом снаряде, а также автономные измерительные приборы, которые опускаются вниз и выносятся наверх потоком бурового раствора. Теперь сигналы датчиков могут передаваться не по проводам, а гидравлическим способом путем создания импульсов давления в буровом растворе.
Надо отметить, что глубокие и сверхглубокие скважины имеют телескопическую конструкцию. Бурение начинают с самого большого диаметра, а затем переходят на меньшие. Так, в Кольской скважине диаметр с 92 сантиметров в верхней части снизился до 21,5 сантиметров. А в скважине КТБ-Оберпфальц – с 71 сантиметра до 16,5 сантиметров.
Механическая скорость бурения сверхглубоких скважин составляет 1-3 метра в час. За один рейс между спуско-подъемными операциями можно углубиться на 6-10 метров. Средняя скорость подъема колонны буровых труб равна 0,3-0,5 метров в секунду. В целом бурение одной сверхглубокой скважины занимает годы и стоит очень дорого. Например, бурение сверхглубокой скважины в Германии обошлось в 583 миллиона немецких марок. Затраты на сверхглубокое бурение в нашей стране были не меньше.
При бурении глубоких скважин не обходится, конечно, и без аварий. Наиболее часто они вызваны мертвым прихватом бурового снаряда. На устранение аварий требуется много времени. Порою же они не позволяют продолжить работу, и приходится начинать бурение нового ствола. Можно понять, насколько дорог и в прямом, и переносном смысле многокилометровый столбик керна диаметром от 5 до 20 сантиметров, который является одним из основных, но не единственным результатом научного бурения. Керн тщательно документируют и хранят в специальных помещениях. Затем его подробно изучают большие коллективы специалистов. Так, материал, полученный при бурении немецкой сверхглубокой скважины, изучали около 400 ученых. Позднее они опубликовали на их основе 2000 научных работ!
Когда собственно бурение завершено, работа на сверхглубокой скважине не прекращается. Скважина превращается в постоянно действующую лабораторию. Специалисты продолжают следить за изменением режима земных недр вдоль ствола скважины и в околоскважинном пространстве, проводят различные эксперименты. Такие лаборатории были созданы на базе Кольской и Воротиловской скважин в России и скважины КТБ-Оберпфальц в Германии.
Одно из самых древних приспособлений для спуска человека под воду – водолазный колокол. Говорят, что в таком устройстве спускался под воду еще Александр Македонский. Сначала колокол очень походил на большую деревянную бочку, подвешенную на веревке вверх дном и опущенную в таком положении в воду. Воздух в бочке давал возможность дышать сидящему в ней водолазу. Со временем водолазный колокол совершенствовался, оснащался различными приспособлениями, облегчающими работу человека под водой. Он и сегодня применяется для доставки водолазов к месту работы.
Недостаток колокола очевиден – он очень ограничивает возможность передвижения под водой. А вот созданный в конце XIX века водолазный скафандр позволил человеку свободно работать под водой. Сейчас используются скафандры двух типов – мягкие и жесткие. Первые состоят из резинового костюма и металлического шлема со смотровым окном – иллюминатором. Воздух для дыхания подается с поверхности по резиновому шлангу, присоединенному к шлему, а отработанный воздух выпускается через специальный клапан в воду. В таком скафандре человек может работать на глубине до 100 метров. Жесткий скафандр состоит из стального цилиндра для туловища и системы меньших цилиндров для рук и ног, закрепленных на шарнирах. Он позволяет погружаться на глубину вдвое больше.
В начале 1940-х годов известные французские ученые Ж.И. Кусто и Э. Ганьяном изобрели акваланг. Именно он позволил приобщиться к глубинам моря самому широкому кругу людей: спортсменам-подводникам, археологам, исследователям морской флоры и фауны, геологам и океанологам. Однако в акваланге нельзя погружаться на большие глубины.
Начать освоение больших глубин помогла батисфера (от греческих слов «батхиз» – «глубокий» и «сфера» – «шар») – прочная стальная камера шарообразной формы с герметичным входным люком и несколькими иллюминаторами из прочного стекла. Она опускается с надводного судна на прочном стальном тросе. Запас воздуха хранится в баллонах, а углекислый газ и водяные пары поглощаются специальными химическими веществами. На одном из таких аппаратов под названием «Век прогресса» в 1934 году американцы У. Биб и О. Бартон спустились на рекордную для того времени глубину – 923 метра.
Но самых больших успехов в исследовании морских глубин достиг швейцарский ученый Огюст Пиккар. Еще в 1937 году он начал конструировать свой первый батискаф. Однако работу прервала война. Поэтому первый аппарат им был построен только в 1948 году. Он был сделан в виде металлического поплавка, заполненного бензином, потому что бензин легче воды, практически не поддается сжатию и оболочка поплавка не деформируется под влиянием огромных давлений. Снизу к поплавку подвешена шарообразная гондола из прочнейшей стали и балласт.
В 1953 году Огюст и его сын Жак опустились в батискафе «Триест» на глубину 3160 метров. А в январе 1960 года Ж. Пиккар и американец Д. Уолш в том же, только усовершенствованном, батискафе достигли самой глубокой отметки Мирового океана – дна Марианской впадины в Тихом океане на глубине 10912 метров.
Однако таких сверхглубоких впадин немного. Главные богатства скрыты на средних глубинах – от нескольких десятков метров до 2-3 километров. И здесь вместо малоподвижных батисфер и батискафов нужны маневренные аппараты, оснащенные современными комплексами приборов и механизмов. Таким аппаратом стал советский «Мир».
Глубоководный обитаемый подводный аппарат «Мир» предназначен для исследований на глубинах до 6000 метров. Он может находиться под водой целых 80 часов. Длина аппарата – 6,8 метра, ширина – 3,6 метра, а высота – 3 метра. Диаметр сферического корпуса «Мира» – 2,1 метра. Вход расположен в верхней части. На борту «Мира» могут работать одновременно три человека. Экипаж поддерживает постоянную связь с судном по гидроакустическому каналу.
Когда «Мир» погружается, балластные цистерны заполняются водой, а при подъеме на поверхность включаются насосы и выкачивают воду. Ходовой электродвигатель, который питается от аккумуляторов, позволяет двигаться со скоростью до 9 километров в час. Два боковых двигателя позволяют осуществлять сложные маневры.
«Мир» оборудован телевизионной видеокамерой, фотоустановкой и мощными светильниками. Два манипулятора отбирают образцы грунта, животных и растительности. Пробы воды берут батометры. Аппарат снабжен небольшой буровой установкой, что позволяет брать пробы скального грунта. Для наблюдения есть иллюминаторы. Диаметр центрального составляет 210 миллиметров, а боковых – по 120 миллиметров.
Два аппарата «Мир» базируются на борту научно-исследовательского судна «Академик Мстислав Келдыш». С их помощью была обследована подводная лодка «Комсомолец», покоящаяся на дне Норвежского моря. Участвовал «Мир» и в обследовании затонувшей в 2000 году подводной лодки «Курск».
Несмотря на то что «Мир» способствовал многим научным открытиям, настоящую известность ему принесло участие в съемках знаменитого фильма Джеймса Камерона «Титаник». Легендарный пароход «Титаник» затонул на глубине 4000 метров.
Выбор российских аппаратов «Мир» для проведения киносъемок фирмой «IMAX» стал мировым признанием наших глубоководных технологий и способности проведения подводных операций на больших глубинах. На выбор аппаратов «Мир» повлияли два обстоятельства. В наличии было сразу два аппарата. Это дало широкие возможности при проведении киносъемок под водой и в плане освещения отдельных объектов, и в плане взаимодействия на объекте, съемок одного аппарата другим на фоне объекта. Кроме того, аппараты «Мир» имеют большой центральный иллюминатор диаметром 210 миллиметров, что очень важно для широкоугольного объектива кинокамеры «IMAX».
Летом 1991 года, после решения основных технических проблем, научно-исследовательское судно «Академик Мстислав Келдыш» отправился исследовать «Титаник», затонувший в 1912 году на глубине четырех тысяч метров. На борту «Келдыша» находилась группа геологов и биологов Института океанологии Российской академии наук, а также группа ученых Бэдфордского океанографического института из Канады.
Но основной целью экспедиции было проведение глубоководных съемок на «Титанике» с аппаратов «Мир» в соответствии со сценарием, написанным выдающимся режиссером Стивеном Лоу. За три недели состоялось семнадцать погружений аппаратов «Мир» на «Титаник». Съемки проводились на носовой, на кормовой части затонувшего судна, а также на огромной площади вокруг него. Здесь оказалось много различных предметов, выпавших из «Титаника» при затоплении. Сам Лоу принимал участие в пяти погружениях аппарата «Мир-2» в качестве режиссера и оператора и сделал большую часть глубоководных съемок.
«Необычной была операция по съемкам левого винта "Титаника", – пишет Анатолий Сагалевич в журнале «Знание – сила». – Два аппарата «Мир» подползли под кормовой подзор затонувшего судна и сделали совершенно уникальные съемки. На экране мы видим огромный винт "Титаника", а справа – аппарат "Мир-1". Великолепные съемки сделаны Стивеном Лоу с "Мира-2". На экране вся сцена продолжается тридцать-сорок секунд, а операция по съемкам заняла несколько часов: необходимо подойти, расположить соответствующим образом аппараты друг относительно друга, подобрать освещение и т д. А на борту судна в это время было неспокойно – пропала связь с обоими аппаратами, которые были заэкранированы сверху корпусом "Титаника". Командиры увлеклись и забыли о сеансах связи. Связь возобновилась, когда аппараты «выползли» из-под подзора и вышли "на волю". Конечно, всего этого мы не видим на экране, там лишь винт и один из аппаратов рядом, но такая сцена, как говорят, дорогого стоит…
…Полтора часа этого необычайно захватывающего зрелища пролетают как одно мгновение. Это фильм не только о трагедии "Титаника". Это фильм об экспедиции Института океанологии на НИС "Академик Мстислав Келдыш", о людях, которые делают необычную, связанную с большим риском работу, о взаимоотношениях людей, живущих на разных континентах, но работающих в экспедиции как одна семья».
Как только не пытались бороться со льдом! Его таранили, вспахивали, пилили, растапливали, даже травили химикатами. Во времена Петра Великого, чтобы провести суда через ледяные поля, в последних пешнями и топорами прорубали неширокие каналы. Тогда же придумали ледокольные паромы – тоже деревянные, несамоходные длиной 8,5 метров, шириной 2,5 метра с поднятым штевнем и до предела заполненной чугунными чушками кормой. Такой паром лошади тянули по ледовому покрову, продавливая в нем судоходный канал, который потом очищали от обломков.
В начале XIX столетия в России на некоторых коммерческих судах к носовой части приставляли деревянный или металлический таран либо крепили к форштевню заостренные металлические башмаки.
Американцы пробовали применить для тех же целей колесо, смонтированное на носу судна и оснащенное металлическими ножами, зубьями и иглами. Испытывали и более сложные инженерные системы. К ним, в частности, относился «ледокольный снаряд», представлявший собой хитроумный механизм, размещенный в передней части судна. Он состоял из горизонтальных полозьев, которые при движении переносили на лед тяжесть корпуса. Одновременно в ледовый покров вгрызались мощные циркуляционные пилы, а сверху еще обрушивались подвешенные на цепях увесистые гири-молоты. По мнению авторов этого проекта, такого комбинированного воздействия не мог бы выдержать лед любой толщины.
Не менее любопытным был проект шинно-гиревого ледокола, разработанный в середине 1860-х годов по предложению кронштадтского инженера Н. Эйлера. Такое судно предполагалось оборудовать массивным стальным тараном, рядом с ним, но на верхней палубе, установить десять кранов и с их помощью одновременно или поочередно разбивать лед чугунными гирями весом по 640 килограммов, сбрасываемыми на цепях с высоты 2 метров.
Опробованные судостроителями, моряками и изобретателями устройства, созданные методом проб и ошибок, в конце концов, привели их к мысли, что оптимальное решение столь сложной инженерной задачи заключается отнюдь не в усложнении конструкции ледокольного судна. Напротив, оно должно быть относительно простым и сочетать наиболее эффективный, проверенный многовековой практикой опыт борьбы со льдами со значительной энерговооруженностью.
12 марта 1897 года на заседании Академии наук выступил старший флагман 1-й флотской дивизии вице-адмирал С.О. Макаров. «Он сказал, что Россия своим фасадом обращена к Ледовитому океану и поэтому ни одна нация не заинтересована в ледоколах более нас, – пересказывал его доклад репортер кронштадтской газеты «Котлин». – Природа заковала нас во льды, и чем скорее мы сбросим эти оковы, тем раньше дадим возможность развернуться русской мощи».
Действительно, стоит обратиться к истории, чтобы убедиться – самые важные достижения в этой области судостроения принадлежат нашей стране. В России появились почти все «самые первые»: ледокол «Пайлот», линейный «Ермак», атомоход «Ленин», научно-исследовательское судно «Таймыр», многоцелевой сухогруз ледового класса «Севморпуть» с ядерной силовой установкой.
Да и первое и единственное в мире серийное строительство атомных ледоколов началось у нас с 1977 году. За «Арктикой» последовали улучшавшиеся «Сибирь», «Россия», «Советский Союз» и «Ямал».
В 1864 году на английской верфи для России был построен пароход «Пайлот», способный продвигаться во льдах. Появление в 1899 году первого в мире мощного ледокола «Ермак», способного преодолевать льды до двух метров толщиной, оказало огромное влияние на все мировое ледоколостроение. Он коренным образом отличался от построенных ранее мелких портовых ледоколов размерами, обводами, мощностью, числом винтов, конструкцией корпуса, наличием ряда специальных устройств и систем. Форма корпуса «Ермака» обеспечивала высокие ледокольные свойства, разрушению льда способствовали клиновидные носовые шпангоуты. Несмотря на первые неудачи, последующая работа «Ермака» в тяжелых льдах подтвердила преимущества этого ледокола так называемого русского типа перед другими ледоколами.
В период Первой мировой войны для поддержания навигации в порту Архангельск по заказу России на иностранных верфях были построены несколько ледоколов по типу «Ермака».
В Советском Союзе строительство ледоколов для плавания в арктических морях началось с закладки в 1935 году четырех ледоколов типа «И. Сталин», которые вступили в строй в период с 1936 по 1941 год. Это были трехвинтовые суда с паровыми поршневыми машинами, стальным клепаным корпусом и двухслойным ледовым поясом. В конце 1950-х годов они были модернизированы и переведены с угля на жидкое топливо, что увеличило их автономность.
В 1954—1956 годах в Финляндии по заказу СССР были построены три однотипных дизель-электрических ледокола мощностью 12000 лошадиных сил: «Капитан Белоусов», «Капитан Воронин» и «Капитан Мелехов». Это были четырехвинтовые ледоколы (по два винта в носу и корме), со сварным стальным корпусом, достигающим в области ледового пояса толщины до 30 миллиметров.
Знаменательным событием в мировом судостроении явилась постройка в 1959 году на Балтийском заводе в Ленинграде первого в мире ледокола на ядерном топливе – атомохода «Ленин», который начал работать в Арктике в навигацию 1960 года.
По отзывам моряков, первые плавания «Ленина» в Арктике сразу же показали преимущества нового судна, его высокую ледопроходимость, автономность и замечательные маневренные качества даже в тяжелых условиях. В 1960 году «Ленин» стал флагманом морских транспортных операций на Северном морском пути.
Успешная многолетняя работа ледокола «Ленин» в Арктике, большой практический опыт, накопленный в процессе его эксплуатации, не только подтвердили целесообразность использования атомных энергетических установок на ледокольных и транспортных судах, но и доказали необходимость пополнения флота еще более мощными ледоколами для обеспечения постоянно растущего объема перевозок на Северном морском пути. В 1974 и 1977 годах со стапелей финской компании «Вяртсиля» сошли советские атомные ледоколы второго поколения – «Арктика» и «Сибирь», мощностью по 75000 лошадиных сил каждый.
Знаменитый полярный капитан, Герой Социалистического Труда Ю.С. Кучиев в январе 1972 года приступил к своим обязанностям на строящейся «Арктике». Тогда же ему стало известно, что новый «Ермак» оборудуют системой пневмообмыва корпуса, и Кучиев предложил оснастить ею и «Арктику», но не получил поддержки. Кстати, это устройство изобрел в 1966 году советский инженер Л.И. Уваров, через год такое же запатентовали и финны. Суть его заключается в том, что в район ватерлинии под давлением подается воздух, уменьшающий трение корпуса о лед. И действительно, эта идея оправдывается летом, при положительных температурах наружного воздуха. А зимой? Корпус ледокола находится в крошеве изо льда и снега. Если его обработать еще холодным воздухом, то оно превратится в солидную ледяную «бороду», которая намертво схватывается с обшивкой и так быстро нарастает, что способна даже остановить судно. При попытках усовершенствовать систему пневмообмыва предлагали к ватерлинии подавать отработанный пар, которого на атомоходе предостаточно, однако расход котельной воды оказался бы чрезмерным. Правда, потом появилась идея разогревать борт в том же месте тем же паром изнутри, после чего конденсировать его в холодильнике, – увы, она не была доработана.
Ледокол «Арктика» предназначен для проводки судов в ледовых условиях Арктики с выполнением всех видов ледокольных работ. Этот ледокол имеет высокие борта, четыре палубы и две платформы, бак и пятиярусную надстройку, а в качестве движителей используются три четырехлопастных гребных винта фиксированного шага.
Длина ледокола – 136 метров, ширина – 30 метров, водоизмещение – 23460 тонн, а осадка – 11,4 метра. Атомная паропроизводительная установка размещена в специальном отсеке в средней части ледокола. Ее мощность – 75000 лошадиных сил. Она позволяет развить «Арктике» скорость в 33 километра в час.
Корпус ледокола сделан из высокопрочной стали. В местах, подверженных наибольшему воздействию ледовых нагрузок, корпус усилен ледовым поясом.
На ледоколе имеются дифферентная и креновая системы. Буксирные операции обеспечивает кормовая электрическая буксирная лебедка. Для ведения ледовой разведки на ледоколе базируется вертолет. Контроль и управление техническими средствами энергетической установки ведутся автоматически, без постоянной вахты в машинных отделениях, помещениях гребных электродвигателей, электростанциях и у распределительных щитов. Контроль за работой и управление энергетической установкой осуществляются из центрального поста управления, дополнительное управление гребными электродвигателями выведено в ходовую рубку и кормовой пост.
Ходовая рубка – центр управления судном. На атомоходе она расположена в верхнем этаже надстройки, откуда открывается больший обзор. Ходовая рубка вытянута поперек судна – от борта до борта метров на 25, ширина ее – около 5 метров. На передней и боковых стенках почти сплошь располагаются большие прямоугольные иллюминаторы.
Внутри рубки только самое необходимое. Вблизи бортов и посередине располагаются три одинаковых пульта, на которых находятся ручки управления движением судна, индикаторы работы трех винтов ледокола и положения руля, курсоуказатели и другие датчики, а также кнопки заполнения и осушения балластных цистерн и огромная тифонная кнопка для подачи звукового сигнала. Вблизи пульта управления левого борта располагается штурманский стол, у центрального – рулевой штурвал, у пульта правого борта – гидрологический стол; около штурманского и гидрологического столов установлены тумбы радиолокаторов кругового обзора.
Государственный флаг на «Арктике» подняли 25 апреля 1975 года на рейде Таллина. В начале июня атомоход провел по Северному морскому пути на восток дизель-электрический ледокол «Адмирал Макаров». В октябре 1976 года вырвал из ледового плена ледокол «Ермак» с сухогрузом «Капитан Мышевский», а также ледокол «Ленинград» с транспортом «Челюскин». Пришедший на смену Кучиеву капитан А.А. Ламехов назвал те дни «звездным часом» нового атомохода. Но, наверное, настоящим «звездным часом» для ледокола стало покорение Северного полюса.
Исследовать Северный Ледовитый океан с мощного ледокола предлагал адмирал С.О. Макаров. В 1899 году построенный по его проекту «Ермак» совершил два полярных похода. «Ни один корабль не отваживался входить во льды, в то время как «Ермак» свободно прогуливался по льдам к северу от Семи островов», – писал Степан Осипович.
В 1909 году в России начали работать ледокольные транспорты специальной конструкции «Таймыр» и «Вайгач», оснащенные всем необходимым для научных работ. В 1910—1915 годы они совершили ряд экспедиций по трассе будущего Северного морского пути, во время которых был открыт архипелаг Северная Земля.
В 1930—1940-е годы, когда в Советском Союзе началось освоение Крайнего Севера и Дальнего Востока, тем, кто изучал арктические моря, предоставляли хорошо приспособленные для полярных акваторий ледокольные пароходы, например, «Г. Седов», ледорез «Ф. Литке», а то и ледоколы, если те не были заняты проводкой караванов. В 1934—1937 годах в Ленинграде построили гидрографические суда ледового класса «Мурман», «Океан» и «Охотск». Это были первые в мире научно-исследовательские суда, рассчитанные на длительные плавания на Севере.
После Второй мировой войны основательное изучение Арктики начали и другие страны. Так, в 1953—1955 годах на верфи «Ингалл» для военного флота США построили «Глесьер». В основе его проекта были серийные ледоколы типа «Уинд», но водоизмещение увеличили до 8700 тонн. Силовая установка мощностью 21000 лошадиных сил состояла из десяти дизелей, работавших на генераторы, а те подавали напряжение на два электродвигателя «Вестингауз», вращавших гребные винты. До появления советского атомохода «Ленин» американский ледокол считался самым мощным в мире.
Но никто, кроме «Арктики», не решился покорить Северный полюс. В августе 1977 года ледокол отправился в свой знаменитый поход.
О нем написали в своей книге участники экспедиции В.А. Спичкин и В.А. Шамонтьев: «Многолетний сибирский – ледокол форсирует напролом, скорость его продвижения, конечно, невелика, но зато сам ход необычайно красив. Как известно, ледокол разрушает прочный лед не ударом форштевня, а, продавливая его своей массой: чем прочнее лед, тем большая часть ледокола должна всползти на него, чтобы вызвать разрушение. При этом место разломов льда смещается от носовой части к середине судна. При разрушении очень прочного льда места ломки смещаются настолько далеко от форштевня, что они даже не просматриваются из передних иллюминаторов ходовой рубки. Это создает фантастическое впечатление, будто весь огромный атомоход скользит по льду, как аэросани. Это тихое плавное продвижение, когда перед носом судна не видно ни трещины, ни ломающегося льда, ни фонтана ледяных брызг, делает эффект скольжения столь реальным, что, кажется, за кормой ледокола не должно быть обычного канала. Но взгляд назад, за корму, где по-прежнему темнеет широкая дорога чистой воды, убеждает, что ледокол не скользит, а крушит эти поля многолетнего льда. Возле средней части ледокола дыбятся стотонные глыбы раздавленного льда».
«Арктику» спроектировало центральное конструкторского бюро «Айсберг», организованное в Ленинграде в 1947 году. На его счету также такие этапные суда, как атомный ледокол «Ленин», дизель-электроход «Добрыня Никитич», транспорты «Амгуэма». А в начале 1990-х годов там спроектировали двухвальный ледокол ЛК-110Я с двумя реакторами. Общая мощность силовой установки составила бы не менее 110 МВт, водоизмещение – 55000 тонн, длина – 200 метров, ширина – 36 метров, осадка – 13 метров. Такие «лидеры» могли бы круглогодично трудиться в Северном Ледовитом океане, прокладывая путь караванам в любых условиях.
История световой связи началась еще в доисторические времена, когда дозорные сигнальными кострами предупреждали своих о приближении врага. В начале XIX столетия Наполеон вложил немало средств в «зеркальный телеграф» вдоль побережья Атлантики. Таким образом, император хотел получать оперативную информацию о нарушителях «континентальной блокады», чтобы беспощадно карать этих пособников англичан.
Но изобретение радиосвязи, казалось, похоронило саму идею световой связи. Однако постепенно выяснилось, что при всех достоинствах традиционных видов связи каждому из них присущ и целый ряд недостатков, которые становятся все более чувствительными по мере нарастания объемов передаваемой информации. Несмотря на новейшие технологии, позволяющие значительно уплотнить передаваемую по кабелю информацию, магистральные телефонные линии все равно часто оказываются перегруженными. Примерно то же можно сказать о радио и телевидении, в которых информационные сигналы переносятся с помощью электромагнитных волн: все возрастающее количество телеканалов и радиостанций, вещательных и служебных, привело к возникновению помех, к ситуации, получившей название «тесноты в эфире». Это стало одним из толчков к освоению все более коротковолновых диапазонов радиоволн.
Еще один недостаток традиционных видов связи состоит в том, что для передачи информации вообще невыгодно пользоваться волнами, излучаемыми в свободное пространство. Ведь энергия, приходящаяся на какую-то определенную площадь фронта такой волны, убывает по мере увеличения фронта волны. Для сферической волны, то есть такой, которая распространяется равномерно во все стороны от источника, ослабление обратно пропорционально квадрату расстояния от источника волны до приемника.
Эра современной оптической связи началась в 1960 году после создания первого лазера. Изобретение лазеров вообще породило надежду на быстрое и легкое преодоление проблем «эфирной тесноты» Появилась надежда на то, что использование микронных волн видимого света для нужд связи вместо сантиметровых и миллиметровых радиоволн позволит почти беспредельно расширить объемы передаваемой информации.
Увы, уже первые опыты развеяли радужные иллюзии. Выяснилось, что земная атмосфера очень активно поглощает и рассеивает оптическое излучение. А потому лазеры могут использоваться для нужд связи лишь на очень небольшом расстоянии: в среднем не более километра.
Так обстояли дела до тех пор, пока в 1966 году двое японских ученых Као и Хокэма не предложили использовать для передачи светового сигнала длинные стеклянные волокна, подобные тем, которые уже использовались в эндоскопии и других областях.
Согласно законам оптики, если направить световой луч из более плотной среды в менее плотную, то значительная часть его отражается обратно от границы двух сред. При этом, чем меньше угол падения луча, тем большая часть светового потока окажется отраженной. Путем эксперимента можно подобрать такой пологий угол, при котором отражается весь свет и лишь ничтожная его часть попадает из более плотной среды в менее плотную. Свет при этом оказывается словно заключенным в плотной среде и распространяется в ней, повторяя все ее изгибы. Лучи, идущие под малым углом к границе двух сред, полностью отражаются от нее. Таким образом, оболочка прочно удерживает их, обеспечивая светонепроницаемый канал для передачи сигнала практически со скоростью света.
Будь световод идеальным, изготовленным из абсолютно прозрачного и однородного материала, световые волны должны распространяться не ослабевая. На самом деле практически все реальные световоды достаточно сильно поглощают и рассеивают электромагнитные волны из-за своей непрозрачности и неоднородности.
Понадобилось целое десятилетие для того, чтобы создать лабораторные образцы волоконных световодов, способных передать на один километр один процент введенной в них мощности света. Следующей задачей было изготовить из такого волокна световодный кабель, пригодный для практического применения, разработать источники и приемники излучения.
Радикальное изменение ситуации было связано с созданием двухслойных световодов. Такие световоды состояли из световодной жилы, заключенной в прозрачную оболочку, показатель преломления которой был меньше, чем показатель преломления жилы. Если толщина прозрачной оболочки превосходит несколько длин волн передаваемого светового сигнала, то ни пыль, ни свойства среды вне этой оболочки не оказывают существенного влияния на процесс распространения световой волны в двухслойном световоде. Подобные световоды можно покрывать полимерной оболочкой и превращать их в световедущий кабель, пригодный для практического применения. Но для этого необходимо создать совершенную границу между жилой и прозрачной оболочкой. Наиболее простая технология изготовления световода состоит в том, что стеклянный стержень-сердцевина вставляется в плотно подогнанную стеклянную трубку с меньшим показателем преломления. Затем эта конструкция нагревается.
В 1970 году фирма «Корнинг гласс» впервые разработала стеклянные световоды, пригодные для передачи светового сигнала на большие расстояния. А к середине 1970-х годов были созданы световоды из сверхчистого кварцевого стекла, интенсивность света в которых уменьшалась вдвое лишь на расстоянии шести километров.
Кроме световода волоконно-оптическая система связи включает в себя блок оптического передатчика (в котором электрические сигналы, поступающие на вход системы, преобразуются в оптические импульсы) и блок оптического приемника (принимающего оптические сигналы и преобразующего их в электрические импульсы). Если линия имеет большую протяженность, на ней действуют также ретрансляторы – они принимают и усиливают передаваемые сигналы. В устройствах для ввода излучения в волоконные световоды широко применяются линзы, которые имеют очень маленький диаметр и фокусное расстояние порядка сотен и десятков микрон. Источники излучения могут быть двух типов: лазеры и светоизлучающие диоды, которые работают как генераторы несущей волны. Передаваемый сигнал модулируется и накладывается на несущую волну точно так же, как это происходит в радиотехнике.
В марте 2000 года исполнилось 70 лет академику Жоресу Алферову. В этом же году Алферов получил Нобелевскую премию. Именно благодаря российскому ученому, создавшему в 1967 году первые полупроводниковые гетеролазеры, работоспособные при комнатной температуре, стали явью две важнейшие информационные технологии: лазерные диски памяти и волоконно-оптические линии связи. Ведь без передатчика световоду ничего не передашь.
Самый эффективный способ передачи – в цифровом виде. При этом опять-таки совершенно неважно, какая информация передается таким образом: телефонный разговор, печатный текст, музыка, телевизионная передача или изображение картины. Первым шагом для преобразования сигнала в цифровую форму является определение его значений через интервалы времени – этот процесс называется дискретизацией сигнала по времени.
Выяснилось, что если временной интервал по крайней мере в два раза меньше наивысшей частоты, содержащейся в спектре передаваемого сигнала, то этот сигнал может быть в дальнейшем восстановлен из дискретной формы без всяких искажений. То есть вместо непрерывного сигнала без ущерба для передаваемой информации можно подавать набор очень коротких импульсов, отличающихся друг от друга только амплитудой.
Поскольку все они имеют одинаковый вид и сдвинуты друг относительно друга на один и тот же временный интервал, то можно передавать не весь сигнал, а лишь значение его амплитуды. То есть значение каждого импульса можно интерпретировать как число в двоичном коде. Значение этого числа и передается по линии связи. Поскольку для передачи каждого двоичного числа необходимы всего две цифры – 0 и 1, то задача очень упрощается: 0 соответствует отсутствию сигнала, а 1 – его наличию. Восстановление переданного сигнала происходит в обратном порядке. Подача сигнала в цифровом виде очень удобна, так как фактически исключает всякие искажения и помехи.
Достоинства и преимущества ВОЛС очевидны. Прежде всего, волоконно-оптические кабели очень устойчивы к помехам и имеют малый вес. Но самое важное их достоинство состоит в том, что они имеют огромную пропускную способность – в единицу времени через них можно пропускать такие громадные объемы информации, какие невозможно передать ни одним из известных сейчас способов связи.
В 1988 году была введена в действие первая трансатлантическая ВОЛС ТАТ-8. К 1998 году ее пропускную способность довели до 600000 одновременных телефонных разговоров против 36 у первой проводной линии, проложенной там же в 1956 году.
В 2000 году введена в эксплуатацию волоконно-оптическая линия связи «Москва – Санкт-Петербург – Стокгольм», давшая России еще один доступ в Интернет. «Огромную пропускную способность нового канала, – пишет в журнале «Эхо планеты» Юрий Носов, – (2,4 Гбит/с, то есть по миллиону простых "электронных писем" ежеминутно) провайдерам еще предстоит "переварить", а в кулуарах симпозиума лишь снисходительное пожимание плечами: "Всего-то?" Ученых понять можно: только что им был представлен новый созданный в Физтехе лазер, с которым, по утверждению докладчика, вполне достижима «терабитная» скорость передачи информации (напомним, 1 Тбит = 1000 Гбит, так что речь ведется об увеличении пропускной способности в сотни раз!). Это достигается не только повышением быстродействия лазера, но и использованием технологии так называемого волнового (или спектрального) уплотнения. Технология основана на том, что по одному волокну передаются одновременно несколько десятков различных световых потоков.
Заметим, однако, что специалистов все это не очень-то волнует, и вот почему. Во-первых, о возможности достижения «терабитной» скорости было заявлено еще лет 10 тому назад, а во-вторых, сами дальние, или магистральные, линии уже не в фокусе всеобщего интереса. Их напрокладывали столько, что в США, например, от любого дома до ближайшей магистрали не более десятка-другого километров. Поэтому внимание переключается на то, с чего все и начиналось, – на локальные сети, на короткие и очень короткие ВОЛС. Только теперь это будет доведено до абсолюта – оптоволокно в каждый дом! Полная «цифровизация» информации станет явью, и главная проблема, которую теперь предстоит решить ученым и технологам – это создание экономичного, сверхнадежного и очень дешевого, «народного» лазера».
Число пользователей ВОЛС в системе Интернет превысило миллиард человек. И можно смело утверждать, что без волоконно-оптических линий связи сегодня не было бы и Интернета. Большая часть того, о чем здесь говорилось, будет реализовано в ближайшие годы, по крайней мере, в развитых странах. Но исследования в области ВОЛС продолжаются.
Юрий Носов пишет: «Связь по волокну называют оптической, а не световой (хотя волокна нередко называют световодами или светопроводами), и вот почему. Еще в самом начале исследований было установлено, что, чем короче длина волны света, тем сильнее он поглощается в волокне. Поэтому, начав с «красного» света и не получив удовлетворительных результатов, перешли «за» красный, в область невидимого инфракрасного излучения, но, как и свет, относящегося к оптическому, и вскоре остановились на излучении с длиной волны около 1,5 мкм (микронов). Под такой диапазон разработали специальные гетеролазеры, именно на них и основываются современные ВОЛС. Если инфракрасный луч проходит в волокне с небольшим затуханием 10 км, то красный свет (длина волны 0,65 мкм) пройдет лишь 0,5 км, а синий (0,43 мкм) и вообще меньше 50 м.
А что если пойти еще дальше в инфракрасную область? Оказалось, там потери излучения опять возрастают – таковы особенности кварца. Но ведь на кварце свет клином не сошелся. И действительно, синтезировали такие составы, которые почти без поглощения могут пропустить излучение на 1000 км! Но для этого надо перейти к длинам волн около 3 мкм, а это фактически уже область теплового излучения. И если бы удалось создать волокна и лазеры на этот диапазон длин волн, то можно было бы не гнать горячую воду от ТЭЦ, а передавать «сухое» тепло по волокнам прямо в квартиры, при этом практически без потерь и без осточертевших зимних аварий из-за разрыва труб. Это вам не ВОЛС с виртуальным миром их потоков информации, это уже "совсем другое кино". Посмотрим ли мы его?»
С помощью приемника GPS определяется не только местоположение движущегося объекта, но и скорость его движения, пройденное расстояние, рассчитываются расстояние, и направление до намеченного пункта, время прибытия и отклонения от заданного курса.
Сегодня уже очевидно: в первом десятилетии нового тысячелетия спутниковые системы навигации станут основными средствами местоопределения для наземных, воздушных и морских объектов. Ведь при современной технологии приемники GPS имеют малые размеры, надежны и дешевы, так что они становятся все более доступными для рядового покупателя.
Сначала появилась Система космической радионавигации НАВСТАР (NAVSTAR). Навигационная система на основе временных и дальномерных измерений в США создавалась в первую очередь для координатно-временного обеспечения войск и военной техники.
Первый американский навигационный спутник был запущен в феврале 1978 года, а активное внедрение спутниковых навигационных методов в гражданскую жизнь началось позднее. До 1983 года навигационная система использовалась исключительно военными. Однако, после того как над Татарским проливом был сбит «Боинг-747», систему открыли для гражданского использования. Тогда, собственно, и появилась аббревиатура GPS (Global Positioning System) – Система глобального позиционирования. Термин «позиционирование» – более широкий по отношению к термину «определение местоположения». Позиционирование помимо определения координат включает в себя и определение вектора скорости движущегося объекта.
Правительство США затратило на создание этой системы более десяти миллиардов долларов и продолжает тратить средства на ее дальнейшее развитие и поддержку.
Спутниковая навигационная система вместо геодезических знаков и радиомаяков использует спутники, излучающие специальные сигналы. Текущее местоположение спутников на орбите хорошо известно. Спутники постоянно передают информацию о своем местоположении. Расстояние до них определяется путем измерения промежутка времени, который требуется радиосигналу, чтобы дойти от спутника до радиоприемника, и умножением его на скорость распространения электромагнитной волны. В результате синхронизации часов спутников, в которых используются атомные эталонные генераторы частоты, и приемников обеспечивается точное измерение расстояний до спутников.
«Для вычисления координат места на Земле, – пишет в журнале «Радио» В. Курышев, – необходимо знать расстояния до спутников и местонахождение каждого из них в космическом пространстве. Спутники GPS находятся на высоких орбитах (20000 км), и их координаты можно прогнозировать с большой точностью. Станции слежения министерства обороны США регулярно определяют даже самые незначительные изменения в орбитах, и эти данные передают на спутники. Измеренные расстояния до спутников называются псевдодальностями, так как в их определении присутствует некоторая неопределенность. Дело в том, что ионосфера и тропосфера Земли вызывают задержки спутниковых сигналов, внося погрешность в расчет расстояния. Есть и другие источники ошибок – в частности, вычислительные погрешности бортовых компьютеров, электрические шумы приемников, многолучевость распространения радиоволн. Неудачное взаимное расположение спутников на небосводе также может привести к соответствующему увеличению суммарной погрешности местоопределения.
Для определения расстояний спутники и приемники генерируют сложные двоичные кодовые последовательности, называемые псевдослучайным кодом. Определение времени распространения сигнала осуществляется путем сравнения запаздывания псевдослучайного кода спутника по отношению к такому же коду приемника. Каждый спутник имеет определенные, свои собственные два псевдослучайных кода. Чтобы различить дальномерные коды и информационные сообщения разных спутников, в приемнике производится вызов соответствующих кодов. Псевдослучайные дальномерные коды и информационные сообщения спутников пускают передачу сообщений со спутников одновременно, на одной частоте, без взаимных помех. Мощность излучения спутников и взаимовлияние сигналов от спутников незначительно.
Точность измерений можно повысить, если использовать дифференциальные измерения. Опорная наземная станция с точно известными геодезическими координатами вычисляет разность между координатами с его приемника и ее фактическими координатами. Разность в форме поправки передается потребителям по радиоканалам для коррекции показаний приемников. Эти поправки устраняют значительную часть ошибок в измерениях расстояний и местоопределения. Расчет координат в приеме в индикатор выполняется автоматически и предоставляется возможность использовать информацию в удобной картографической форме».
GPS состоит из 3 сегментов: космического, сегмента контроля и пользовательского сегмента.
Космический сегмент состоит из 24-х спутников, которые находятся на 6 орбитах (по четыре на каждой) на высоте примерно 20350 километров. В настоящее время в работе находятся 28 спутников. «Лишние» спутники используются для страховки и замены выходящих из строя сателлитов.
Сегмент контроля – это станции наблюдения, расположенные в нескольких точках земного шара, и главная контрольная станция. Ведущая станция расположена в объединенном центре управления космическими системами военного назначения в городе Колорадо-Спрингс. Центр собирает и обрабатывает данные со станций слежения, вычисляет и предсказывает эфемериды спутников, а также параметры хода часов. Станции наблюдения следят за спутниками, записывая всю информацию об их движении, которая передается на главную командную станцию для корректировки орбит и навигационной информации.
Пользовательский сегмент включает оборудование пользователей, позволяющее определять координаты, скорость и время.
Основной потребитель информации системы GPS – министерство обороны США. Приемники системы GPS введены на всех боевых и транспортных самолетах и кораблях, а также в системы наведения высокоточных крылатых ракет и в системы наведения новых управляемых авиабомб США. Это означает, что американские военные могут планировать нанесение высокоточных ракетных ударов с расстояния тысяча километров не только по зданиям и сооружениям, но и в определенное окно. Причем эти удары могут быть нанесены с подводных лодок и с воздуха.
Подобная система есть и в России: в ответ на создание американцами НАВСТАР, в СССР была создана собственная глобальная навигационная спутниковая система – ГЛОНАСС.
Первый отечественный навигационный спутник «Космос-192» был выведен на орбиту 27 ноября 1967 года, а в 1979 году была создана навигационная система первого поколения «Цикада», в составе которой было 4 низкоорбитальных спутника. Затем, в 1982 году, были запущены первые спутники новой системы навигации ГЛОНАСС. До штатного же состояния количество спутников ГЛОНАСС было доведено в 1996 году.
Спутники ГЛОНАСС находятся на высоте примерно 19100 километров. В отличие от спутников НАВСТАР спутники ГЛОНАСС размещены на трех орбитах, соответственно по 8 спутников на каждой. Период обращения спутников – 11 часов 15 минут.
Так же как и GPS, ГЛОНАСС используется как военными, так и гражданскими пользователями. Однако и тех и других пользователей у системы не так много: фактически она не развивается с 1998 года. С каждым годом группировка спутников уменьшается. Причина банальна и, можно сказать, стандартна для большинства отечественных разработок: у государства нет денег, а законодательная база, регулирующая использование систем спутниковой навигации в России, не позволяет системе развиваться за счет гражданских потребителей.
Перспективы развития ГЛОНАСС зависят от позиции государства. Ему предстоит решить, открывать ли эту систему навигации для широкого круга потребителей или нет. Российские ученые направили в феврале 2000 года Владимиру Путину (тогда еще исполнявшему обязанности президента России) открытое письмо, в котором изложили свой вариант развития ГЛОНАСС: «Чтобы предотвратить утечку средств у физических лиц в казну США и Европы и постоянно поддерживать свою космическую программу, России необходимо: во-первых, в срочном порядке снять неоправданные режимные ограничения на использование бытовых спутниковых приемников определения координат; во-вторых правительственным постановлением декретировать отечественную общеземную геодезическую систему координат "Параметры Земли 1990 года" (ПЗ-90) и спутниковую навигационную систему ГЛОНАСС для массового применения во всем пространстве России и стран мирового сообщества…» Пока что президент не принял никакого решения.
В отличие от российской системы, GPS постоянно развивалась в сторону открытости для гражданских потребителей. До 1 мая 2000 года доступ в GPS для них был выборочным, что ухудшало точность определения местоположения до сотен метров. При этом точность для военных составляла 5-20 метров. Однако 1 мая президент Клинтон объявил о прекращении снижения точности GPS-сигналов для гражданских пользователей. «Это будет означать, что гражданские потребители GPS будут способны определять точечное положение в 10 раз более точно, чем в настоящее время», – заявил он.
Зачем это нужно правительству США и что это даст системе навигации? Судите сами: согласно справке пресс-службы президента США, в 2000 году во всем мире насчитывалось более 4 миллионов пользователей GPS, а к 2003 году объем рынка этой системы навигации вырастет вдвое – с 8 до 16 миллиардов долларов. Надо ли объяснять, что на эти деньги систему можно не только поддерживать, но и развивать? США уже планируют вывести на орбиту 18 дополнительных спутников, что улучшит работу GPS.
Стандартным возражением на открытость систем навигации в России всегда были интересы безопасности. Военные опасались, что если сделать систему навигации доступной для всех, то она может быть использована внешними и внутренними врагами против государства. Однако это объяснение довольно слабое: США, сделав GPS доступной для всех, отнюдь не повредили собственной безопасности, оставив за собой право «регионального снижения точности» сигнала. На деле это означает, что в случае конфликта с той или иной страной американские военные смогут ухудшить точность показаний GPS-приемников, используемых противником, или отключить их вовсе. Так что, пока все мирно – можно получать с пользователей GPS деньги. Как только возникнут проблемы – их можно отключить.
Сегодня уже непросто даже перечислить все области применения этой навигационной системы. Как отмечает в журнале «Компьютер-пресс» Олег Татарников: «GPS-приемники встраивают в автомобили, сотовые телефоны и даже в наручные часы! Туристы используют карманные приемники для прокладывания маршрутов и четкого их прохождения. Охотники и рыболовы отмечают координаты заветных охотничьих и рыбных местечек, а автотуристы обмениваются маршрутами с указанием автозаправок.
Ничто не остановит победного шествия GPS. Приемники стремительно уменьшаются в размерах и дешевеют, прибор размером со спичечный коробок уже можно купить сегодня менее чем за 50 долларов; навигационные чипы встраиваются в часы и мобильные телефоны, становятся составной частью автомобильных сигнализаций, которые сами сообщают в полицию местонахождение угнанного автомобиля. В отличие от не получивших широкого применения радиосигнализаций подобная система не требует специальной сети пеленгационных станций – здесь используется обычная мобильная связь. Кроме того, водитель может нажатием одной кнопки подать сигнал о разбойном нападении или о ДТП. Другая кнопка вызывает "скорую помощь". В ближайшее время на рынке автоэлектроники ожидается появление целого "маршрутного пакета" – полноценной бортовой навигационной системы с электронными картами российских городов и регионов…
…Приемники GPS находят применение при решении самых разнообразных задач: геологи в реальном времени следят за малозаметным перемещением участков земной коры, спасатели определяют места катастроф, зоологи делают ошейники с портативными индикаторами и радиопередатчиками для изучения миграции животных, военные строят самонаводящиеся ракеты и бомбы, а экспедиция Национального географического общества США в прошлом году с сантиметровой точностью измерила высоту Эвереста».
В журнале «Компьютерра» появилось сообщение о выпуске одной из компаний GPS-чипов, предназначенных для имплантации в тело человека!
Как это часто случается, у навигационной системы обнаружилась масса других дополнительных полезных свойств. При помощи системы можно, например, определить сверхточное время, необходимое, скажем, в научных экспериментах, измерить развиваемую при ходьбе или беге скорость, преодолеваемое расстояние. GPS показывает максимальную и среднюю скорость движения на автомобиле и с его помощью, в частности, можно проверить правильность показаний спидометра и одометра.
Надо ли говорить, что навигация при помощи этой системы сильно упрощается. В результате среди профессиональных «навигаторов» на подходе целое поколение специалистов, не умеющих работать с классическими навигационными приборами.
Многочисленные элементы (устройства) компьютера, размещаемые в его системном блоке, можно подразделить всего на пять основных групп. Это центральный процессор, память, шина, блок электропитания и многочисленные аналого-цифровые и цифро-аналоговые преобразователи (АЦП и ЦАП).
Процессор напрямую соединен с элементами быстрой (оперативной) памяти. Ее еще называют оперативным запоминающим устройством (ОЗУ), или памятью произвольного доступа. При отключении электропитания компьютера она очищается, и все данные, находящиеся в ней, теряются.
В долговременной памяти данные сохраняются и после выключения компьютера. Чаще всего, она больше по объему, чем ОЗУ, хотя и не такая быстрая. Это жесткие, гибкие и оптические диски, магнитная лента и т д. По шине данные передаются между устройствами системного блока.
АЦП и ЦАП преобразуют информацию из аналоговой формы в цифровую: в наборы чисел, обычно двоичных, и обратно. АЦП и ЦАП называют контроллерами. Любой контроллер содержит микропроцессор, а значит, является компьютером, но только не универсальным, в каком сам установлен, а специализированным.
В микросхемах «запаяны» программы, которые выполняются при включении компьютера и как бы оживляют его, превращая множество соединенных проводками деталей в единое целое – в готовый к работе универсальный преобразователь информации.
Технология микропроцессоров уже приближается к фундаментальным ограничениям. Закон-прогноз Гордона Мура гласит, что плотность транзисторов в микросхеме удваивается каждые полтора года. Как ни удивительно, все последние двадцать лет он выполнялся. Однако, следуя этому закону, к 2010—2020 годам размеры транзистора должны уменьшиться до четырех-пяти атомов. Рассматриваются многие альтернативы.
К технологиям, способным экспоненциально увеличивать обрабатывающую мощность компьютеров, следует отнести молекулярные или атомные технологии; ДНК и другие биологические материалы; трехмерные технологии; технологии, основанные на фотонах вместо электронов, и, наконец, квантовые технологии, в которых используются элементарные частицы.
В XXI веке вычислительная техника сольется не только со средствами связи и машиностроением, но и с биологическими процессами, что откроет такие возможности, как создание искусственных имплантантов, интеллектуальных тканей, разумных машин, «живых» компьютеров и человеко-машинных гибридов.
Сегодня одно из перспективнейших направлений в микроэлектронике – нейрокомпьютеры. Их устройство, или архитектура, иная, чем у обычных вычислительных машин. Микросхемы близки по строению нейронным сетям человеческого мозга. Именно отсюда пошло и название.
Отсюда и особенности нейрокомпьютера. Он способен к обучению, а значит, ему под силу справиться с задачами, которые обычному компьютеру не под силу. Его главный козырь – решение задач без четкого алгоритма или с огромными потоками информации. Поэтому уже сегодня нейрокомпьютеры применяются на финансовых биржах, где помогают предсказывать колебания курса валют и акций. Понятно, что не остались в стороне и военные. Нейрокомпьютеры, распознавая образы, корректируют полет ракет по заданному маршруту.
При всем этом нейрокомпьютеры еще не слишком заметны на рынке компьютерной техники. Однако, по оценкам многих специалистов, а среди них и самый авторитетный – Билл Гейтс, уже через десять лет их доля вырастет до девяноста процентов.
Приятно, что одним из первых совершил прорыв в будущее российский НТЦ «Модуль», выйдя с разработанным им процессором на мировой рынок. Сегодня его приобретают законодатели компьютерной моды.
По сравнению с созданным россиянами нейропроцессором NM-6403 самые быстродействующие на сегодня системы, конкуренты «Интел» и «Тексас инструментс» отстали значительно. Их машины считают в десятки раз медленнее, зато стоят в десятки раз дороже. В чем же секрет российского центра?
«Причина – в принципиально новой архитектуре, – объяснил журналисту газеты «Известия» начальник сектора интегральных схем Дмитрий Фомин. – Скажем, если в обычном компьютере за один такт счета совершается не более 4 операций сложения, то в нашем – до 288. Кроме того, его «мозги» в каждый момент времени загружены полностью, не работают вхолостую, что происходит при традиционной архитектуре. В итоге один наш процессор может заменить сразу шесть американской фирмы "Тексас инструментс"».
К сожалению, в России не оказалось предприятия, способного изготовить столь сложную технику. Тогда «Модуль» разместил заказ в Южной Корее на «Самсунге». Но и эта известная фирма лишь с десятой попытки сумела удовлетворить требования россиян.
В результате сейчас впервые каждый желающий может купить серийную отечественную микроэлектронику, превосходящую мировой уровень. Процессор удостоен золотой медали на Всемирном салоне изобретений «Брюссель-Эврика». Один из лидеров компьютерного рынка, японская фирма «Фуджитцу» приобрела лицензию на производство процессора.
«Нас на рынке мало кто знает, – говорит директор «Модуля» Юрий Борисов. – Чтобы раскрутиться и продавать большие партии, нужны большие деньги. Их у нас нет, зато есть у "Фуджитцу". Мы будем получать доход с каждого изготовленного, подчеркиваю, а не проданного японцами изделия. Условия контракта очень выгодные. Этот процессор для нас – вчерашний день. Уже разработаны более совершенные варианты. Мы только приоткрыли дверь на мировой рынок сфере».
В 1996 году куратор Музея вычислительной техники в Великобритании Дорон Свейд написал статью с сенсационным заглавием: «Российская серия суперкомпьютеров БЭСМ, разрабатывавшаяся более чем 40 лет тому назад, может свидетельствовать о лжи Соединенных Штатов, объявлявших технологическое превосходство в течение лет холодной войны».
Действительно, середина 1960-х годов была звездным часом в истории советской вычислительной техники. В СССР тогда работало множество творческих коллективов – институты С.А. Лебедева, И.С. Брука, В.М. Глушкова и т д. Одновременно выпускалось множество различных типов машин, чаще всего несовместимых друг с другом, самого разнообразного назначения.
Созданная в 1965 году и выпущенная впервые в 1967 году БЭСМ-6 была оригинальным русским компьютером, спроектированным наравне со своим западным аналогом. Затем был знаменитый «Эльбрус», было развитие БЭСМ (Эльбрус-Б). В.М. Глушков создал замечательную Машину Инженерных Расчетов – «Мир-2» (прообраз персонального компьютера), не имеющую до сих пор западных аналогов.
Именно коллектив «Эльбруса» первым разработал суперскалярную архитектуру, построив основанную на ней машину «Эльбрус-1» на много лет раньше Запада. В этом коллективе на пару лет раньше, чем в фирме «Cray» – признанном лидере в производстве суперкомпьютеров, были реализованы идеи многопроцессорного компьютера.
Научный руководитель группы «Эльбрус», профессор, член-корреспондент РАН Борис Арташесович Бабаян считает, что наиболее существенное достижение группы – архитектура супермашины «Эльбрус-3». «Логическая скорость этой машины значительно выше, чем у всех существующих, то есть на том же оборудовании эта архитектура позволяет в несколько раз ускорить выполнение задачи. Аппаратную поддержку защищенного программирования мы реализовали впервые, на Западе ее еще даже и не пробовали. «Эльбрус-3» был построен в 1991 году. Он уже стоял у нас в институте готовый, мы начали его отладку. Западные фирмы столько говорили о возможности создания такой архитектуры… Технология была отвратительная, но архитектура была до того совершена, что эта машина была в два раза быстрее самой быстрой американской супермашины того времени Cray Y-MP».
Принципы защищенного программирования в настоящее время реализуются в концепции языка Java, а идеи, аналогичные идеям «Эльбруса», в настоящее время легли в основу разработанного фирмой «Intel» совместно с HP процессора нового поколения – Merced. «Если вы посмотрите Merced, это практически та же архитектура, что и в «Эльбрусе-3». Может быть, какие-то детали Merced отличаются, и не в лучшую сторону».
Итак, несмотря на всеобщую стагнацию, все еще можно было строить компьютеры и суперкомпьютеры. К сожалению, дальше с нашими компьютерами случилось то же самое, что служилось с российской промышленностью вообще. А ведь сегодня в число традиционных макроэкономических показателей (таких, как ВВП и золотовалютные запасы) настойчиво стремится попасть новый, экзотический на первый взгляд параметр – суммарная мощность компьютеров, которыми располагает страна. Наибольший удельный вес в этом показателе будут иметь суперкомпьютеры. Еще пятнадцать лет назад эти машины были уникальными монстрами, но теперь их производство поставлено на поток.
«Первоначально компьютер создавался для сложных вычислений, связанных с ядерными и ракетными исследованиями, – пишет в журнале «Компания» Аркадий Воловик. – Мало кто знает, что суперкомпьютеры помогли сохранить экологический баланс на планете: в годы "холодной войны" компьютеры моделировали изменения, происходящие в ядерных зарядах, и эти эксперименты позволили в итоге супердержавам отказаться от реальных испытаний атомного оружия. Так, мощный многопроцессорный компьютер Blue Pacific компании IBM используется именно для симуляции испытаний ядерного оружия. Успеху переговоров по прекращению ядерных испытаний на самом деле способствовали не дипломаты, а компьютерщики. «Compaq Computer Corp.» создает крупнейший в Европе суперкомпьютер на основе 2500 процессоров Alpha. Французская комиссия по ядерной энергии будет использовать суперкомпьютер, чтобы повысить безопасность французских арсеналов без проведения новых ядерных испытаний.
Не менее масштабные вычисления необходимы при проектировании авиационной техники. Моделирование параметров самолета требует огромных мощностей – например, для расчета поверхности самолета нужно вычислить параметры воздушного потока в каждой точке крыла и фюзеляжа, на каждом квадратном сантиметре. Иными словами, требуется решить уравнение для каждого квадратного сантиметра, а площадь поверхности самолета – десятки квадратных метров. При изменении геометрии поверхности все нужно пересчитывать заново. Причем эти расчеты должно быть сделаны быстро, иначе процесс проектирования затянется. Что касается космонавтики, то она началась не с полетов, а с расчетов. У суперкомпьютеров здесь огромное поле для применения».
В корпорации «Боинг» развернут суперкластер, разработанный компанией «Linux NetworX» и используемый для моделирования поведения топлива в ракете «Delta IV», которая предназначена для запуска спутников различного назначения. Из четырех взятых на рассмотрение кластерных архитектур «Боинг» выбрала кластер «Linux NetworX», поскольку он обеспечивает приемлемую стоимость эксплуатации, а по вычислительной мощности даже превосходит потребности проекта «Delta IV». Кластер состоит из 96 серверов, основанных на процессорах AMD Athlon 850 МГц, связанных между собой посредством высокоскоростных Ethernet-соединений.
В 2001 году корпорация IBM установит для министерства обороны США в Суперкомпьютерном центре на Гавайях 512-процессорный Linux-кластер вычислительной мощностью 478 миллиардов операций в секунду. Кроме Пентагона кластер будут использовать также другие федеральные ведомства и научные учреждения: в частности, кластер для прогнозирования скорости и направления распространения лесных пожаров. Система будет состоять из 256 тонких серверов IBM eServerx330, содержащих каждый по два процессора Pentium-III. Серверы будут связаны при помощи механизма кластеризации, разработанного компанией «Myricom».
Однако сфера применения суперкомпьютеров не ограничивается ВПК. Сегодня крупными заказчиками суперкомпьютеров являются биотехнологические компании.
«В рамках программы "Геном человека" IBM, – пишет Воловик, – получила заказ на создание компьютера с несколькими десятками тысяч процессоров. Впрочем, расшифровка генома человека не единственный пример использования компьютеров в биологии: создание новых медицинских препаратов сегодня возможно только с использованием мощных компьютеров. Поэтому фармацевтические гиганты вынуждены инвестировать значительные средства в вычислительную технику, образуя рынок для компаний "Hewlett-Packard", "Sun", "Compaq". Еще не так давно создание нового лекарства занимало 5-7 лет и требовало значительных финансовых затрат. Сегодня же лекарства моделируются на мощных компьютерах, которые не только «строят» препараты, но и оценивают их влияние на человека. Американские иммунологи создали препарат, способный бороться со 160 вирусами. Это лекарство было смоделировано на компьютере в течение полугода. Иной способ его создания потребовал бы нескольких лет работы».
А в Лос-Аламосской Национальной лаборатории всемирная эпидемия СПИДа была «прокручена» назад к ее истоку. Данные о копиях вируса СПИДа были заложены в суперкомпьютер, и это позволило определить время появления самого первого вируса – 1930 год.
В середине 1990-х годов образовался другой крупный рынок суперкомпьютеров. Этот рынок напрямую связан с развитием Интернета. Объем информации в Сети достиг невиданных размеров и продолжает увеличиваться. Причем информация в Интернете растет нелинейно. Наряду с увеличением объема данных меняется и форма их подачи – к тексту и рисункам прибавились музыка, видео, анимация. В результате возникли две проблемы – где хранить всевозрастающий объем данных и как сократить время поиска нужной информации.
Суперкомпьютеры применяются также во всех областях, где необходимо обработать большие объемы данных. Например, в банкинге, логистике, туризме, транспорте. Недавно «Compaq» заключила контракт с министерством энергетики США на поставку суперкомпьютеров ценой 200 миллионов долларов.
Хиронобу Сакагучи, президент компании «Square», производящей компьютерные игры, говорит: «Сегодня мы готовим фильм по мотивам своих игр. Square «обсчитывает» один кадр из фильма за 5 часов. На GCube эта операция занимает 1/30 секунды». Таким образом, на новый уровень выходит процесс медиа-производства: сокращается время работы над продуктом, существенно снижается стоимость фильма или игры.
Высокий уровень конкуренции заставляет игроков снижать цены на суперкомпьютеры. Один из методов снижения цены – использование в них множества стандартных процессоров. Это решение изобрели сразу несколько «игроков» рынка больших компьютеров. В результате к удовольствию покупателей на рынке появились серийные относительно недорогие серверы.
Действительно, проще разделить громоздкие вычисления на мелкие части и поручить выполнение каждой такой части отдельному недорогому серийно выпускаемому процессору. Например, ASCI Red фирмы «Intel», еще недавно занимавший первую строку в таблице TOP500 самых быстродействующих компьютеров мира, состоит из 9632 обычных процессоров Pentium. Другим важным преимуществом такой архитектуры является ее наращиваемость: путем простого увеличения числа процессоров можно поднять производительность системы. Правда, с некоторыми оговорками: во-первых, с увеличением числа отдельных вычислительных узлов производительность растет не в прямой пропорции, а несколько медленнее, часть времени неизбежно расходуется на организацию взаимодействия процессоров между собой, а во-вторых – значительно возрастает сложность программного обеспечения. Но эти проблемы успешно решаются, а сама идея «параллельных вычислений» развивается уже не первый десяток лет
«В начале девяностых годов возникла новая мысль, – пишет в «Известиях» Юрий Ревич, – которая получила название мета-компьютинга, или "распределенных вычислений". При такой организации процесса отдельные вычислительные узлы уже конструктивно не объединены в один общий корпус, а представляют собой отдельные самостоятельные компьютеры. Первоначально имелось в виду объединять в единый вычислительный комплекс компьютеры разного уровня, например, предварительная обработка данных могла производиться на пользовательской рабочей станции, основное моделирование – на векторно-конвейерном суперкомпьютере, решение больших систем линейных уравнений – на массивно-параллельной системе, а визуализация результатов – на специальной графической станции. Связанные высокоскоростными каналами связи отдельные станции могут быть и одного ранга, именно так устроен занявший теперь первую строку в TOP500 суперкомпьютер ASCI White фирмы IBM, который состоит из 512 отдельных серверов RS/6000 (компьютер, обыгравший Каспарова). Но настоящий размах идея «распределения» приобрела с распространением Интернета. Хотя каналы связи между отдельными узлами в такой сети трудно назвать быстродействующими, зато самих узлов можно набрать практически неограниченное количество: любой компьютер в любом районе мира можно привлечь к выполнению задачи, поставленной на противоположном конце земного шара».
Впервые широкая публика заговорила о «распределенных вычислениях» в связи с феноменальным успехом проекта поиска внеземных цивилизаций SETI@Home. 1,5 миллиона добровольцев, расходующих за свои деньги по ночам электроэнергию на благородное дело нахождения контакта с инопланетянами, обеспечивают вычислительную мощность 8 Тфлопс, что только немного отстает от рекордсмена – упоминавшийся суперкомпьютер ASCI White развивает «скорость» 12 Тфлопс. По признанию директора проекта Дэвида Андерсона, «одиночный суперкомпьютер, равный по мощности нашему проекту, стоил бы 100 миллионов долларов, а мы создали это практически из ничего».
Эффектно продемонстрировал возможности распределенных вычислений молодой студент-математик из США Колин Персиваль. За 2,5 года он с помощью 1742 добровольцев из пятидесяти стран мира установил сразу три рекорда в специфическом соревновании, целью которого является определение новых последовательных цифр числа «пи». Ранее ему удалось вычислить пяти– и сорокатриллионный знак после запятой, а в последний раз ему удалось установить, какая цифра стоит на квадриллионной позиции.