Вообще–то о достижениях микроэлектроники стоило бы написать отдельную книгу. Но поскольку мы не можем миновать эту отрасль современной науки и техники и в книге о компьютерах, придется ограничиться отдельной главой.
В начале книги мы уже говорили о том, что вычислительные устройства, а потом и компьютеры, становились все более быстродействующими и даже сообразительными, по мере того как менялась элементная база и на смену зубчатым колесам пришли сначала реле, а потом электронные лампы и транзисторы. Ну, а что дальше?..
...Вы когда–нибудь заглядывали внутрь своих электронных часов? В них уже нет привычного набора пружин, и шестеренок. Главную часть «механизма» составляет небольшая – с ноготь мизинца – коробочка, ощетинившаяся десятком проводков–выводов. Раскрыть такую коробочку – задача довольно трудная – крышка герметичная. Но даже если вам и удастся сделать это, вы толком ничего не увидите. Там находится лишь тоненькая пластинка величиной в клеточку тетрадки, на страницах которой вы решаете школьные задачи.
И лишь когда мы положим пластинку под зоркое око микроскопа, нашим глазам откроется картина удивительная. Оказывается, поверхность пластинки испещрена тончайшим хитроумным узором, по сравнению с которым едва заметный рисунок на коже пальцев кажется столь же грубым, как забор, покрашенный друзьями Тома Сойера, по сравнению с акварелью талантливого мастера.
Узор под микроскопом и есть интегральная схема. Несколько тысяч элементов – транзисторов, резисторов, конденсаторов – уместились на пленочке размером 5x5 миллиметров. Разве это не чудо?!
Нет, не чудо.
Обычное рядовое изделие современной полупроводниковой технологии. Такие чудеса творятся сегодня сотнями тысяч за смену.
Чтобы увидеть, как они делаются, нам придется для начала отправиться... в парикмахерскую. Здесь нам сделают прическу покороче, чтобы волосы молено было упрятать под стерильную шапочку. Придется каждому из нас надеть также и стерильный халат из литых капроновых нитей, которые не теряют мельчайших летучих пушинок, как обычная ткань. На ноги мы наденем полиэтиленовые бахилы, наподобие тех, которыми пользуются хирурги в операционных.
Да–да, не удивляйтесь, на заводе микроэлектронных изделий почти такая же чистота, как в клинике. Здесь в умывальниках стоят хирургические краны, закрываемые локтем, а руки моют гораздо тщательнее после обеда, чем перед ним. Потому что иначе нельзя. Если на изделие в процессе изготовления попадет хотя бы одна посторонняя пылинка или вирус – пиши пропало, заготовка безнадежно испорчена.
И вот, наконец, пройдя двойные двери, мы оказываемся внутри цеха из мрамора и стекла – материалов, к которым меньше всего прилипает пыль. Но особая чистота еще пе здесь, она внутри своеобразных «скафандров», которыми прикрыты технологические линии. Именно там, внутри, в атмосфере чистейшего инертного газа, практически бесшумно делают свое дело умные автоматы.
Но прежде чем они начали самую первую операцию, как следует поработали люди. После того как на макетах из «больших», то есть обычных по размерам, деталей была окончательно отработана конструкция будущего электронного устройства, специалисты по микроэлектронике приступили к разработке пространственной структуры будущей микросхемы. На больших ватманских листах они создали чертеж пленки со всеми ее «деталями» – теми самыми зонами, островками, дорожками, которые впоследствии станут микротранзисторами, микросопротивлсниями, микропроводниками.
Ну а дальше начинаются странствования по стране лилипутов. Примерно метрового размера оригинал переснимают на фотопленку с большим уменьшением. Таким образом получают очень четкую маленькую маску, которая потом будет накладываться прямо на заготовку микросхемы. Саму же пластинку – основу будущей микросхемы – предварительно покрывают слоем фоторезиста, светочувствительной эмульсии, которая в принципе мало чем отличается от эмульсии обычной фотопленки.
Теперь все готово к началу главного технологического процесса – фотолитографии. Через маску на заготовку направляют пучок света, и на поверхности кремниевого кристаллика запечатлевается рисунок маски. После обработки с засвеченных участков травлением удаляют защитное покрытие. Теперь в тех местах образуются «окошки», сквозь которые внутрь кристалла вводят примеси N–или Р–типа.
Чтобы вы поняли, для чего нужны эти примеси, давайте на некоторое время прервем нашу экскурсию и послушаем технолога, который расскажет нам кое–что об истории микроэлектроники.
Сырье для производства–полупроводников валяется у людей буквально под ногами. Это кристаллики песка, который распространен практически повсюду. А песок – это и есть кремний, один из основных материалов современной микроэлектроники. Правда, чтобы песок стал сырьем для создания полупроводников, Он должен пройти длиннейший цикл обработки. И прежде всего кремний нужно очистить от посторонних примесей.
Насколько это сложная задача, можно судить хотя бы по высказыванию одного из основоположников полупроводниковой техники в нашей стране академика А.Ф. Иоффе: «Если очистка материалов до сотых долей процента считалась раньше пределом, то теперь речь идет о миллионных долях, а иногда и о миллиардных долях процента». То есть, говоря иначе, один атом примеси должен приходиться на сто миллиардов атомов кремния.
Но пусть вас эти цифры не смущают. Слова Иоффе были сказаны в середине XX века. За прошедшие десятилетия технологи изобрели зонную плавку и другие способы очистки кристаллов от примесей. Сверхчистые материалы получают сегодня но только на Земле, но и в космосе, где для этого существуют идеальные условия: нет пыли и отсутствует гравитация, которая тоже мешает получению кристаллов с идеально правильной структурой.
Для чего все это нужно? Попробуем разобраться и в этом, совершив небольшой экскурс в теорию полупроводников, базирующуюся на физике твердого тела.
Транзисторы отличаются от радиоламп даже по внешнему виду. Вместо стеклянного баллончика этакая кристаллическая таблетка. Еще больше различие внутреннее. Специалисты, работавшие с радиолампами, зачастую становились в тупик, когда им начинали рассказывать о транзисторах.
«Ну, в лампе все понятно, – говорили они. – Вот спиралька катода – отсюда электроны стартуют. Вот пластинка анода – здесь они финишируют. Посредине третий электрод – сетка. Она потому так и называется, что и по виду своему, и по функциям напоминает обычную сетчатую изгородь. У сетки прогуливается «сторож» – управляющий электрический потенциал. В зависимости от данной ему команды, он либо вообще отгоняет электроны от сетки, возвращая их на катод, либо, напротив, помогает быстрее одолеть сетчатый барьер, скорее добежать до финиша–анода. В транзисторах же ничего подобного нет...»
Действительно, транзисторы устроены совсем не так, как лампы. Начать хотя бы с того, что даже электроды здесь называются по–иному. Вместо катода – эмиттер, вместо анода – коллектор. А сетку почему–то называют базой. И полярность здесь шиворот–навыворот. Если на анод всегда подавали «плюс» электрического напряжения, а на катод – «минус», то тут как раз наоборот: «минус» на коллекторе, а «плюс» на эмиттере.
Дальше еще непонятнее. Внутри стеклянного баллона лампы – пустота, вакуум. Транзистор же представляет собой сплошной германиевый или кремниевый кристалл, говоря языком физиков – твердое тело. И все же электроны, когда нужно, благополучно добираются от эмиттера к коллектору. Да еще и усиливаются при этом, то есть их число увеличивается. Каким образом?
В природе существуют три вида материалов: диэлектрики, проводники и полупроводники. В диэлектриках, – неметаллах, таких, например, как фарфор, стекло, слюда, – связи между атомными ядрами и электронами, кружащимися вокруг них по своим орбитам, очень прочны. «Беспризорных», ничейных электронов нет, поэтому эти материалы и не проводят электрический ток.
В проводниках – чаще всего это металлы, такие как серебро, золото, медь, алюминий, – свободных электронов очень много. Поэтому металлы хорошо проводят электрический ток.
И наконец, полупроводники – германий, кремний и некоторые другие вещества – стоят как бы посредине между проводниками и диэлектриками. Обычно в полупроводниках все электроны привязаны к своим атомам. Но эти связи не так прочны, как в диэлектриках. Время от времёни какой–нибудь особо шустрый электрон срывается со своей орбиты и отправляется «бродить» по полупроводнику.
Возле атома, от которого он оторвался, образуется «дырка», иными словами, положительный заряд, равный по величине заряду сбежавшего электрона. Если в «дырку» перескочит электрон соседнего атома – а по законам физики это возможно, – положительный заряд у данного атома исчезнет, зато образуется дырка в другом месте. В чистом полупроводнике, где совершенно нет примесей, число дырок и свободных электронов всегда одинаково и расположены они беспорядочно. Для целей электроники такой материал не годится. Тут по крайней мере нужно, чтобы материал проводил электрический ток в одну сторону, тогда это будет диод. А еще лучше, если при этом электрический ток будет еще и усиливаться – так работает триод.
Чтобы получить полупроводниковый диод, в один кусочек кристалла вводят ничтожное (порой всего несколько атомов) количество атомов сурьмы (примесь IV–типа). В другой такой же кусочек (или даже просто в другую зону) вводят такое же количество атомов индия (примесь Р–типа).
Сурьма имеет больше электронов, чем германий или кремний, и поэтому она создает в кристалле некоторый избыток свободных носителей отрицательного заряда. Индий же, напротив, имеет меньшее количество электронов, поэтому в другом кристалле (или его половинке) образуется избыточное число положительно заряженных «дырок». Если теперь спаять оба кусочка вместе, получится полупроводниковый диод.
Действительно, что мы будем наблюдать, подключив к составному кристаллу электрическую батарею? Когда она будет подключена «плюсом» к электронной части, а «минусом» к дырочной, то все дырки сбегутся к отрицательному полюсу, а электроны потянутся к положительному. Ведь разноименные заряды взаимно притягиваются. Ток, таким образом, через кристалл не пойдет. А вот если мы поменяем полярность приложенного напряжения, присоединим положительный контакт батареи к «дыркам» и отрицательный – к электронам, ситуация сразу переменится. «Дырки» снова побегут к «минусу», а электроны – к «плюсу». Но бежать им теперь придется через весь кристалл. То есть, говоря иначе, через полупроводниковый диод потечет ток. Электроны нашли себе путь в твердом теле, побежали примерно так же, как и через пустоту вакуума в электронной лампе.
Если мы сплавим не два, а три кусочка: «дырочный», электронный и снова «дырочный», то получится уже триод. Или, как его еще называют, – транзистор. Для работы транзистора нужны две батареи. Одна подключается «плюсом» к левой, «дырочной» части, – это и будет эмиттер. «Минус» этой батареи подключен к средней, электронной части кристалла, – здесь будет база транзистора. Вторая батарея подключена «плюсом» к базе. «Минус» этой батареи подключается к правой «дырочной» части, к коллектору.
Положительный потенциал первой батареи отталкивает «дырки» эмиттера, и они уходят на базу. Казалось бы, дальше идти некуда. Переход между базой и коллектором закрыт; вторая батарея включена так, что притягивает к своим полюсам электроны базы и «дырки» коллектора. Но закрыт этот переход только для «родных» электронов и «дырок» коллектора. А пришлые «дырки», оказавшиеся на базе по милости первой батареи, свободно перепрыгивают заградительный барьер и уходят к коллектору. Им помогает в этом отрицательный полюс второй батареи.
Стало быть, через обе батареи и триод пойдет «дырочный» ток. Какая–то часть этого тока ответвится на базу и замкнется через первую батарею. Но триод конструируют так, чтобы сила этого тока была мала, во много раз меньше силы основного тока, текущего из эмиттера через базу на коллектор. Базовый ток нужен лишь для того, чтобы с его помощью управлять основным потоком электронов, то есть транзистор является таким же усилителем сигнала, как и электронная лампа.
Но мы. с вами несколько углубились в теорию. Давайте вернемся на завод микроэлектронных изделий и продолжим знакомство с производством микросхем, уже с большим знанием дела проследим, что происходит с полупроводниковым кристалликом дальше. Теперь–то вы понимаете, для чего в него в одном месте нужно вводить примеси N–типа для получения электронной проводимости, а в другом примеси P–типа для получения «дырочной» проводимости.
«Транзистор включает в себя три области кристалла, которые обладают проводимостью разного типа, – говорит нам технолог. – Это эмиттер, база и коллектор. У базы проводимость «дырочная», а у эмиттера и коллектора, расположенных по обеим сторонам базы, – электронная. Или наоборот...»
По технологическим соображениям транзисторы интегральных схем конструируются так, что их кристаллические области как бы вложены одна в другую. Вот как это делается.
На кремниевую пластинку с проводимостью необходимого типа наносят маскирующую пленку (например, окись кремния) и фоточувствительный элемент – фоторезист. Теперь на нем надо наметить размеры будущего коллектора. Для этого засвечивают фоточувствительный слой через окошко в фотошаблоне – стеклянной металлизированной пластинке, на которую нанесен необходимый узор. Фоторезист экспонируют ультрафиолетовым светом, фотошаблон убирают, засвеченный слой проявляют. Экспонированный фоторезист растворяется, обнажая второй слой маски – слой окиси кремнии. Затем кремниевую пластину помещают в травящий раствор, который растворяет окисел, но не действует на кремний и фоторезист. На этом процесс фотолитографии заканчивается. Фоторезист удаляют, а обтравленную пластину отправляют в высокотемпературную печь, в атмосферу фосфора или бора. Это делается для получения соответственно областей с «дырочной» или электронной проводимостью.
Коллектор готов. Теперь надо формировать базу, и все повторяется сначала. Причем добавляется новая довольно сложная операция – совмещение каждого последующего фотошаблона с уже нанесенным на пластину рисунком; ведь последующие фотошаблоны уже нельзя накладывать на пластину как попало. А при изготовлении некоторых транзисторов иногда требуется десяток фотошаблонов.
И вот блестяще отработанная, повсюду применяемая фотолитография в 70–е годы XX века зашла в тупик. Она оказалась неспособной обеспечить воспроизведение структур меньше 1–2 мкм. И дело тут было уж вовсе не в сложностях точного совмещения фотошаблонов. Просто фотолитография приблизилась к предельным возможностям, связанным с длиной световой волны. Не помогло даже то, что технологи от видимого света перешли к более коротковолновому ультрафиолетовому излучению – свет все равно огибает препятствия, размеры которых соизмеримы с длиной волны.
Попробовали заменить световой источник энергии электронным лучом. Казалось бы, все в порядке: длина волны ускоренного электрона, используемого в электронном микроскопе, на несколько порядков меньше длины световой волны. Но за это решение пришлось заплатить весьма дорогой ценой: неимоверно возросли трудности, связанные с точным совмещением шаблонов, а это, в свою очередь, привело к резкому подорожанию самих интегральных схем.
Тогда технологи решили испробовать обходные пути, которые бы позволили формировать структуры интегральных схем без переноса рисунков. Среди доброй сотни всевозможных принципов давайте обратим особое внимание на способ самоформования, разработанный в Институте физики полупроводников АН Литвы С.С. Янушонисом и его коллегами. Он интересен не только тем, что допускает для формирования супермикронных структур использовать относительно простое технологическое оборудование. Еще этот способ характерен тем, что позволяет электронным микросхемам... самим себя лечить!
Как это может быть, проще всего понять на таком примере. Существуют шины, которые сами себя ремонтируют. Внутрь шины, кроме воздуха, закачивают небольшое количество герметика. Когда при проколе из шины начинает выходить воздух, вместе с ним в отверстие попадает и герметик, который и затыкает, ликвидирует прокол.
Аналогично, если в структуру твердого тела добавить особую примесь, то при «пробе» электрической схемы она, подобно клею–герметику, восстановит целостность проводника.
Таков сегодняшний день технологии микроэлектроники. А каково его будущее?
Представьте себе, в долгом космическом полете начнет выходить из строя электронная аппаратура – части «мозга», управляющего кораблем. Использовать резервные блоки можно с известной натяжкой – ведь они будут стареть вместе с основной аппаратурой. А вот методы самоформования открывают пути саморемонта. Компьютер найдет вышедший из строя элемент и даст команду на включение физико–химических механизмов его регенерирования. Через некоторое время структура элемента будет восстановлена.
Таков лишь один из примеров нанотехнологии – нового направления, основы которого формируются уже сегодня. В дальнейшем, полагают специалисты, подобными методами можно будет выращивать не только отдельные элементы микроэлектроники, но и самые различные устройства и машины.
Не поверите, но увидеть сказочную скатерть–самобранку можно уже сегодня. Причем за ней вовсе не надо лететь за тридевять земель на ковре–самолете или топать в тех же сапогах–скороход ах. Да и само «тридевятое царство, тридесятое государство» выглядит вполне современно – этакий небоскреб из стекла и бетона, на этажах которого в сверхчистых лабораториях, где наперечет все пылинки, и творят свои чудеса нынешние кудесники – нанотехнологи.
Нанотехнология – так называется новая революционная отрасль современной техники. Приставка «нано», происходит от греческого слова nannos – карлик (отсюда нанометр – одна миллиардная доля метра).
Этот термин появился в середине XX века благодаря нобелевскому лауреату, известному физику Ричарду Фейнману. Он еще в 1959 году говорил, что человечество скоро научится манипулировать отдельными атомами, молекулами или живыми клетками и сможет синтезировать все, что угодно.
Самому Фейнману не удалось дожить до осуществления своей мечты. И будущие открытия в этой области оказались связаны с именем другого американца – Эрика Дрекслера.
В 1977 году Эрик был студентом и мечтал о колонизации далеких миров и планет. Однако к моменту окончания учебы выяснилось, что с полетами к звездам придется пока подождать – нет у нас ни соответствующей технологии, ни подходящей техники.
И тогда Эрик решил колонизировать... самого человека. Он предложил сконструировать молекулярные машины – своеобразные искусственные биологические молекулы, работающие в живых клетках.
Предложить–то предложил, но опять–таки мечта уперлась в технологические проблемы. Впрочем, на сей раз Дрекслеру повезло больше... В 1981 году ученые швейцарского отделения всемирно известной фирмы «ИБМ» изобрели силовой туннельный микроскоп. Благодаря этому новшеству стало возможным манипулирование мельчайшими частицами материи – с помощью силовых полей исследователи получили возможность переносить из одного места в другое даже отдельные атомы.
Работает туннельный микроскоп так. Над полупроводниковой или металлической подложкой расположена тончайшая вольфрамовая игла. Напряжение порядка 10 вольт создает разность потенциалов между иглой и подложкой, являющимися в данном случае как бы обкладками конденсатора. Причем из–за малости зазора и крошечных размеров кончика иглы напряженность электростатического поля получается весьма солидной – около 108 В/см. Оно, это поле, и является основной действующей силой туннельного микроскопа: точнее, одной из его разновидностей – атомного силового микроскопа.
Работать этот агрегат может в двух режимах. Если мы будем с помощью специальной схемы поддерживать ток и напряжение между иглой и подложкой постоянными, то при сканировании (многократном проведении) иглы над поверхностью ее придется то опускать, то приподнимать, в зависимости от рельефа. Таким образом, игла, подобно патефонной, будет копировать профиль поверхности.
Поскольку любой механический привод весьма груб, перемещениями иглы на субатомные расстояния управляют с помощью пьезоэффекта. Керамическая пьезотрубка при подаче на ее электроды управляющего напряжения меняет свою форму и размеры, что позволяет в зависимости от сигнала перемещать иглу по трем координатам. Насколько велика чувствительность микроманипулятора, можно судить по таким цифрам: при изменении напряжения на 1 вольт игла смещается на величину порядка 2–3 нанометров.
Ведя таким образом иглу над поверхностью рельефа, довольно просто получить серию электрических кривых, которые с высокой степенью точности будут описывать характер поверхности. Воочию ее можно увидеть на экране дисплея, подсоединенного к туннельному микроскопу.
Кроме «микроскопии на ощупь» с помощью аналогичной установки можно формировать саму поверхность. Если игла подведена к поверхности чересчур близко даже по меркам нанотехнологии, то в локальном электрическом поле появляются силы, достаточные для того, чтобы стягивать к игле атомы, подобно тому, как к наэлектризованной стеклянной палочке притягиваются бумажки и соринки. Можно даже оторвать от поверхности одиночный атом, перенести его в другое место, а затем внедрить его тут.
Именно таким образом, например, в 1990 году специалисты фирмы «ИБМ» выложили название своего предприятия всего из 35 атомов ксенона. Но это было не более чем баловство профессионалов, так сказать, первая проба пера.
В дальнейшем нанотехнология перешла к решению проблем более серьезных.
Большинство предметов, созданных человеком, как известно, имеют в своей структуре триллионы триллионов атомов. И для того чтобы получить из какого–то сырья полезную вещь, надо эти атомы упорядочить.
Конечно, от изготовления первых кремниевых рубил до компьютеров на кремниевых же микрочипах – дистанция огромного размера. Но суть методики всегда была одна – обрабатывая детали, мы отсекаем лишнее, пытаемся навести порядок в кристаллической структуре.
Но действуем мы пока что на макроуровне. Правда, со времен Левши мы продвинулись и в покорении микромира. Современные технологи уже научились обращаться с объектами микрометровых размеров. Те же микрочипы – тому свидетельство. В них работают группы в тысячи атомов, может быть в сотни.
Еще один шаг вниз – в наномир, то есть уменьшение объекта манипуляции еще в 1000 раз, позволит производить вещи из отдельных атомов. Или делать машины, сравнимые по размеру с крупными молекулами.
И первой областью, в которой они начнут работать, наверное, станет микро–, точнее – наноэлектроника. Дело в том, что у микросхем, изготовляемых традиционным способом, есть два фундаментальных недостатка. Во–первых, современная технология не может оперировать с элементами схем меньше сотен атомов в размере. И во–вторых, она не позволяет создавать объемные схемы, хотя это повысило бы плотность чипов в десятки раз и во столько же уменьшило их размеры. А это, в свою очередь, открыло бы возможности к созданию нейронных схем, подобных тем, что работают в человеческом мозге.
Однако настоящая революция в нанотехнологии произойдет, когда десятки, сотни «нанорук» под управлением нанокомпьютеров будут собраны в бригады, появятся первые нанозаводы, способные, следуя заданным программам, собирать из отдельных атомов другие наномашины.
Такие устройства некоторые специалисты стали называть ассемблерами, или сборщиками. Ну а бригады, состоящие из них, – соответственно ассемблеями.
Полагают, что лет через 10–15 такие «бригады» смогут переставлять с места на место примерно миллион атомов в секунду. За тысячу секунд, или немногим больше чем за 15 минут, ассемблер сможет скопировать самого себя. Это будет уже сопоставимо с тем временем, за какое копирует сама себя обыкновенная бактерия.
Получается, что человечество находится накануне создания искусственной жизни!
Отсюда же вытекают и другие грандиозные возможности – тонна ассемблеров сможет быстро построить тонну чего–нибудь еще. Причем конечный продукт будет иметь все свои триллионы триллионов атомов в нужных местах практический без всяких стружек и прочих отходов.
А это фактически приведет к тому, что станут совершенно ненужными все современные производства, начиная от сталеплавильных комбинатов и машиностроительных заводов и кончая агрофермами и пищевыми комбинатами. Зачем что–то растить на огороде, когда готовый продукт можно сразу вырастить в чане биореактора?..
В цех поместят огромный чан, внутри которого расположат опорную плиту. На ней – «семя»–механозародыш – нанокомпьютер с хранящимися в нем планами будущей конструкции. На поверхности «зародыша» имеются места, к которым прикрепляются ассемблеры.
Насосы заполняют емкость густой жидкостью, состоящей из ассемблеров, которые вырастили и перепрограммировали в другом чане, а также того сырья, из которого предполагается вырастить готовое изделие.
Ассемблер–сборщик прилипает к «семени», получая от него инструкцию по дальнейшим действиям. А дальше все идет примерно так же, как в живом организме после оплодотворения. Одна клетка делится на две, те еще пополам... Сначала эти «клетки» не имеют специализации, они просто наращивают количество себе подобных. Но вот количество перешло в новое качество. И ассемблеры начинают специализироваться. Их сообщества постепенно превращаются в органы – детали будущего агрегата.
По мере того как ведется сборка, в «семя» поступают запросы на те или иные химические элементы и их по мере надобности добавляют в чан. И к концу смены, глядишь, из него вынимают уже готовый двигатель. Или тонну колбасы... Или фруктовое пюре...
Ведь ассемблерам, в общем–то, без разницы, что именно делать. И рабочая смена для них – понятие растяжимое. Они, как и живые клетки в нашем организме, смогут без отдыха трудиться всю свою жизнь. Постепенно им на смену приходят все новые поколения ассемблеров, и так до тех пор, пока не будет дана команда на прекращение деятельности.
Необходимо иметь возможность выключить ассемблею ассемблеров в любое время. Иначе может случиться беда.
И в самом деле, среди теоретиков нанотехнологии давно уж имеет хождение жутковатый термин – «серая слизь». Под ним имеется в виду ситуация, подобная той, что описана в сказке. Помните, что случилось, когда герои сказки позабыли, как «выключать» горшочек. И он заварил такую кашу, что она через печную трубу полезла...
В данном же конкретном случае имеется в виду такой самовоспроизводящийся механизм, который сможет воспроизводить себе подобных из тех атомов, что окажутся поблизости. В общем начнет делиться, как амеба: два механизмика – четыре – восемь – шестнадцать... И через сутки вся планета покроется слоем этих катастрофически размножившихся наномеханизмов. Ситуация, согласитесь, отнюдь не радостная...
И тем не менее человечество уже не раз пугали разными страстями–мордастями, а мы все живем–поживаем. Будем надеяться, все обойдется и на сей раз.
Задумаемся вот над чем. А когда можно будет ожидать появления первых наномеханизмов? Эрик Дрекслер полагает, что такое производство получит широкое распространение уже к середине нынешнего века.
И тогда наше хозяйство преобразится. Комплексы нанороботов заменят естественные «машины» для производства пищи – растения и животных. Вместо длинных цепочек «почва – углекислый газ – фотосинтез – трава – корова – молоко» останутся лишь «почва – нанороботы – молоко». Или, если хотите, сразу творог. Или сразу мясо. Уже жареное, но без холестерина...
В быту появятся умные вещи, созданные наномашинами. Мало того, что они смогут видеть, слышать и думать. На базе нанотехники ничего не стоит создавать предметы и конструкции, изменяющие свою форму и свойства. В зависимости от количества пассажиров автомобиль, например, сможет отращивать дополнительные сиденья, а его двигатель – заживлять царапины на стенках цилиндров.
Человечество перестанет вредно влиять на окружающую среду. Потому как все отходы будут тут лее превращаться в полезное исходное сырье для новой нанопереработки.
Таковы перспективы завтрашнего дня, обрисованные зарубежными специалистами. Не отстают от них и наши нанотехнологи. Например, специалисты НИИ «Дельта» создают первые образцы «скатертей–самобранок XXI века». Именно так называет устройства, создаваемые здесь, один из их конструкторов П.Н. Лускинович.
И ему вполне можно верить, поскольку его слова подтверждаются работами сотрудников возглавляемой им лаборатории.
Со стороны все выглядит на редкость обычно. За дисплеем персонального компьютера сидит молодой человек, постукивает по клавишам. А рядом на рабочем столе стоит небольшое устройство, размерами и блеском никеля напоминающее кофейник. «Кофейник» и оказался тем самым атомным силовым микроскопом, с помощью которого можно манипулировать атомами. Чем, кстати, молодой человек и занимался. Настукивал на клавишах программу работы персональному компьютеру, тот, в свою очередь, командовал молекулярной сборкой, и на телеэкране было отчетливо видно, как на глазах менялся рельеф бугристой поверхности – одни атомы замещались другими.
Будничная лабораторная работа. Но вот к чему, по словам руководителя лаборатории, она ведет. Как действует природа, создавая тот или иной организм? Правильно, ока собирает атом к атому, молекулу к молекуле, создавая сначала клетку. Потом несколько клеток формируют зародыш органа, а из органов в конце концов вырастает организм. Вот эту–то операцию, лежащую в начале всех начал, и отрабатывают ныне ученые. Раз за разом, атом за атомом пробуют они разные комбинации, подбирают наилучшие алгоритмы действия.
Пока все это делается весьма медленно. Но не забывайте, что действуют специалисты все–таки не голыми руками, а с помощью туннельных микроскопов и ЭВМ. А компьютер – такая машина: научи ее однажды чему–то, и она вовек того не забудет. Более того, вскоре сможет выполнять разученные операции со сказочной быстротой круглые сутки без остановки.
Как говорят нанотехнологи, зайдя в хозяйственный магазин лет через 25–30, вы сможете купить и поставить у себя дома не просто очередной кухонный агрегат, а репликатор – устройство, способное синтезировать по заказу любой продукт – хотите черную икру, хотите – трюфели. Возможности атомной сборки принципиально не имеют ограничений. Все в окружающем нас мире сделано из атомов, а значит, может быть скопировано атомно–молекулярной сборкой. Причем не просто скопировано, а, если надо, и модернизировано, улучшено...
Через десять лет будут освоены новые технологии, на фоне которых создание микросхемы покажется лишь эпизодом. Компьютеры будущего достигнут поразительной скорости выполнения вычислительных операций благодаря использованию принципов квантовой механики, работающих в атомном мире. В то же время для предотвращения сбоев в работе столь сложных устройств потребуются новые способы исправления квантовых ошибок. Поиск таких способов – задача столь же сложная, как создание самих квантовых компьютеров.
Недавно к одному известному российскому ученому, специалисту в области вычислительной техники, обратились за консультацией люди, отвечающие за информационную безопасность страны. Их заинтересовало сообщение о принципиальной возможности создания компьютерного устройства, легко взламывающего шифры, которые сегодня не по зубам всем суперкомпьютерам мира вместе взятым. Представителей спецслужбы интересовало, насколько правдиво это газетное сообщение, когда такой аппарат реально начнет действовать.
Ученый констатировал, что все написанное – чистая правда, подобные системы могут появиться уже через 4–5 лет. И называются они квантовыми компьютерами.
Насколько быстро они будут действовать, говорит хотя бы такой факт. К примеру, взлом системы RSA–129 потребовал в 1994 году восьмимесячной работы 1600 мощных ЭВМ, расположенных по всему миру и объединенных посредством Интернета. Разгадывание шифра с ключом на основе раскладывания на простые множители 300–разрядного числа на классическом компьютере потребует уже 13 млрд лет (сегодняшний возраст Вселенной) непрерывной работы. А вот квантовый компьютер, по словам экспертов, справится с такой задачей за несколько недель.
Огромные возможности нового аппарата, если таковой будет создан, перевернут ситуацию не только в криптографии. Как считает один из ведущих специалистов в области квантовых вычислений Джон Прескилл из Калифорнийского технологического института, по–истине уникальные возможности открываются для моделирования физических процессов на микроуровне. А профессор из Оксфорда сэр Роджер Пенроуз всерьез говорит о реальной возможности создания на основе квантового компьютера систем искусственного интеллекта. То есть, говоря попросту, машины станут думать и принимать решения быстрее людей. И они, эти решения, будут качественнее наших.
На каких же принципах будет работать эта чудо–машина?
Что–то подобное квантовому компьютеру человек должен был изобрести неизбежно. Гонка информационных технологий, не сбавлявшая темпы более сорока лет, находится сегодня на финишной прямой.
В середине 60–х годов XX века американец Гордон Мур подсчитал, что производительность современных ему вычислительных систем каждые восемнадцать месяцев удваивается. И предположил, что ото своеобразное правило будет соблюдаться и в будущем. И действительно за прошедшие 40 лет закон Мура не нарушался ни разу.
Правда, один из отцов–основателей компании «Интелл» не учел одного обстоятельства: геометрический рост числа транзисторов в микросхеме потребовал все ускоряющегося уменьшения их размеров. В считанные квадратные сантиметры поверхности монокристалла из кремния сегодня приходится впихивать уже десятки миллионов конструктивных элементов. Но все имеет свой предел – сами элементы при этом уменьшились уже до пределов молекулы.
А прозорливый Ричард Фейнман, с которым мы уже знакомились в разделе о нанотехнологии, еще лет 20 назад заметил, что законы физики не будут препятствовать уменьшению размеров вычисляющих устройств до тех пор, «пока биты не достигнут размеров атомов и квантовое поведение не станет доминирующим».
Сегодняшняя технология позволяет создавать элементы с размерами в десятую долю микрона (10~7 метра), а чип содержит десятки миллионов транзисторов. Уже разработаны транзисторы, размеры которых составляют сотые доли микрона, а следующий шаг в сторону микромира приведет к нанометрам (10–9 метра) и миллиардам транзисторов в одном чипе. В общем, еще чуть–чуть – и мы попадаем в диапазон атомных размеров, где все начинает подчиняться необычным квантовым правилам. Согласно тому же закону Мура, произойдет это в течение десяти ближайших лет.
И вот тут специалистам по микроэлектронике придется радикально перестраиваться. Законы квантовой механики таковы, что вы уже не сможете, например, говорить об определенном положении частицы в пространстве, ее точной скорости, но только о «вероятности обнаружения частицы в некоторой зоне пространства со скоростью из некоторого диапазона скоростей».
Бит классического компьютера, ныне находящийся только в одном из двух состояний («О» или «1»), на квантовом уровне «размажется». Он как бы будет находиться в обоих состояниях одновременно, и можно говорить лишь о вероятности обнаружения его в одном из них.
Так говорит теория. Реально же дело обстоит еще сложнее, поскольку согласно принципу суперпозиции квантовый бит будет представлять собой некую линейную комбинацию состояний классического бита. Как говорят специалисты, возникнет некий «квантовый шум».
То есть, говоря попросту, в этой ситуации ныне принятая схема последовательных (детерминированных) вычислений перестанет работать. Но, может быть, можно найти другую?
Российский математик Юрий Манин, который ныне работает в исследовательском центре «ИБМ», еще в 1980 году высказал предположение, что «квантовый шум», который в ходе миниатюризации микросхем неизбежно превратится в препятствие для их нормальной работы, можно в принципе использовать для конструирования компьютеров нового типа.
Правда, в то время странная идея молодого ученого не вызвала особого энтузиазма у его коллег. Однако когда через два года о заманчивых перспективах «квантовых вычислений» заговорил такой мировой авторитет, как Ричард Фейнман, исследователи спохватились. Ведь ученый привел достаточно убедительные аргументы в пользу того, что квантовые вычислительные системы не только возможны, но и благодаря принципу суперпозиции состояний битов окажутся гораздо мощнее классических. Он показал, что один квантовый компьютер (цепочка квантовых битов) сможет работать как комбинация очень большого числа классических компьютеров, производящих вычисления одновременно.
После этого данной областью исследований заинтересовались сразу многие ученые. Работа закипела. И в 1985 году Дэвид Дойч из Оксфордского университета обнаружил, что некий «квантовый алгоритм» для некоторых задач действительно ускоряет счет, причем в фантастическое число раз!
Правда, в то время все эти рассуждения выглядели достаточно умозрительно – ни конкретных алгоритмов, ни технологичных вариантов реализации квантового компьютера в «железе» тогда никто не предложил.
Но прошло менее 10 лет, и в 1994 году исследователь Питер Шор, работавший в компании «Белл Лабораториз», придумал первый реально действующий квантовый алгоритм. С его помощью оказалось возможным взламывать так называемые шифры с открытым ключом. Это известие, как уже говорилось, вызвало обеспокоенность у наших спецслужб. А американские военные из Агентства перспективных исследований Министерства обороны США так прямо качали финансировать исследования по данной теме.
И ото принесло свои результаты. Вскоре российскому физику Алексею Катаеву, работающему в корпорации «Майкрософт», удалось модернизировать шоровский алгоритм. А еще через два года коллега Шора из той же «Белл Лабораториз» Лов Ювер показал, что квантовые вычисления гораздо эффективнее классических не только при взломе шифров, но и во многих других случаях.
В общем, уже никто не сомневался, что компьютер, считающий по законам квантовой механики, – новый этап в эволюции вычислительных устройств. Дело оставалось за малым – надо было создать это чудо техники.
Поначалу вперед выступили опять;таки теоретики. Американский физик Вен Шумахер ввел в обиход понятие «квантовый бит» или «кубит». Подобно классическому биту информации, кубит теоретически может быть реализован, например в атоме, который находится в принципе в одном из двух энергетических состояний – возбужденном или спокойном.
Главное препятствие на пути построения квантового компьютера – так называемое время декогерентности, в течение которого заданное квантовое состояние разрушается.
Поэтому при выборе той или иной технологии прежде всего принимается во внимание число «шагов вычисления», которое можно успеть совершить, пока процесс не будет разрушен. К этому моменту результат вычислений должен быть «снят» и «переброшен» в другую ячейку или вообще в другой квантовый компьютер.
Например, система на ядерных спинах успевает совершить «всего» 10 млн шагов вычислений. (Причем «спин» в данном случае характеристика атома, показывающая, насколько быстро он вращается вокруг собственной оси.)
А вот для системы с так называемой ионной ловушкой время декогерентности измеряется уже числом 1013 шагов.
Вслед за теоретиками за дело взялись и экспериментаторы.
Интересно, что технологию счета ка ядерных спинах они окрестили «компьютером в чашке кофе», так как первый в истории кубит па ее основе был реализован с помощью молекул горячей жидкости.
В 1997 году была построена модель квантового компьютера на двух кубитах. Группа исследователей из «ИБМ», Массачусетского технологического института и Калифорнийского университета в Беркли использовала для этого молекулы хлороформа.
Тут же выяснилось, что у технологии есть существенный недостаток: построение компьютера хотя бы из десятка таких кубитов требует охлаждения молекул до температур, всего на тысячные доли градуса отличающихся от абсолютного нуля (–273 градуса по Цельсию). А где взять такой холодильник?..
Атомные или ионные ловушки выглядят более технологично благодаря недавно разработанному методу охлаждения и пленения атомов лазерным лучом. Кубитом здесь служит атом или ион, который помещают в ловушку (изолируют и «подвешивают» с помощью электромагнитного поля или лазерного луча) и обстреливают лазерными импульсами. Управляя частотой и длительностью импульсов, можно организовать переходы пойманного атома из одного состояния в другое, то есть «считать на энергетических уровнях».
Ныне также разрабатываются методы квантовых вычислений на основе так называемого джозефсоновского контакта, электронных квантовых точек в полупроводнике и т. д. Так или иначе, для создания полноценного квантового компьютера еще предстоит сделать многое. Но главное исследователи уже поняли: принципиальных запретов со стороны природы для достижения этой цели нет.
Между тем один из отцов–основателей советской физики Абрам Федорович Иоффе любил повторять: «Физика сегодня – это промышленность завтра». Так что, похоже, современным микросхемам и нынешним компьютерам осталось существовать уже недолго. На смену им придут устройства, для работы которых будет достаточно пригоршни атомов и лазерного луча.
И наконец, еще об одной проблеме, связанной с квантовыми компьютерами.
Теоретики говорят, что можно создать вычислительное устройство, устойчивое к сбоям или отказам отдельных его компонентов. Иными словами, его можно сконструировать так, чтобы правильный ответ достигался даже при случайном сбое в одной из его составных частей.
В 1995 году американцы Питер Шор и Эндрю Стин независимо друг от друга обнаружили, что коррекция квантовых ошибок вполне возможна. Если эти ошибки малы, квантовая система сама быстро возвращается в исходное состояние.
Впрочем, пропасть между существующими технологиями и теми, что потребуются в будущем, огромна. Так что понадобятся еще немалые усилия физиков, специалистов по теории вычислений, а также инженеров, чтобы первые квантовые компьютеры вышли из стен лабораторий.
Параллельно с созданием первых квантовых устройств физики решают и еще одну задачу. Они выяснили, что движение тока по проводникам происходит довольно медленно по сравнению, например, с движением квантов света – фотонов, которые перемещаются со скоростью порядка 300 тыс. км/с!
Поэтому с таким интересом было встречено специалистами известие о возможности создания фотонных компьютеров или оптических вычислительных машин (ОВМ), в которых электронные элементы могут быть заменены оптическими.
Сразу отметим, что сама по себе идея не нова, она появилась еще полвека назад в пору становления лазерной техники. Осуществление ее сулило многое – ЭВМ стали бы надежнее, да и быстродействие их увеличилось бы более чем в 1000 раз.
Но как совместить транзисторные структуры – основу схемотехники двоичной системы счисления – с оптическими каналами связи? Такой гибрид обязательно потребует преобразования электрических сигналов в оптические и наоборот. А это новые потери и энергии, и времени... И вот после длительных поисков в лабораториях исследователей появился оптический брат транзистора – трансфазор, обладающий двумя устойчивыми информационными состояниями и переключающийся управляющим оптическим сигналом.
В основе работы трансфазора лежит свойство некоторых материалов изменять в зависимости от освещенности свой показатель преломления света. Оно и позволило создать так называемую бистабильную ячейку – основу логических элементов вычислительных систем. Зависимость интенсивности выходного пучка от суммы входных позволяет иметь два состояния: «открыто – закрыто», «да – нет», «1–0», что и нужно для цифровой обработки информации. Вот и вся суть трансфазора.
Он позволяет изготовлять разные логические ячейки, а главное – ему присуще одно замечательное свойство. Оказывается, ничто не мешает сфокусировать в полости его резонатора несколько лазерных пучков. Каждый будет проходить в кристалле своим независимым путем и выполнять предназначенную ему логическую функцию. И если исходный луч расщепить на 3 или на 33, то на нем можно провести сразу три или тридцать три операции. Стоит ли говорить, что это позволяет резко увеличить скорость обработки информации.
Однако оптические сигналы необходимо преобразовать в электрические, которые удобно обрабатывать традиционными методами. Чтобы осуществить такое преобразование, вещество резонатора формируется в виде многослойной полупроводниковой структуры – сверхрешетки. Толщина одного слоя составляет всего несколько десятков ангстрем. А свойства структуры таковы, что перенос заряда сквозь нее возможен только при облучении светом.
Структура трансфазора может быть вмонтирована в структуру транзистора. В итоге получаем конструкцию, состоящую из областей «дырочной» (p–тип), собственной (i–тип) и электронной (n–тип) проводимостей. Если на нее спроецировать некий информационный массив, например снимок из космоса, то его можно обрабатывать не последовательно по точкам, а весь сразу!
Есть несколько путей эволюции оптических компьютеров. Первый, наиболее простой, – развитие оптической элементной базы по аналогии с электронной и замена электронных схем оптическими. Он даст некоторый выигрыш в быстродействии и надежности, однако повторит недостатки традиционной схемотехники и не решит задачу обработки больших массивов информации в реальном масштабе времени. С такой задачей могут справиться аналоговые оптические машины, но их собрать сложнее, да и обойдутся они дороже. Это второй путь. Третий же – комбинация методов аналоговой и цифровой обработки информации. Такие гибридные вычислительные машины должны сочетать гибкость и универсальность электронных и производительность оптических.
Созданием и совершенствованием ОВМ занимается оптоэлектроника – новое направление науки и техники, использующее для генерации, передачи, приема, преобразования, запоминания и хранения информации фотоны вместо электронов. Впервые об этом научном направлении всерьез заговорили всего лишь 30–35 лет назад, хотя сама по себе оптоэлектроника опирается на многие фундаментальные физические открытия еще столетней, а то и многовековой давности.
Так как оптические транзисторы не только способны переключаться всего за одну пикосекунду (одну тысячную миллиардной доли секунды!), но и могут одновременно осуществлять сразу несколько параллельных переключений, появились и первые оптические процессоры, обладающие колоссальными возможностями. Скажем, в Калифорнийском технологическом институте (США) создано экспериментальное ассоциативное запоминающее устройство, способное считывать изображения с фотопленки. Оптический прибор, разработанный фирмой «Хьюз Эйркрафт» (штат Калифорния, США), способен считывать информацию с голограмм, а в Пенсильванском университете – придумано устройство на оптических элементах, которое обеспечивает распознавание воздушных целей, используя лишь 10% информации, содержащейся в радиолокационном сигнале.
Наряду с развитием оптоэлектроники, продолжает развиваться быстрыми темпами и фотоника – отрасль науки, занимающаяся передачей и преобразованием света в различных устройствах и системах. Одним из практических результатов развития этой науки стало широкое использование лазеров различного назначения, являющихся сегодня одним из наиболее удобных генераторов для тех же ОВМ.
Другим практическим внедрением результатов фотоники стала оптоволоконная техника. Например, в Великобритании, США, Японии, России и некоторых других странах уже появились первые сети связи на оптических кабелях. Они обеспечивают скорость передачи информации в 1200 млн битов в секунду.
Практическим результатом внедрения фотоники можно считать появление цифровой записи аудио– и видеоинформации на оптических дисках, а также оптических запоминающих устройств, намного превосходящих по своим возможностям магнитные диски.
А как же создание самих ОВМ? Оно уже тоже не за горами, считают, например, А. Эйбрехем, К. Ситон, С. Смит и другие американские специалисты в этой области.
Несколько лет назад компания «Белл Лабораториз» объявила о создании первого в мире оптического процессора на мезоструктурах С–СИД. Эго сокращение после расшифровки и перевода означает «симметричное устройство со свойством самогенерируемого электрооптического эффекта».
Экспериментальный процессор использует пока лишь крохотную долю своих возможностей по обработке информации. Алан Хуанг, руководитель группы, создавшей первый в мире оптический компьютерный процессор, считает, что настоящий оптический компьютер будет создан лет через 5–10. Он станет совершать десятки триллионов операций в секунду.
Основной рабочий элемент С–СИД – это так называемый квантовый мультикарман. Он представляет собой многослойный «сэндвич» – 121 слой из арсенида галлия и арсенида галлия с алюминием попеременно. Сегодня на изготовление пластины С–СИД уходит несколько часов, намного больше, чем на изготовление кремниевых пластин. Но технология все усовершенствуется и дешевеет. Так что появление оптических компьютеров уже не за горами. Прототипы их уже созданы.
Так, например, единственный в мире оптический суперкомпьютер, каких пока нет ни в Японии, ни в Америке, разработан московским изобретателем Александром Вербовецким.
В 60–е годы XX века тогдашний студент Московского физико–технического института проходил практику в Институте точной механики и вычислительной техники. И выбрал темой дипломной работы «Голографические запоминающие устройства».
Это сегодня никого уже не удивишь радужной пленкой, гарантирующей, что товар не подделан, или пластинкой, позволяющей увидеть объемное изображение предмета. Ныне есть даже голографическое кино. А в ту пору только публиковались первые статьи, в которых предлагался принцип голографической записи изображений. И готовя дипломную работу, Вербовецкий сам разрабатывал голографические установки, искал способы записывать и считывать голограммы.
Окончив институт, он стал дипломированным специалистом по оптоэлектронике. И кандидатскую диссертацию тоже защищал по голографической памяти. В 1963 году известный ученый Ван Хирден предложил идею объемной голографической памяти в кристалле. Вербовецкий подхватил эту идею и спустя десять лет с помощью коллег из Государственного оптического института и Ленинградского оптико–механического объединения изготовил такую память.
Следующим шагом к появлению суперкомпьютера было создание ассоциативной голографической памяти небывалой емкости – до 1012 байт. А фантастически огромная память потребовала изменения всей архитектуры компьютера, и изобретателю пришлось создавать новые арифметико–логические устройства – сложения, вычитания, умножения, деления, извлечения квадратного корня и так далее. И последним шагом на пути к суперкомпьютеру было введение в него волоконной оптики.
В итоге получился компактный высокопроизводительный агрегат, обладающий замечательной надежностью, помехозащищенностью. «Если работу электронного компьютера могут сбить внешние воздействия – гроза, искрящий трамвай или троллейбус под окном, то в оптическом компьютере этого не случается», – утверждает изобретатель.
Он надеется, что в скором времени его разработкой заинтересуются производители серийной техники и тогда оптический суперкомпьютер Вербовецкого перестанет быть единственным представителем нового поколения компьютерной техники.
А до каких пор будет идти совершенствование вычислительной техники? До тех пор, пока последний из компьютеров не превратится в Бога! Именно такую версию в рассказе «Последний вопрос» лет 40 назад высказал писатель–фантаст Айзек Азимов. Однако даже сам автор вряд ли предполагал, что его идея будет вскоре подхвачена учеными. Тем не менее вот что пишет по этому поводу известный журнал «New Scientist».
В своем рассказе А. Азимов попытался проследить триллионы лет истории развития человечества начиная с 2061 года. Именно к этому времени, полагал писатель, вычислительная техника достигнет некого предела.
Все ЭВМ планеты будут объединены в единую вычислительную сеть – Азимов называет ее «Мультивак», – которая станет получать энергию для своего функционирования непосредственно от Солнца.
И вот два техника, обслуживающие систему, вдруг забеспокоились: «А что будет с «Мультиваком», если светило вдруг погаснет? » Будучи не в состоянии ответить на него сами, они переадресовали вопрос вычислительной системе.
Та на секунду задумалась и выдала ответ: «Информации для разумного ответа недостаточно».
«А почему, собственно, недостаточно?» – удивился физик из Массачусетского технологического института Сет Ллойд. Перебрав все возможные варианты совершенствования вычислительных систем – молекулярные, квантовые, биологические, прочие ЭВМ, – он, в конце концов, пришел к выводу, что компьютер далекого будущего скорее всего превратится в нечто вроде... огненного шара или далее в «черную дыру».
Не думайте, что исследователь сошел с ума или попросту валяет дурака. Прежде чем обнародовать свои выводы, Ллойд немало времени ломал себе голову над тем, до каких пор будут уменьшаться размеры элементной базы вычислительных устройств и возрастать их быстродействие?
Ныне технологи, как уже говорилось, подошли к тому, что роль микроэлементов в компьютерных схемах начинают выполнять отдельные молекулы, атомы и кванты света. Меньших частиц вещества в природе просто не существует и, стало быть, предел уже на горизонте?
«Однако не будем торопиться с окончательными выводами, – предлагает Ллойд. – Давайте попробуем подойти к проблеме с иной стороны. Важно понимать, что любое вычисление – прежде всего некий физический процесс. Поэтому задачу «о предельном компьютере» следует решать путем рассмотрения основных физических принципов и величин – таких как энергия, температура, объем – определяя всякий раз граничные критерии».
Как известно, все логические операции, осуществляемые ЭВМ, основаны на переключении элементов между условными значениями «0» и «1». Им должны соответствовать два устойчивых физических состояния вещества – например, открытое или закрытое состояние транзистора в нынешних полупроводниковых ЭВМ, изменение структуры молекул (в молекулярном компьютере), значения спина атома (в квантовом вычислительном устройстве) и т. д.
Во всех случаях быстродействие ЭВМ определяется скоростью протекания соответствующего физического процесса. Скажем, время переключения транзистора тем меньше, чем выше подвижность электронов в полупроводнике. Времена процессов переключения, как правило, очень малы (до 10~15 с), но все же конечны.
«С точки зрения квантовой механики, – утверждает Сет Ллойд, – скорость вычислений ограничена доступной энергией». В 1998 году это положение было теоретически доказано его коллегами из того же Массачусетского технологического университета (США) – Норманом Марголусом и Львом Левитиным. Теоретики показали: чем больше энергия компьютера, используемая им для вычислений, тем быстрее он считает. По мнению Ллойда, «предельный компьютер» – устройство, вся энергия которого будет расходоваться только на вычислительный процесс.
Как известно, полная энергия тела задается фундаментальным соотношением, предложенным Альбертом Эйнштейном: Е = тс2, где т – масса, с – скорость света в вакууме. Стало быть, если мы возьмем массу гипотетического компьютера условно равной 1 кг, то полная энергия составит 1017 Дж. Если ее всю использовать для вычислений, то скорость переключения достигла бы порядка 10–51 с!
Полученное значение существенно меньше так называемого «планковского промежутка времени» (10~44 с). Даже с учетом, что на практике никогда не удается достичь теоретических значений того или иного параметра, выходит, что резервы для повышения быстродействия тут еще немалые.
По сравнению с компьютером Ллойда нынешние ЭВМ – просто черепахи: типичный современный компьютер выполняет порядка 1012 операций в секунду. «Предельный» компьютер способен работать в 1039 раз быстрее.
А если его масса будет не килограмм, а тонна, быстродействие возрастет еще в 1000 раз. В космосе же, куда предлагает переместить суперкомпьютер Айзек Азимов, масса вычислительного устройства вообще может исчисляться многими сотнями тысяч, даже миллионами или миллиардами тонн...
Причину медлительности современных ЭВМ Ллойд видит прежде всего в том, что полезную работу в них совершают лишь электроны, перемещающиеся внутри транзисторов. «Что касается основной массы компьютера, то она только препятствует свободному движению носителей заряда, – полагает исследователь. – Единственная ее функция – поддерживать ЭВМ в стабильном состоянии».
Как избавиться от «бесполезной» массы? Надо превратить ее в кванты электромагнитного излучения – фотоны, которые, как известно, но имеют массы покоя (считается, что она равна нулю).
Конечно, такая ЭВМ не может функционировать на нашей планете, где действует сила тяжести. Однако уже Айзек Азимов учитывал это, разместив и «Мультивак», и его потомков в невесомости космического пространства. Более того, он предполагал, что «вселенская разумная машина» со временем будет представлять собой некий энергетический шар, расположенный не в обычном пространстве–времени, к которому привыкли мы, а в пеком многомерном гиперпространстве.
«Тогда вся энергия, запасенная в массе, перейдет в энергию излучения, и компьютер из неподвижного серого ящика превратится и светящийся огненный шар! – вторит фантасту ученый. – Как ни странно, но именно так может выглядеть «предельный» компьютер. Его вычислительная мощность будет огромна: менее чем за одну наносекунду он сможет решать задачи, на которые у современных ЭВМ ушло бы время, равное жизни Вселенной!»
Заметим, что до сих пор все наши рассуждения касались только быстродействия «идеального» компьютера. А как быть с памятью? Существует ли предел запоминающей способности вычислительных устройств?
В рассказе А. Азимова и с этим не предвидится проблем. «Мультивак» передал все имеющиеся сведения «Микроваку», а тот, в свою очередь, «вселенской разумной машине» в виде шара. И в массе накапливаемых сведений не был забыт и главный вопрос, заданный некогда веселыми техниками: «А что будет, когда ничего не будет? »
«Память компьютера ограничена его энтропией, – утверждает Сет Ллойд, – то есть степенью беспорядка, случайности в системе. В теории информации понятие энтропии – аналог понятия количества информации. Чем более однородна и упорядочена система, тем меньше информации она в себе содержит».
Чему равна энтропия «идеального» или «предельного» компьютера Ллойда?
Во–первых, она зависит от объема компьютера: чем он больше, тем большее число возможных положений в пространстве могут занимать его частицы.
Во–вторых, необходимо знать распределение частиц по энергиям. Поскольку речь идет о светящемся шаре, можно воспользоваться готовым расчетом, выполненным еще лет сто назад Максом Планком при решении задачи о так называемом абсолютно черном теле. Например, 1 дм3 или литр квантов света может хранить около 1031 битов информации – это в 1020 раз больше, чем можно записать на современном 10–гигабайтном жестком диске!
Откуда столь огромная разница?
«Все дело в том, – говорит Ллойд, – что способ, которым в современных компьютерах записывается и хранится информация, чрезвычайно неэкономичен и избыточен. За хранение одного бита отвечает целый магнитный домен – а это миллионы атомов».
Итак, пытаясь выяснить пределы быстродействия и запоминающей способности вычислительного устройства, мы сначала избавились от лишней массы (1 кг), переведя ее в энергию квантов света, а затем постарались запихнуть все это в объем, равный 1 л. В этих условиях температура огненного шара должна достигать миллиарда градусов (!), а излучать он будет уже гамма–кванты.
То есть «предельный» компьютер получается довольно–таки странным... Есть ли ему аналоги в нашем реальном мире?
Теоретически кипящий «супчик» из гамма–квантов можно запереть внутри так называемого «черного ящика» или абсолютно черного тела. Тогда работа «предельного» компьютера могла бы выглядеть следующим образом. Информация хранилась бы в состояниях и траекториях гамма–фотонов и обрабатывалась за счет их столкновений друг с другом, а также с небольшим количеством образующихся при взаимодействиях электронов и позитронов.
Но как его считывать?
«Достаточно просто открыть «окошко» в стенке нашего идеального «ящика» и выпустить фотоны, – полагает Ллойд. – Вылетев наружу со скоростью света, они тут же попадут в детектор гамма–излучения, где и будет считано их состояние».
Для ввода информации потребуется управляемый генератор гамма–излучения. Конечно, все эти устройства ввода–вывода неизбежно привнесут с собой «лишнюю» массу, от которой мы так хотели избавиться. Но Ллойд считает, что в будущем, возможно, удастся сделать такие приборы очень маленькими. Вспомним хотя бы: поначалу ламповые ЭВМ занимали целые залы, весили десятки тонн и требовали для своего питания энергии Ниагары; нынешние же микрочипы порою трудно далее разглядеть невооруженным глазом.
Однако как бы мы ни совершенствовали процесс ввода–вывода, описанная модель «предельного» компьютера имеет один принципиальный недостаток. Допустим, диаметр нашего компьютера–шара равен 10 см. Поскольку фотоны движутся со скоростью света, то все 1031 битов информации, хранящейся в такой ЭВМ, не могут быть «скачаны» из нее быстрее, чем за время, требующееся свету для прохождения расстояния в 10 см – то есть за 3·10–10 с.
Отсюда следует, что максимальная скорость обмена информацией компьютера с внешним миром равна 1041 бит в секунду. А предельная скорость обработки информации, как мы уже выяснили раньше, составляет 1051 бит в секунду, что в 10 млрд раз быстрее.
Таким образом, необходимость связи компьютера с внешним миром, а также отдельных его частей друг с другом будет приводить к существенным потерям в скорости вычислений. «Отчасти решить эту проблему можно, заставив части компьютера работать независимо друг от друга, то есть параллельно», – отмечает Ллойд.
А есть ли способ повысить скорость ввода–вывода информации? «Да, – говорит Ллойд, – надо уменьшать размеры компьютера. Тогда обмен информацией будет происходить быстрее...»
Но что случится, если мы начнем сжимать «сгусток» гамма–квантов, температура которого равна миллиарду градусов? По мере сжатия температура станет еще выше, в результате чего в объеме компьютера начнут рождаться новые, еще более экзотические частицы. И в конце концов, сжатый до предела сгусток энергии, как показывает теория, превратится... в «черную дыру».
Обычно «черной дырой» называют область чрезвычайно сильного гравитационного поля, «всасывающую» в себя всю окружающую материю. Полагают, что, оказавшись вблизи «черной дыры», за так называемым горизонтом событий, ни одно тело, даже кванты света, уже не в состоянии вырваться из ее плена. Однако на самом деле это, похоже, не совсем так.
Еще в 1970 году знаменитый английский теоретик Стивен Хокинг из Кембриджского университета (Великобритания) показал, что «черные дыры» должны «парить» – испускать гамма–лучи, кванты света и некоторые другие элементарные частицы.
Но коль «черные дыры» все же излучают, то они имеют энтропию, а значит, способны запасать информацию. Энтропия «черной дыры» была вычислена в 1972 году Яковом Бекенштейном. У него получилось, что «черная дыра» массой 1 кг может хранить примерно 1016 бит.
И добыть эту информацию можно: Сет Ллойд считает, что она остается записанной на горизонте событий в форме сжатых вселенских струн – «наподобие сплющенных спагетти».
Если это действительно так, то «черная дыра» и есть «предельный» компьютер.
Ну а при чем тут все–таки Всевышний и сотворение мира? Заглянем в конец рассказа Айзека Азимова.
Прошли еще триллионы лет, и начали гаснуть последние звезды, смерть Вселенной стала неотвратимой. Люди, уже давно покинувшие свои физические тела и превратившиеся в сгустки энергии, теперь слились в единое целое с машиной – вездесущей и всемогущей. Но все же еще не абсолютно всемогущей, ибо перед тем как последняя часть человечества слилась с машиной, ей вновь был задан тот же старый вопрос, и машина не смогла дать ответ.
Наконец, наступил последний акт нашей истории. Материя и энергия кончились, вместе с ними перестало существовать пространство и время. Осталась только Машина. Она работала, стараясь найти ответ на главный вопрос. Тот самый, который 10 трлн лет тому назад два техника задали далекому предку нынешней Машины.
Вся информация, которую можно было накопить, уже имелась в памяти. Ее следовало лишь согласовать и выверить. На это потребовался неизмеримый промежуток времени, но вот миновал и он. Машина наконец сделала все. И... произнесла: «Да будет свет!»
И стал свет. И она увидела, что это хорошо...
...К сказанному позволю себе добавить, что данная версия все же построена на многих гипотезах и логических построениях, которым еще нет фактических доказательств. Ведь даже представление о том, что наша Вселенная возникла из некой гипотетической точки сингулярности, возможно, является «черной дырой», не более чем красивая теория.
Но как все логично получается! Кроме того, ведь известно, чтобы быть верной, физическая теория должна быть достаточно безумной...