Компьютерра 01.11.2010 - 07.11.2010

Статьи

Чего стоит ждать от Windows 8 Андрей Письменный

Опубликовано 01 ноября 2010 года

"Самый рискованный продукт Microsoft — это следующий релиз Windows" — заявил глава компании Стив Баллмер. К сожалению, за этими словами не последовало никаких подробностей. Похоже, что после того, как в Microsoft, по сути, загубили проект Longhorn, предшествовавший Windows Vista, о достоинствах грядущих продуктов стали говорить куда осторожнее. В частности, об упомянутой Баллмером следующей версии Windows известно совсем мало, да и то не по доброй воле Microsoft.

Релиз Windows 7, последовавший через два года после провальной Vista, оказался более чем успешным. Доходы компании в первом квартале 2010 года заметно возросли по сравнению с тем же периодом за прошлый год — не в последнюю очередь благодаря Windows 7. Однако «семёрка» — хоть и популярный, но по большей части эволюционный продукт. В Windows 8, судя по громким заявлениям и уже известным подробностям, изменений будет куда больше. Но действительно ли они настолько фундаментальны, что способны повлиять на популярность Windows?

Windows Phone 7 — новый релиз мобильной ОС Microsoft, по сравнению с прошлыми версиями вообще перевернул всё с ног на голову: приложения для прошлых Windows Mobile там даже не запустятся. И если Баллмер не готов отдать WP7 звание самого рискованного продукта, то изменения в десктопной версии должны быть поистине грандиозными.

Что известно о Windows 8 на текущий момент? Не так уж много, да и за это нужно благодарить какого-то рассеянного сотрудника Microsoft или кого-то из партнёров компании, давшего утечь в Сеть слайдам с конфиденциальной презентации. Там, в частности, упоминались: быстрая загрузка системы, улучшенная поддержка планшетов (привет, HP Slate!), возможность переустанавливать систему, не теряя настроек и прочих личных данных, поддержка распознавания лиц (избавляет от необходимости вручную логиниться в систему), Internet Explorer 9, улучшенная справка и, наконец, Windows App Store — аналог популярных ныне магазинов приложений для мобильных телефонов.

Один из слайдов презентации, посвящённой разработке Windows 8


Что же тут рискованного? Вряд ли Баллмер говорил о гибернации, которая при особенном «везении» может быть так испорчена, что будет создавать проблемы и при входе в систему и при выходе. Скорее уж речь идёт о встроенном в ОС магазине софта. Если разработчики его не признают или пользователи не станут покупать приложения, то затея провалится. Но сможет ли даже такой серьёзный провал повлиять на популярность ОС? Сомнительно. Для этого нужно что-то ещё более мощное — к примеру, запрет на установку приложений не из магазина. Но вряд ли в Microsoft пойдут на такой шаг — это сделало бы установку всех старых программ невозможной и действительно убило бы Windows.

Возможно, в поисках разработок, которые потенциально могут войти в Windows 8, стоит обратить внимание на технологии, создававшиеся в рамках проекта Windows Longhorn, но так и не вошедшие в Windows Vista. А среди них действительно было немало интересного.

За названием Aero могло скрываться куда больше, чем использование трёхмерных эффектов и красивая декорация окон. Ещё во времена Windows ME был разработан интерфейс, где главную роль играли не окна и не документы, а задачи (Activity). По задумке авторов проекта, вся работа с ОС должна была вращаться вокруг так называемых «центров активности», в которых были бы собраны самые необходимые действия. До конечной реализации в итоге довели лишь один из центров — Music Center, который в итоге превратился в Windows Media Player 7.

Куда более известная неиспользованная технология из Longhorn — это файловая система WinFS, создатели которой, по сути, отказались от традиционной иерархической структуры каталогов, а всю информацию предлагали хранить в реляционной базе данных. Это помогло бы программистам упростить код, отвечающий за работу с файлами, а пользователям — легче находить информацию на жёстком диске. Когда разработка Longhorn начала задерживаться, от WinFS было решено отказаться. Навсегда ли? Идея выглядит по-прежнему привлекательной. Возможно, и реализацию за прошедшие годы успели довести до должного уровня.

Palladium или Next-Generation Secure Computing Base (NGSCB) — далеко не такая желанная разработка, как WinFS. Она позволяет изолировать процессы на уровне «железа» — соответствующая микросхема уже создана компанией Trusted Computing Group и устанавливается в некоторые компьютеры (в частности — в ноутбуки Lenovo ThinkPad). Palladium не был включен ни в Windows Vista ни в Windows 7, а страница с описанием технологии на разработческом портале MSDN не обновлялась с 2004 года. Всё это, впрочем, не означает, что Microsoft забросила разработку Palladium — никаких официальных анонсов на этот счёт не было.

Можно ещё вспомнить о существовании проекта Singularity — экспериментальной операционной системы с микроядерной архитектурой, разработанной в Microsoft Research в 2003 году и обновлённой до версии 2.0 в 2008. Вряд ли, правда, Singularity уже готова настолько, чтобы ей можно было заменить ядро NT уже в следующей версии Windows. Для этого понадобился бы как минимум новый набор драйверов, а скорее всего и обновление остальных низкоуровневых компонентов ОС.

И Activity, и WinFS вписались бы в концепцию «улучшенной поддержки планшетов», которую якобы обеспечит Windows 8. Смена традиционного рабочего стола на Activity сблизила бы интерфейс Windows 8 c Windows Phone 7, где уже реализовано нечто очень похожее. WinFS избавляет пользователя от необходимости копаться в файловой системе — не хуже, чем операционная система iOS, работающая в Apple iPad. Palladium же, скорее, сочетается с концепцией закрытой системы с приложениями, устанавливающимися только из магазина. С использованием этой технологии становится куда проще защитить систему от установки неподписанных приложений.

Многие из перечисленных изменений напоминают то, что компания Apple использует в iOS и обещала включить в Mac OS X 10.7 Lion, следующую версию «десктопной» ОС, релиз которой также состоится в 2011 году. Магазин приложений для «маков» появится уже в начале года и будет работать в том числе на Mac OS X 10.6 Snow Leopard. Также заявлено, что в Lion приложения будут самостоятельно сохранять состояние при выходе и восстанавливать при следующем запуске. Похоже, обе компании внимательно следят за действиями друг друга и без атмосферы жёсткой конкуренции не обойдётся. Если она заставит Microsoft пойти на риск, а Apple — поторопиться с выпуском Lion, это лишь пойдёт всем на пользу.


К оглавлению

Владимир Каширцев (ИНГиГ СО РАН) о том, закончится ли нефть Алла Аршинова

Опубликовано 03 ноября 2010 года

Тема запаса нефти и ее добычи — одна из наиболее обсуждаемых в мире. Самым серьезным опасением является, разумеется, то, что в ближайшее время ее ресурсы исчерпаются. Это, по мнению многих обывателей, сильно изменит жизнь человечества и приведет к всевозможным видам кризисов: энергетическому, экономическому, транспортному.

Но ученые не торопятся бить тревогу. По мнению экспертов, нефти «на наш век точно хватит». О видах и ресурсах нефти, о способах ее добычи и критериях «качества» рассказывает Владимир Каширцев, член-корреспондент Российской академии наук, доктор геолого-минералогических наук, первый заместитель директора по научной работе Института нефтегазовой геологии и геофизики им. А. А. Трофимука.

- Владимир Аркадьевич, как скоро закончится нефть?

- По прогнозам 1930-х нефть должна была кончиться к 50-м годам, по прогнозам 50-х она должна была кончиться сейчас, по сегодняшним прогнозам резкое снижение добычи произойдет в 2030 году.

Есть понятие выхода на «полку» (или «на пик» по теории американского геофизика Хаберта), за которой неизбежно следует снижение добычи нефти. В советской России мы выходили на «полку» ежегодной добычи более чем в 600 миллионов тонн, сейчас добываем чуть больше 400, то есть уровень полки понизился, но добыча в ряде регионов при этом продолжает нарастать.

Раньше мы компенсировали добычу приростом запасов примерно в два раза, то есть добывали определенное количество, а запасы приращивали и утверждали в Государственном комитете по запасам (ГКЗ) в 2 раза больше. Несколько лет назад мы потребляли нефти больше, нежели приращивали геологических запасов. В последнее время вышли на прирост запасов, опережающий примерно на 10 % добычу. Кроме того, во всем мире возрос интерес к так называемым альтернативным источникам углеводородов, в том числе и к нетрадиционным нефтям.

- Что такое нетрадиционная нефть, много ли ее, и где ее добывают?

- Нетрадиционная нефть — это нефть, получаемая при переработке нефтяных, или точнее, битуминозных песчаников, залегающих практически на земной поверхности. В свое время это были пески или пачки песчаников, пропитанные нефтью, из которых впоследствии (при подъеме слоев тектоническими движениями к поверхности) улетели бензиновые фракции, а осталась только масляная и асфальтово-смолистая часть.

Основными запасами нетрадиционной нефти обладают месторождения пояса Ориноко в Венесуэле и в Западной Канаде (Атабаска, Колд-Лейк и другие). Существуют уникальные нефтяные месторождения битумов и на севере Сибирской платформы, с ресурсами битума по разным оценкам от 4 до 20 миллиардов тонн.

В Татарстане в ГКЗ поставлено на учет 1,4 миллиардов тонн природных битумов, которые содержатся в полутора десятках месторождений. В Канаде месторождения битумов (с ресурсами примерно в 10 раз больше, чем у нас) разрабатываются карьерным способом.

При первичной переработке битуминозных песков (обычно путем пиролиза) получают нефть плотностью порядка 0, 85 г/см3, то есть по плотности — практически соответствующую традиционной нефти, но по своему углеводородному составу существенно отличающуюся от последней.

В Западной Сибири есть также месторождения тяжелых и высоковязких нефтей, например, Русское и Северо-Комсомольское, которые сложно добывать традиционными методами.

Мне доводилось бывать в Калифорнии на месторождении Сансет, где высоковязкую нефть разрабатывают с помощью пятиточечной системы. Она заключается в следующем. Через четыре скважины в пласт закачивают пар, в середине бурится дренажная скважина, откуда и откачивается на поверхность разогретая нефть. Она же используется для того, чтобы в специальных бойлерах опять превратить воду в пар. Лозунг компании «Эксон» при разработке этого месторождения «Максимальная безопасность», и, действительно, его обслуживает всего два человека, процесс полностью автоматизирован.

Что касается рентабельности эксплуатации таких месторождений, то в Канаде, например, при современных мировых ценах добывать нефть из битумных песков выгодно, поскольку ее ресурсы оцениваются более чем в 130 миллиардов тонн, а общие ресурсы природных битумов и сверхтяжелых нефтей составляют не менее трех четвертей от общих ресурсов традиционных нефтей. Также нужно учитывать, что в нашей стране только начинаются работы по освоению Арктического шельфа, уже открыто Штокмановское газоконденсатное месторождение. Два таких же газоконденсатных месторождения открыто и в Карском море. А что касается шельфа моря Лаптевых и дальней Чукотки — эти области практически не исследованы.

- Когда добыча дорогой нефти станет выгодной?

- Она стала выгодной, как только цена перевалила за 48 долларов за баррель, нефтеносные песчаники Атабаски (Канада) и Венесуэлы стали, несомненно, экономически выгодными для промышленной разработки.

- Что Вы думаете об абиогенном происхождении нефти?

- В свое время в России была школа известных ученых (начиная с Д.И.Менделеева –создателя карбидной гипотезы), которые придерживались точки зрения, что вся нефть происходит из мантии, и ее запасы практически неисчерпаемы. Есть и сейчас исследователи, которые с ними солидарны.

Но существует другая, общепринятая, теория (а не гипотеза) осадочно-миграционного или органического происхождения нефти, разработкой которой заняты научно-исследовательские коллективы. А нефтяные компании используют результаты этих разработок для количественной оценки перспектив нефтегазоносности различных регионов. В качестве примера могу привести опыт некоторых компаний, которые успешно используют компьютерное моделирование для реконструкций нефтеобразования, миграции и аккумуляции углеводородов в осадочных «бассейнах».

Специальные компьютерные программы анализируют мощность осадочного чехла в бассейнах, реконструируют особенности их геологического развития, оценивают содержание в породах органического ископаемого вещества, сколько в итоге получится нефти, и где ее искать? Наш институт выполнял подобные работы для компаний «ЭксонМобил», Shell и Conoco Phillips по моделированию и бассейновому анализу северных регионов Западной Сибири. У зарубежных компаний очень практичный подход к делу, и их не интересует теория абиогенного происхождения нефти, потому что с их точки зрения, она ничего не дает для практики.

За 40 лет опыта работы в этой области я также пришел к убеждению, что нефть имеет органическое происхождение, это может быть связано как с древними (более миллиарда лет) ископаемыми отложениями, так и сравнительно молодыми толщами, заполняющими внутриконтинентальные рифтогенные структуры. Мне совместно с «экспедициями на Мирах» посчастливилось побывать на дне Байкала, и воочию увидеть на глубине около 900 метров следы нефтепроявлений Байкала. Используя методы органической геохимии, нам удалось доказать, что нефть здесь генерируется сравнительно молодыми кайнозойскими осадочными отложениями, толщина которых на дне озера может достигать 7-10 километров. Внутри этой толщи отложений существуют вполне достаточные температуры и давление, чтобы происходила генерация нефти.

- То есть при желании можно использовать Байкал как нефтяной ресурс?

- Это возможно, но нежелательно. Лучше его использовать как модель для изучения процессов зарождения и разрушения нефтяных залежей в современных бассейнах рифтогенного типа.

- А как же экология?

- Байкал всю всплывающую нефть «переваривает» и практически не замечает. Нефть, как и любое органическое вещество, может разлагаться бактериями. Причем существуют целые сообщества бактерий, которые с удовольствием используют в своем жизненном цикле именно нефтяные углеводороды.

Среди них есть «гурманы», которые съедают сначала, например, насыщенные углеводороды, потом берутся за ароматику. Мы посчитали, что примерно 16 тонн нефти в год всплывает со дна Байкала. Это естественные источники, и никакого вреда Байкалу от них нет. Это не авария в Мексиканском заливе, хотя и здесь при более благоприятных температурных условиях бактерии поработают интенсивнее и справятся с этим бедствием.

- Почему тогда подняли такой шум вокруг этой темы?

- И правильно. Это ведь процесс длительный. Вы же видели птиц, залепленных нефтью. То, что они накрыли сейчас колпаком, и то, что осталось, будет переработано естественным образом, но все равно это экологическая катастрофа.

- Почему нельзя добыть всю нефть?

- Я думаю, что рядовой читатель вряд ли представляет, что такое нефтяное месторождение или нефтяная залежь. Это не полость в земной коре, заполненная нефтью, а породы, которые обладают определенной пористостью, и нефть, как и любой флюид, пропитывает их. А если речь идет о древних месторождениях, то это не пески, а песчаники, или карбонатные твердые породы.

То есть нефть заполняет лишь поровое пространство в породах. Существуют межмолекулярные силы, из-за которых нефть «прилипает» к зернам этих пород, и она связана с ними настолько, что ее не оторвешь никакими силами. И хорошо, если геологические запасы будут, например, 100 миллионов тонн, а коэффициент извлечения нефти 0,3. То есть из 100 миллионов тонн нефти, которые содержатся в месторождении, мы можем извлечь лишь 30 миллионов, и не больше.

Существует целая серия вторичных методов интенсификации притоков, это, например, гидроразрыв: в скважину закачивается вода под большим давлением, рвется пласт, чтобы нефть притекала к скважине. Но поскольку межмолекулярные связи порвать практически невозможно, и как бы мы ни бились, достичь даже коэффициента извлечения в 0, 5 % от геологических запасов — это большая удача.

- По каким характеристикам определяют качество нефти?

- При непосредственном получении нефти на промысле ее качество определяют механические примеси, вода, растворенные в ней соли и газовый фактор, то есть количество растворенных в нефти газовых компонентов. Один из основных показателей — это содержание серы. Сера является компонентом, который неблагоприятно влияет на качество получаемых продуктов переработки. Она может существовать в виде различных соединений (сульфиды, меркаптаны и т.п.).

Вам приходилось пользоваться газовой плиткой? Когда вы включаете плиту и еще не зажгли газ, говорят, «пахнет газом». Сам по себе природный газ не пахнет. А запах ему придает адарант или сернистое соединение, которое специально вводят в газ. Причем это такая гадость, что если ввести одну ее часть на миллион, вы все равно почувствуете запах.

И в целях безопасности, чтобы можно было ощущать утечку газа, меркаптан специально вводят в природный газ. И таких сернистых соединений в нефти очень много, вплоть до того, что существует даже элементная сера. Есть удивительное месторождение в Казахстане — Тенгиз, там наряду с добычей нефти получают целые горы самородной серы.

Другие качества нефтей определяют такие параметры, как плотность, вязкость, содержание парафинов, количество различных температурных фракций и многое другое. Есть еще много полезных и вредных примесей. Ряд нефтей содержит ванадий, а ванадий, казалось бы, хороший элемент, но если он попадает в большом количестве, например, в реактивное топливо, то может корродировать и разрушить лопатки турбин.


К оглавлению

ARPAnet: начало и конец Юрий Ильин

Опубликовано 03 ноября 2010 года

29 октября 1969 года с компьютера SDS Sigma 7 в Университете штата Калифорния в Лос-Анджелесе на компьютер SDS 940 в Стэнфордском университете было передано первое текстовое сообщение — «LOGIN». Со второй попытки, но передано.

Ну и что, спросят нас читатели? Ничего особенного, просто стоит обратить внимание на год, когда это случилось, и на то обстоятельства, что эти два компьютера были первыми узлами сети, которая впоследствии получила название ARPANET.

Да-да, той самой сети, из которой вроде как вырос потом весь интернет. Той самой, которая, согласно более поздней мифологии, конструировалась на случай ядерной войны, чтобы, дескать, обеспечивать стабильную связь в условиях, когда прямые каналы связи выведены из строя.

На самом деле это действительно миф: ARPANET хоть и порождён Агентством по перспективным научно-исследовательским проектом (ARPA, теперь — DARPA), по сути не являлся сугубо оборонным проектом, скорее частной инициативой, к разработке которой ARPA привлекла существенные средства.

Частным (ну, почти) лицом, вокруг которого закрутилась вся история, стал специалист по информатике Дж. Ликлайдер (J.C.R. Licklider), работавший в компании BBN. В августе 1962 года он опубликовал несколько работ, связанных с построением того, что он поименовал «Интергалактическая компьютерная сеть». В ней были изложены практически все основные принципы, по которым функционирует сегодняшний интернет.


В октябре1963 года Ликлайдер получил назначение в Пентагон на должность руководителя программ поведенческих наук и командования и контроля в Агентстве по перспективным научно-исследовательским проектам (Advanced Research Projects Agency).

Ликлайдер затем долго общался с Айвеном Сазерлендом и Бобом Тэйлором — потом их назовут пионерами интернета, и за дело, — и смог-таки убедить их в целесообразности реализации своих идей. Впрочем, ARPA Ликлайдер успел покинуть ещё до того, как его концепция была принята в разработку.

Дальше за дело взялся Тэйлор.

У ARPA был свой интерес в проекте компьютерной сети, позволяющей использовать различные компьютеры для передачи сообщений: Агентство спонсировало научные исследования в различных коммерческих и академических заведениях (в том числе в области информатики), и было заинтересовано, чтобы эти исследователи применяли в работе компьютеры, которыми ARPA их же и снабжало.

Кроме того, с помощью такой сети можно было бы ускорить распространение информации о новых результатах исследований и нового программного обеспечения.

Как потом рассказывал Чарльз Херцфельд, бывший глава ARPA, проект ARPAnet стал результатом их «фрустрации по поводу ограниченного количества больших и мощных исследовательских компьютеров в стране, и того обстотельства, что многие исследователи, которые нуждались в доступе к ним, не могли его получить по причине географической удалённости». Ещё одно слово против распространённой идеи о том, что ARPAnet создавался «на случай ядерной войны».

Впрочем, учитывая, что основной профиль ARPA/DARPA — именно военные технологии, а на дворе в самом разгаре шла Холодная Война, приписывать военное назначение ARPAnet будут ещё весьма долго — и вряд ли совсем уж безосновательно.

В офисе у Тэйлора стояли три компьютерных терминала, каждый из которых был соединён с разными компьютерами, сконструированными на деньги ARPA. Первым была система Q-32 в System Development Corporation, второй — Project Genie в Университете Калифорнии в Беркли и третий — компьютерная система Multics в Массачусеттском технологическом институте. Для каждого из терминалов существовала своя система команд, на каждый надо было логиниться, как это сейчас называется, отдельно...

Лень, как известно, двигатель прогресса, и Тэйлор пришёл к закономерному выводу, что неплохо было бы сделать так, чтобы с одного терминала можно было устанавливать соединение с любым другим компьютером.

Кстати, практически в то же время активно шли разработки в области маршрутизации пакетов; первая публичная демонстрация случилась 5 августа 1968 года в Великобритании, в Нацинальной физической лаборатории.

К середине 1968 года Тэйлор подготовил законченный план по созданию компьютерной сети и после одобрения ARPA, 140 потенциальным подрячикам разослали необходимые запросы.

И вот тут вот обнаружилось, что всё это никому не нужно совсем. Подавляющее большинство сочли предложение ARPA безумием, только 12 учреждений отозвались по существу, и лишь четыре из них ARPA рассматривала потом как первичных подрядчиков. К концу 1968 года осталось двое, и в итоге контракт достался упоминавшейся уже выше компании BBN Technologies.

Команда из семи специалистов довольно быстро смогла сконструировать первые работающие машины: на основе компьютера Honeywell DDP 516 производились первые IMP (Interface Message Processors), устройства напоминающие современные роутеры.

Правда, не по размерам:


Каждый IMP получал и пересылал пакеты данных, и был подсоединён к модему, подключённому к выделенным линиям. К самому IMP уже подключался компьютер-хост (через специальный серийный интерфейс).

Работоспособная система со всей аппаратной и программной начинками была сконструирована за девять месяцев. Символичный срок, не так ли?

И вот 29 октября была предпринята первая попытка обмена сообщениями между двумя компьютерами. Первый привет вышел скомканным: из слова LOGIN переданы были только буквы L и O (кстати, сейчас «lo» — это сокращённое «Hello»), после чего система упала в обморок. Через несколько часов её удалось привести в чувство, и слово LOGIN достигло Стэнфордской машины...

Так начался ARPAnet.

К началу декабря 1969 года ARPAnet состоял из четырёх узлов, к сентябрю 1971 года узлов было уже 18, и рост пошёл по экспоненте. В 1973 году состоялась «публичное представление» ARPAnet. В октябре, на Первой международной конференции по компьютерам и коммуникации в Вашингтоне, сотрудники ARPA продемонстрировали работу системы, объединив компьютеры, располагавшиеся в 40 разных местах на территории США. Это привлекло немалый интерес, и помимо ARPAnet начали появляться новые сети, выстроенные по сходным принципам.

Возможно, самым значимым событием в дальнейшем стала разработка сотрудниками ARPA и Стэнфорда протокола контроля передачи данных и межсетевого протокола (transmission control protocol/internet protocol — TCP/IP). Именно этот стек протоколов в основе современного интернета и лежит до сих пор.

Формально ARPAnet прекратил своё существование в 1990 году. С другой стороны на его основных принципах держится весь сегодняшний интернет, так что в какой-то степени ARPAnet оказался бессмертным.


К оглавлению

Загрузка...