Опубликовано 05 августа 2013
Японские астрономы получили самый детальный снимок соседней галактики. Андромеду сфотографировали при помощи новой камеры сверхвысокого разрешения Hyper-Suprime Cam (HSC), установленной на японском телескопе «Субару». Это один из самых больших в мире работающих оптических телескопов — с диаметром главного зеркала более восьми метров. В астрономии размер часто имеет решающее значение. Давайте поближе познакомимся с другими гигантами, расширяющими границы наших наблюдений за космосом.
Телескоп «Субару» расположен на вершине вулкана Мауна-Кеа (Гавайи) и работает вот уже четырнадцать лет. Это телескоп-рефлектор, выполненный по оптической схеме Ричи — Кретьена с главным зеркалом гиперболической формы. Для минимизации искажений его положение постоянно корректирует система из двухсот шестидесяти одного независимого привода. Даже корпус здания имеет особую форму, снижающую негативное влияние турбулентных потоков воздуха.
Обычно изображение с подобных телескопов недоступно непосредственному восприятию. Оно фиксируется матрицами камер, откуда передаётся на мониторы высокого разрешения и сохраняется в архив для детального изучения. «Субару» примечателен ещё и тем, что ранее позволял вести наблюдения по старинке. До установки камер был сконструирован окуляр, в который смотрели не только астрономы национальной обсерватории, но и первые лица страны, включая принцессу Саяко Курода — дочь императора Японии Акихито.
Сегодня на «Субару» может быть одновременно установлено до четырёх камер и спектрографов для наблюдений в диапазоне видимого и инфракрасного света. Самая совершенная из них (HSC) была создана компанией Canon и работает с 2012 года.
Камера HSC проектировалась в Национальной астрономической обсерватории Японии при участии множества партнерских организаций из других стран. Она состоит из блока линз высотой 165 см, светофильтров, затвора, шести независимых приводов и CCD матрицы. Её эффективное разрешение составляет 870 мегапикселей. Используемая ранее камера Subaru Prime Focus обладала на порядок меньшим разрешением — 80 мегапикселей.
Поскольку HSC разрабатывалась для конкретного телескопа, диаметр её первой линзы составляет 82 см — ровно в десять раз меньше диаметра главного зеркала «Субару». Для снижения шумов матрица установлена в вакуумной криогенной камере Дьюара и работает при температуре -100 °С.
Телескоп «Субару» удерживал пальму первенства вплоть до 2005 года, когда завершилось строительство нового гиганта — SALT.
Большой южно-африканский телескоп (SALT) расположен на вершине холма в трёхстах семидесяти километрах к северо-востоку от Кейптауна, близ городка Сазерленд. Это самый крупный из действующих оптических телескопов для наблюдений за южной полусферой. Его главное зеркало с размерами 11,1×9,8 метра состоит из девяносто одной шестиугольной пластины.
Первичные зеркала большого диаметра исключительно сложно изготовить как монолитную конструкцию, поэтому у крупнейших телескопов они составные. Для изготовления пластин используются различные материалы с минимальным температурным расширением, такие как стеклокерамика.
Основная задача SALT — исследование квазаров, далёких галактик и других объектов, свет от которых слишком слаб для наблюдения с помощью большинства других астрономических инструментов. По своей архитектуре SALT подобен «Субару» и паре других известных телескопов обсерватории Мауна-Кеа.
Десятиметровые зеркала двух главных телескопов обсерватории Кека состоят из тридцати шести сегментов и уже сами по себе позволяют достичь высокого разрешения. Однако главная особенность конструкции в том, что два таких телескопа могут работать совместно в режиме интерферометра. Пара Keck I и Keck II по разрешающей способности эквивалентна гипотетическому телескопу с диаметром зеркала 85 метров, создание которого на сегодня технически невозможно.
Впервые на телескопах Keck была опробована система адаптивной оптики с подстройкой по лазерному лучу. Анализируя характер его распространения, автоматика компенсирует атмосферные помехи.
Пики потухших вулканов — одна из лучших площадок для строительства гигантских телескопов. Большая высота над уровнем моря и удалённость от крупных городов обеспечивают отличные условия для наблюдений.
Большой Канарский телескоп (GTC) также расположен на пике вулкана в обсерватории Ла-Пальма. В 2009 году он стал самым большим и самым совершенным наземным оптическим телескопом. Его главное зеркало диаметром 10,4 метра состоит из тридцати шести сегментов и считается самым совершенным из когда-либо созданных. Тем сильнее удивляет сравнительно низкая стоимость этого грандиозного проекта. Вместе с камерой инфракрасного диапазона CanariCam и вспомогательным оборудованием на строительство телескопа было затрачено всего $130 млн.
Благодаря CanariCam выполняются спектроскопические, коронографические и поляриметрические исследования. Оптическая часть охлаждается до 28 К, а сам детектор — до 8 градусов выше абсолютного нуля.
Поколение больших телескопов с диаметром главного зеркала до десяти метров заканчивается. В рамках ближайших проектов предусмотрено создание серии новых с увеличением размеров зеркал в два–три раза. Уже в следующем году в северной части Чили запланировано строительство широкоугольного обзорного телескопа-рефлектора Large Synoptic Survey Telescope (LSST).
Ожидается, что он будет обладать самым большим полем зрения (семь видимых диаметров Солнца) и камерой с разрешением 3,2 гигапикселя. За год LSST должен делать более двухсот тысяч фотографий, общий объём которых в несжатом виде превысит петабайт.
Основной задачей станут наблюдения за объектами со сверхслабой светимостью, включая астероиды, угрожающие Земле. Запланированы также измерения слабого гравитационного линзирования для обнаружения признаков тёмной материи и регистрация кратковременных астрономических событий (таких как взрыв сверхновой). По данным LSST предполагается строить интерактивную и постоянно обновляемую карту звёздного неба со свободным доступом через интернет.
При надлежащем финансировании телескоп будет введён строй уже в 2020 году. На первом этапе требуется $465 млн.
Гигантский Магелланов телескоп (GMT) — перспективный астрономический инструмент, создаваемый в обсерватории Лас-Кампанас в Чили. Главным элементом этого телескопа нового поколения станет составное зеркало из семи вогнутых сегментов общим диаметром 24,5 метра.
Даже с учётом вносимых атмосферой искажений детальность сделанных им снимков будет примерно в десять раз выше, чем у орбитального телескопа «Хаббл». В августе 2013 года завершается отливка третьего зеркала. Ввод телескопа в эксплуатацию намечен в 2024 году. Стоимость проекта сегодня оценивается в $1,1 млрд.
Тридцатиметровый телескоп (TMT) — ещё один проект оптического телескопа нового поколения для обсерватории Мауна-Кеа. Главное зеркало диаметром в 30 метров будет выполнено из 492 сегментов. Его разрешающая способность оценивается как в двенадцать раз превышающая таковую у «Хаббла».
Начало строительства запланировано на следующий год, завершение — к 2030-му. Расчётная стоимость — $1,2 млрд.
Европейский чрезвычайно большой телескоп (E-ELT) сегодня выглядит наиболее привлекательным по соотношению возможностей и затрат. Проектом предусмотрено его создание в пустыне Атакама в Чили к 2018 году. Текущая стоимость оценивается в $1,5 млрд. Диаметр главного зеркала составит 39,3 метра. Оно будет состоять из 798 шестиугольных сегментов, каждое из которых — около полутора метров в поперечнике. Система адаптивной оптики будет устранять искажения при помощи пяти дополнительных зеркал и шести тысяч независимых приводов.
Расчётная масса телескопа составляет более 2800 тонн. На нём будет установлено шесть спектрографов, камера ближнего ИК-диапазона MICADO и специализированный инструмент EPICS, оптимизированный для поиска планет земного типа.
Основной задачей коллектива обсерватории E-ELT станет детальное исследование открытых к настоящему времени экзопланет и поиск новых. В качестве дополнительных целей указывается обнаружение признаков наличия в их атмосфере воды и органических веществ, а также изучение формирования планетарных систем.
Оптический диапазон составляет лишь малую часть электромагнитного спектра и обладает рядом свойств, ограничивающих возможности наблюдения. Многие астрономические объекты практически не обнаруживаются в видимом и ближнем инфракрасном спектре, но при этом выдают себя за счёт радиочастотных импульсов. Поэтому в современной астрономии большая роль отводится радиотелескопам, размер которых напрямую влияет на их чувствительность.
В одной из ведущих радиоастрономических обсерваторий Аресибо (Пуэрто-Рико) расположен крупнейший радиотелескоп на одной апертуре с диаметром рефлектора триста пять метров. Он состоит из 38 778 алюминиевых панелей суммарной площадью около семидесяти трёх тысяч квадратных метров.
С его помощью уже был сделан ряд астрономических открытий. К примеру, в 1990 году обнаружен первый пульсар с экзопланетами, а в рамках проекта распределённых вычислений Einstein@home за последние годы были найдены десятки двойных радиопульсаров. Однако для ряда задач современной радиоастрономии возможностей «Аресибо» уже едва хватает. Новые обсерватории будут создаваться по принципу масштабируемых массивов с перспективой роста до сотен и тысяч антенн. Одними из таких станут ALMA и SKA.
Атакамская большая миллиметровая/субмиллиметровая решётка (ALMA) представляет собой массив из параболических антенн диаметром до 12 метров и массой более ста тонн каждая. К середине осени 2013 года число антенн, объединённых в единый радиоинтерферометр ALMA, достигнет шестидесяти шести. Как и у большинства современных астрономических проектов, стоимость ALMA превышает миллиард долларов.
Квадратная километровая решётка (SKA) — другой радиоинтерферометр из массива праболических антенн, расположенных в Южной Африке, Австралии и Новой Зеландии на общей площади около одного квадратного километра.
Его чувствительность примерно в пятьдесят раз превосходит возможности радиотелескопа обсерватории Аресибо. SKA способен уловить сверхслабые сигналы от астрономических объектов, расположенных на удалении 10–12 млрд световых лет от Земли. Начать первые наблюдения планируется в 2019 году. Проект оценивается в $2 млрд.
Несмотря на огромные масштабы современных телескопов, их запредельную сложность и многолетние наблюдения, исследование космоса только начинается. Даже в Солнечной системе до сих пор обнаружена лишь малая часть объектов, заслуживающих внимания и способных повлиять на судьбу Земли.
Опубликовано 05 августа 2013
Лихорадка имени Эдварда Сноудена никак не желает стихать. Вот уже два месяца тема слежки за сетянами и противодействия ей остаётся в абсолютных лидерах по крайней мере на англоязычных технофорумах, а паранойя в обществе разрослась до размеров просто невообразимых. Вы, конечно, уже слышали, как несчастную американскую семью подвергли допросу на предмет причастности к террористическим организациям. Так получилось, что мама искала в интернете скороварки, папа — рюкзак, сын читал о «бостонских чеченцах» и о том, как легко нынче заполучить инструкции для изготовления бомб в домашних условиях, — а результатом стал приезд спецназовцев. Грешили на Google и АНБ, а оказалось, что бывший работодатель папы просто был слишком любопытен — и, внимательно изучив историю поиска на рабочем ноутбуке, позвонил куда следует. А как ещё? Времена такие!
С другой стороны, костёр паранойи нужно чем-то питать — и дровишки в виде всё новых разоблачений не кончаются. Сам Сноуден с момента прибытия в Москву ничем новым не делился, но журналисты избранных изданий продолжают копаться в предоставленных ранее материалах и время от времени извлекают на свет божий очередную жемчужину. В эти выходные все обсуждали находку газеты The Guardian под названием XKeyscore (об этом субпроекте было известно и ранее, но до сих публиковались только отдельные слайды, а сейчас обнародована полная презентация). Если вкратце, это огромный, пополняемый в реальном времени, глубиной в несколько суток (слишком много информации даже для АНБ!) архив, куда стекаются данные из полутора сотен интернет-источников («сенсоров»), разбросанных по планете. И не подумайте, что речь только о метаданных: стекается вообще всё, что удалось достать.
Пользователь XK волен сечь и фильтровать архив по любым критериям. Он может, например, извлечь из него всё, что связано с автором конкретного адреса e-mail. Может запросить все документы с расширением .DOC, произведённые в конкретном географическом регионе. Или узнать IP-адреса всех посетителей какого-нибудь веб-сайта. А то и вовсе запросить адреса всех уязвимых к взлому персоналок в произвольном населённом пункте.
Всё это богатство можно рассматривать под разным «увеличением», начиная с «высоты птичьего полёта» (когда видна только метаинформация) и заканчивая отдельными байтами в документах и HTTP-запросах. Таким образом, функционально, XKeyscore — это микроскоп, под который можно положить практически любого пользователя глобальной сети, без всяких судебных разрешений (микроскопу, понятно, всё равно, есть у субъекта американский паспорт или нет, выписан ордер или за ним и не обращались). Очевидно, именно XKeyscore подразумевал Сноуден, когда в одном из первых интервью заявлял: сидя за своим столом, я могу подслушать каждого, от обывателя до президента. И, очевидно, именно существование XKeyscore отрицали официальные лица правительства, заявляя, что Эдвард врёт и у спецслужб таких возможностей нет и не было.
О существовании и функционале XKeyscore догадывались и раньше. Но за последние несколько дней совместными усилиями журналистов и спецов по компьютерной безопасности была сформулирована идея, о которой ранее речь не шла. Формальным поводом послужил странный пробел в списке компаний, сотрудничающих с АНБ. Помните его: Microsoft, Google, Apple и другие? Так вот, в нём отсутствуют минимум два ярких имени ИТ-индустрии (попробуйте их угадать) — и если поначалу, в горячке, на это никто не обратил внимания, сейчас вопрос вертится на языке: как так получилось, что два американских производителя, фактически диктующих моду компьютерному миру, не были привлечены АНБ к «антитеррористическим мероприятиям»?
Пока вы думаете, о ком идёт речь, позвольте вспомнить родственный инцидент из последнего. На днях выяснилось, что Соединённые Штаты и их союзники (как минимум Великобритания, Канада, Австралия и Новая Зеландия) на протяжении уже какого-то времени запрещают использование компьютеров Lenovo в правительственных структурах, имеющих дело с государственной тайной. Почему? Из-за опасений, что в китайских компьютерах могут быть «чёрные ходы» (облегчающие взлом или слежку за пользователями), встроенные крупнейшим производителем PC по настоянию родных для него спецслужб. Но если до этого додумались в Поднебесной, наивно полагать, что ещё раньше до того же не додумались в США.
Теперь вы легко угадаете, о ком идёт речь. Так вот, в ответ на известие о Lenovo несколько авторитетных экспертов (в том числе Стив Бланк — спец по микропроцессорам, в молодости работавший на АНБ) заявили примерно следующее: они не удивятся, если узнают, что АНБ вынудило Intel и AMD к сотрудничеству в интересах «национальной безопасности», заставив интегрировать в микропроцессоры x86 шпионские «закладки». Для этого, вероятно, не пришлось даже менять электронную часть: поскольку все современные массовые CISC-микропроцессоры фактически используют так называемый микрокод, достаточно изменить микрокодовые программы для некоторых процессорных инструкций, чтобы радикально облегчить АНБ задачу слежки.
Вообще, микрокод — тайна за семью печатями. Мы знаем лишь, что в современных чипах с его помощью реализована часть сложных ассемблерных инструкций, но и только. Ни изучить, ни написать, ни опробовать собственные микрокодовые программы мы не в состоянии: мало того что та же Intel принципиально не публикует необходимую документацию, так ещё и скармливаются микрокодовые программы процессору в зашифрованном виде (по крайней мере так утверждают знающие люди). Ничто из этого, конечно, не является преградой для АНБ. Заставив Intel и AMD модифицировать некоторые команды ассемблера через микрокод (прямо на этапе производства или позже, через регулярно выпускаемые микрокодовые патчи), можно, как предполагается, добиться, например, предсказуемого влияния на аппаратный генератор случайных чисел — краеугольный камень криптографии. И тем значительно ослабить даже самые стойкие шифры.
Intel, правда, поспешила опровергнуть эти доводы как «спекуляцию», но, в конце концов, если Эдвард Сноуден нас чему-то и научил, так это не верить никому, когда речь идёт об «интересах нации». Может быть, конечно, крупнейшие микропроцессорные вендоры и впрямь смогли ответить «нет» на официальное предложение помочь в поимке террористов. Но скорее они просто участвуют в отдельном суперсекретном проекте, о котором даже Сноуден мог только догадываться. А может быть, Эдвард в курсе, но держит этот — действительно сногсшибательный — факт про запас, как пресловутую страховку. (Помните: у него осталась «информация, способная чрезвычайно навредить правительству США»?) Что же до АНБ, то она как минимум уже дважды была уличена в попытках внедрения «жучков» в компьютеры и криптомашины (если интересно, поищите историю чипа Clipper и аппаратов компании Crypto AG; обе истории имели место больше десяти лет назад).
Сам Сноуден, скорее всего, теперь обживается где-то в российской глубинке (помнится, в качестве одного из вероятных мест пребывания называлась Пермь). Паспорт у него хоть и временный, всего на год, но продлеваемый и даёт право на переезды и работу. Это важно, потому что США очевидно считают его опасным преступником — и одного года на российской земле может оказаться мало. Осталось только предупредить новоиспечённого россиянина, чтобы не слишком резко окунался в российский быт: с непривычки может испугаться даже аэнбэшник.
Опубликовано 06 августа 2013
В фантастических фильмах часто показывают, как в будущем химический анализ образца занимает секунды, а его результаты предстают в максимально наглядной форме. Понемногу фантастика становится реальностью. Исследователи из Национальной лаборатории имени Лоуренса в Беркли и Университета Висконсина в Милуоки объявили о разработке нового способа полноцветной ИК-микротомографии.
Объединив два хорошо известных метода (ИК-Фурье-микроспектроскопию с компьютерной томографией), им удалось создать новую технологию 3D-визуализации. В отличие от многих подобных, она не требует специальной подготовки образцов и не оказывает на них разрушающего воздействия. Вдобавок метод обеспечивает беспрецедентную детальность в представлении строения исследуемых образцов, включая биологические ткани.
Для большинства других методов визуализации выбор цвета происходит условно. Например, при цветовом допплеровском картировании направление кровотока по отношению к датчику представлено на мониторе синим или красным цветом. Здесь же осуществляется спектральная привязка по цвету к определённым химическим соединениям, что позволяет сразу увидеть особенности состава образца.
ИК-Фурье микротомография использует низкоэнергетические фотоны, поэтому практически не влияет на структуру образца и живые ткани. Метод может использоваться без значимых ограничений в медицинских исследованиях, археологии и дефектоскопии.
Каждый элемент объёмного изображения (воксел) формируется сочетанием множества спектров одного образца. Последний медленно вращают на подставке, удерживая в фокусе ИК-микроскопа и облучая разными длинами волн в инфракрасном спектре. Основным лимитирующим фактором является скорость переключения режимов источника и параллельно выполняемого сканирования. Источником ИК-света является установка IRENI, созданная в центре синхротронного излучения (SRC) при Университете Висконсина в Милуоки.
«С IRENI можно быстро получить сотни спектральных изображений вращающегося образца, — пишет один из авторов исследования Майкл Мартин. — Затем для каждой длины волны мы реконструируем полную 3D-модель при помощи алгоритмов компьютерной томографии».
Каждое вещество поглощает инфракрасный свет с определённой длиной волны, формируя уникальную картину — спектр поглощения. По этим спектрам можно определить наличие и характер распределения различных молекул в образце.
В классической ИК-спектроскопии определяются преимущественно низкомолекулярные соединения. Новый метод расширяет границы, позволяя обнаруживать и крупные молекулы, включая белки, жиры, нуклеиновые кислоты, полимеры и комплексные соединения.
Одновременно выполняется качественный анализ (факт обнаружения искомого вещества) и количественный (его масса). Дополнительно появляется возможность отслеживать перемещение различных веществ и наблюдать за динамикой биологических процессов.
Помимо наглядной визуализации, общая трёхмерная картина несёт в себе большой объём информации для углубленных исследований с использованием методов кластеризации и нейронных сетей.
Отслеживание изменения химического состава тканей и клеток позволит выяснить механизмы развития заболеваний и защитных реакций организма в ответ на различные внешние воздействия. Инфракрасная микротомография по множеству параллельных каналов способна помочь в исследовании клеточных процессов.
В опубликованной работе уже отмечались такие направления исследовательских проектов, как изучение кинетики живых клеток (фитопланктон), грибков и бактерий-минеральных взаимодействий. По мнению авторов, методика также найдёт применение в других научных дисциплинах, включая нанотехнологии, генетику, биохимию и физику конденсированных сред.
«С ИК-Фурье-спектроскопией в науке связано много интересных открытий, — отмечает Майкл Мартин. — Благодаря ИК-лазерам разрешающая способность достигла дифракционного предела. Казалось, метод уже нельзя усовершенствовать. Тем сильнее впечатляет тот факт, что сейчас мы впервые смогли перейти к объёмной полноцветной визуализации».
Метод уже опробован на разных биологических объектах. Среди них клеточная стенка цинии (травы семейства астровые), клетки тополя, человеческий волос и плюрипотентные стволовые клетки мыши. Растения были выбраны в качестве демонстрации возможностей метода при выборе сырья для биотоплива. Волосы являются ценным материалом в криминалистике, а со стволовыми клетками связаны сотни научных проектов.
Авторы исследования считают, что новый метод в первую очередь найдёт применение в биомедицинских разработках. Однако лежащая в его основе идея довольно универсальна, а технология может быть адаптирована для самых разных целей — вплоть до проверки подлинности материалов и реставрации картин.
Опубликовано 09 августа 2013
За несколько дней до официального представления проекта Hyperloop Элон Маск сделал ряд заявлений, всколыхнувших общественность. Самым неожиданным стало известие о том, что ни он сам, ни его компания SpaceX не станут патентовать революционный вид общественного транспорта. Гиперпетля предлагается как открытая идея, к реализации которой, по словам изобретателя, приглашаются все, кому хватит способностей и средств.
По-прежнему не говоря ни слова о технической составляющей проекта до намеченной презентации, Элон Маск опроверг ряд появившихся предположений о функционировании гиперпетли. Исходя из истории проекта, заявленной высокой скорости и низких затрат энергии, многие попытались представить гиперпетлю и даже начертить её.
Схема Джона Гарди была оценена самим Маском как наиболее точное предположение среди всех увиденных. Позже её прокомментировал один из изобретателей скоростного поезда bullet train и директор проекта Maglev 2000 Джим Пауэлл. Он полагал магнитную левитацию в вакууме как самое логичное решение для Hyperloop, но всё-таки ошибся.
«Гиперпетля – это не вакуумный тоннель. В нём будет слабое трение, но оно всё же будет», – пишет Элон Маск в «Твиттере». Он отмечает, что взялся за проект в поисках альтернативы для строящейся скоростной железнодорожной ветки между Сан-Франциско и Лос-Анджелесом. «За 60 миллиардов долларов это будет самый медленный и самый дорогой скорый поезд в мире», — говорит он в интервью изданию Business Insider.
«Что вы действительно хотите [вместо него], так это нечто, что не подвержено авариям, вдвое быстрее самолёта, работает от солнечной энергии и не привязывает вас к точному времени отправки, — заявил он на собрании в Tesla Motors, анонсируя проект Hyperloop. — Соединить Сан-Франциско и Лос-Анджелес гиперпетлёй можно в десять раз дешевле».
Преимущества проекта обсуждались много раз, но сегодня известный изобретатель называет гиперпетлю спекулятивной идеей и отказывается от её непосредственной реализации. «Я создал себе массу проблем, преждевременно упомянув о ней», — говорит Маск в интервью изданию Wired. «Сейчас я разрываюсь между SpaceX и Tesla Motors, — сетует он. — У меня просто нет возможности заниматься ещё и гиперпетлей, выделяя на неё миллионы».
«После официального объявления 12 августа это будет открытый проект, и любой сможет построить её, — цитирует Маска портал Extreme Tech. — Ни лично я, ни SpaceX не станут патентовать Hyperloop. Все спецификации будут доступны свободно. Если спустя несколько лет никто не преуспеет в создании гиперпетли, возможно, я вернусь к проекту».
Мы вряд ли узнаем, что именно вынудило Маска отказаться от непосредственного участия в реализации гиперпетли. Недостаток средств выглядит слабой причиной, особенно с учётом его феноменальной способности привлекать средства для столь грандиозных проектов. Однако о трудностях можно получить довольно хорошее представление, исходя из уже известных параметров и неудачного опыта создания подобной транспортной сети в XX веке.
Хорошо упакованный груз допускает довольно безалаберное отношение к нему, чего не скажешь о человеке. Люди привыкли путешествовать с комфортом, и он тем важнее, чем большее расстояние необходимо преодолеть. Как раз обеспечение минимального комфорта и может стать одной из серьёзных проблем гиперпетли.
В скупых строках предварительного анонса внимание акцентировалось на продольное ускорение, которое (несмотря на огромную скорость) будет меньше, чем в самолёте на взлёте, и составит около 1 G большую часть пути. При этом за рамками оставался куда более важный вопрос: как быть с центростремительным ускорением?
Оно неминуемо возникает из-за невозможности сделать на таком расстоянии идеально прямую транспортную трубу и из-за её дизайна в виде петли. Чтобы удерживать ускорение в комфортных пределах (0,1 g) требуется либо снизить скорость капсулы, либо увеличить радиус закругления пути. По расчётам Джима Пауэлла, для гиперпетли он составит не менее шестидесяти четырёх километров — непозволительная роскошь.
Если первые железнодорожные ветви прокладывались через степи и полупустыни, то гиперпетля должна соединить два крупных населённых пункта, пройдя через множество других. Прокладка её под землёй стала бы стройкой века, а возводить петлю на опорах вдоль скоростного шоссе — значит переносить сотни прибыльных построек и выплачивать компенсации их владельцам.
Бюрократическую машину США многие указывают отдельной проблемой. Строительство каждого участка гиперпетли потребует согласования со своим муниципалитетом и десятками организаций в сфере экологического контроля. Одних будет заботить шум и вибрация, других — изменения в облике города, третьих — блики от солнечных панелей, и всех — пополнение собственного кошелька.
Помимо указанных проблем, есть ещё не решённые вопросы в сфере логистики. Архитектура петли замкнутая. Её транспортная эффективность зависит от поддержания баланса между количеством капсул в пути и запасе в каждом из двух городов. Легко представить ситуацию, когда поток пассажиров резко увеличиться в одном направлении. Достаточно устроить очередное шоу или спортивное мероприятие. Предложить решение гораздо сложнее: придётся чем-то жертвовать в любом случае, и это неминуемо скажется на стоимости содержания петли.
Поездка на обычном поезде сопряжена с тщательным планированием — больше со стороны транспортной компании, чем пассажира. Билеты начинают продавать за полтора месяца, люди занимают очередь с утра, чтобы успеть купить место получше. Дата и время отправления строго определены. Множество промежуточных остановок требуется не столько для изменения численности пассажиров, сколько для пропуска других поездов. Гиперпетля лишена всех указанных недостатков, но явно будет обладать своими.
Отправка капсул по мере готовности — несомненный плюс с точки зрения удобства пассажиров, но только если допустить, что каждый из них ведёт себя максимально тактично по отношению к другим. В реальной ситуации даже десять незнакомых людей договорятся с трудом. Один будет торопиться сам и подгонять остальных, другой станет суетиться с багажом и выбором места, а третий начнёт упрашивать подождать четвёртого, который вот-вот подойдёт.
Даже эти чисто человеческие факторы легко похоронят красивую идею о быстром и дешёвом перемещении без привязки к конкретному времени отправления. Выход — ограничить время посадки в капсулу, исходя из оптимального интервала движения между ними. Не успел в одну — жди следующую, как в метро.
Низкая цена может стать другим камнем преткновения. Большое число желающих прокатиться на новом скоростном транспорте приведёт к длинным очередям из-за малой вместимости капсул. Их точные габариты и число мест пока неизвестны, но, по отрывочным сведениям, планируется установка шести–восьми сидений в каждую.
Для сравнения: один туристический автобус рассчитан в среднем на пятьдесят–шестьдесят человек с объёмным багажом. Примерно столько же размещается в каждом плацкартном вагоне. Чтобы обеспечить стабильный поток пассажиров и не создавать огромных очередей, капсулы должны отправляться каждую минуту–две.
Сейчас в планах Элона Маска развитие нового варианта общественного транспорта — сверхзвуковых пассажирских самолётов с вертикальным взлётом и посадкой. «Я думаю, это самый перспективный вариант, — делится Маск соображениями. — Компания Boeing только что потратила 20 миллиардов долларов и десять лет, чтобы улучшить свои самолёты на десять процентов. Это слишком расточительно. Мой проект принесёт действительно кардинальные улучшения. Такой самолёт сможет доставить вас гораздо ближе к месту назначения, а не выбросит в огромном аэропорту за пределами города».
Увлечённость Элона Маска глобальными проектами привлекает и настораживает одновременно. Он не довольствуется малым и по-прежнему намерен создавать что-то совершенно новое. Пока ему практически во всём сопутствовала удача. Он уже внёс свой вклад в развитие интернет-платежей и космической отрасли, его характер послужил прообразом для персонажа Тони Старка. Остаётся надеяться, что революция общественного транспорта ему тоже по плечу.
Опубликовано 09 августа 2013
Когда в новостях воцаряется скука, мне нравится разбирать биографии людей, двигающих ИТ: и тех, кого уже нет с нами, и особенно тех, кто ещё в игре. Как говорится, талантливый человек талантлив во всём — и в отличие, например, от политиков, это правило на сто процентов применимо к великим айтишникам. Если большие состояния и громкие имена делаются почти исключительно благодаря везению, то талант не пропьёшь и не купишь, и, может быть, поэтому такие люди интересны и за пределами главного дела своей жизни.
Вот так я и вышел недавно на персонажа, которым ещё никогда не занимался, хоть помню его чуть ли не с детства. В начале 90-х в пёстрой тогда компьютерной прессе мне попалась фотография добродушного, искренне (не по-американски, если вы меня понимаете) улыбающегося мужичка в круглых очках, втиснутого в воротничок не по размеру. И десять лет спустя, когда он возглавил Google, я уже знал его имя: Эрик Шмидт.
Докторская степень в компьютерных науках, работа в знаковых для информационных технологий компаниях (Bell, Zylog, Sun Microsystems, Novell), личное участие в создании как минимум одного легендарного программного инструмента (юниксовая Lex)… Я обещал, что не буду о компьютерах, но привёл этот список, просто чтобы подчеркнуть, что мы имеем дело не просто с бизнесменом, случайно попавшим в ИТ, а с айтишником до мозга костей.
Тем удивительней было узнать, за что обожает Шмидта жёлтая пресса. Всё это лето таблоиды перемывают ему кости по поводу… любовных похождений. Бывший гендиректор Google — можно сказать, главный ботан планеты Земля! — оказался и главным ловеласом техносцены: газеты сбиваются со счёта, пытаясь уследить за его пассиями (а там личности заметные, небесталанные), смакуют подробности интересов на Instagram (где Эрик «читал» в основном девушек в бикини; после того как этот факт всплыл, он предпочёл удалить аккаунт), ухмыляясь, перетирают подробности покупки огромного пентхауса на Манхэттене (засветившегося в к/ф «Уолл-стрит 2», полностью звукоизолированного по требованию Шмидта, с отдельным лифтом) или 70-миллионной яхты, где опять-таки доминирует слабый пол.
Супруга Венди, от которой у Эрика двое детей, по крайней мере на публике мужу не перечит (на Западе это называется «открытый брак»). Но именно с официальной супругой у Шмидта и получился самый интересный благотворительный проект. Это Семейный фонд Шмидтов, спонсируемые которым полторы сотни инициатив вращаются вокруг проблемы рационального пользования природными ресурсами и вопросов устойчивости экосистем. Крупнейшая из них посвящена океану: в 2009-м Эрик и Венди учредили некоммерческий Schmidt Ocean Institute (научным директором там, кстати, Виктор Зыков, наш бывший соотечественник) и поставили под его флаг, пожалуй, самое необычное судно в истории океанографии — Falkor.
Falkor — это 83-метровый красавец, построенный в начале 80-х для патрулирования промысловых вод (отсюда его строгий «военный» профиль). Четыре года назад Шмидты выкупили его и за три года превратили в плавучую лабораторию, оснащённую по последнему слову техники. Как нескромно заявил один из членов команды, такого оборудования нет больше ни у кого — и в это легко верится, если вспомнить, что личное состояние Шмидта оценивается в восемь с лишком миллиардов долларов. На «Фалькоре» уникальные инструменты для взятия глубинных проб и неинвазивного ДНК-сэмплинга, реально крутые глубоководные видеокамеры высокого разрешения, средства для высокоточного высокоскоростного картографирования морского дна, двухтонная робосубмарина ROPOS с бурами, манипуляторами и прочей обвеской, напичканный электроникой суперсовременный командный центр и т. д.
Покупка корабля, перестройка и переоснащение обошлись Шмидтам, предположительно, почти в сто миллионов, и когда в конце прошлого года Falkor наконец вышел в море, научное сообщество получило уникальную платформу для экспериментов. Фишка в том, что места на корабле научным коллективам из любых стран предоставляются бесплатно. Равно как и оборудование, и любые расходы, связанные с исследованиями (короче, всё, кроме собственно зарплаты), оплачиваются Океаническим институтом Шмидтов. Единственное условие: результаты проведённых на борту экспериментов в полном объёме должны быть обнародованы не позже чем через два месяца.
Не удивительно, что на одно место приходится почти двадцать заявок. Отбором кандидатов в очередную экспедицию (только за этот год их планируется четыре) занимается комиссия из авторитетных учёных, и среди экипажа отчалившего корабля оказываются и микробиологи, и астробиологи, и генные инженеры. А результаты исследований, помимо обычных научных журналов, пополняют в том числе Google Earth.
В 2013-м, ставшем первым полным рабочим годом, Falkor исследует десятикилометровый кратер, оставшийся на дне Мексиканского залива после падения гигантского астероида (предположительная причина массового вымирания 65 млн лет назад), долгосрочные последствия аварии на подводной скважине Deepwater Horizon, разломы океанического дна у Каймановых островов, зоны кислородного голодания у берегов Канады и биоту подводного вулкана Аксиал.
Все проекты так или иначе связаны со «здоровьем» мирового океана, влиянием на морскую жизнь человека, её эволюцией под действием изменяющихся естественных глобальных условий. Беспокойство известное: гадя в океан, мы подрываем низшие звенья пирамиды, от которой зависим и сами. Шмидты называют текущую ситуацию «одиннадцатым часом» (в том смысле, что до полночи осталось чуть), а ведь мы убиваем океан в том числе и потому, что не понимаем его.
Наше невежество в отношении подводного мира просто невероятно. Мы чуть ли не до сантиметров изучили поверхности Луны и Марса, но даже рельеф большей части морского дна Земли (почти три четверти площади планеты) известен нам только по данным с искусственных спутников, чуть ли не с километровым разрешением! А ведь жить нам, детям и внукам, не на Луне, не на Марсе. Так что выбора на самом деле нет: изучение океанов должно стать приоритетной задачей для науки.
Конечно, даже с миллиардами Шмидта надеяться на немедленные революционные открытия было бы наивно. Но владельцы «Фалькора» и не ставят перед собой такой задачи. У них более скромная и реалистичная цель — изменить тон беседы о здоровье океана в обществе. Показать проблемы лицом, откопать интересные загадки.
Космос, во многом благодаря МКС и NASA, уже стал публичным: обывателю сегодня достаточно буквально протянуть руку, чтобы оказаться на переднем крае космических исследований: вот вам прямая трансляция с МКС, а вот — реалтаймовые твиты с Марса. С океаном сложней: много ли вы знаете океанографических проектов, пригодных и интересных «человеку с улицы»? Falkor должен стать одним из таких окошек в подводный мир.
Опубликовано 08 августа 2013
Cтарший вице-президент и директор по исследованиям компании IBM доктор Джон Келли написал книгу «Умные машины», которая выйдет в свет ближайшей осенью. Она посвящёна созданию целой экосистемы когнитивных вычислений — технологий будущего, способных взаимодействовать с людьми более естественным образом. Речь идёт о разработке архитектуры и алгоритмов, имитирующих отдельные способности мозга по восприятию данных различного вида, принятию решений и самообучению по результатам анализа их эффективности.
Джон Келли пишет, что современные люди сталкиваются с постоянным ростом объёмов информации. Если раньше казалось, что это благо, помогающее развитию общества, то сейчас стало вполне очевидно: чем больше данных, тем больше проблем. Мы попросту не успеваем вникнуть в интересующие нас вопросы как следует. Поэтому люди часто принимают необдуманные решения, ознакомившись только с одной точкой зрения. За недостатком времени анализ новых данных откладывается, а затем они вспоминаются уже как проверенная информация.
Директор может разгрузить себя, поручив большую часть обработки данных секретарю, ассистентам и даже целому штату аналитиков. Обычным людям всё сложнее противостоять давлению инфосреды. Когнитивные компьютерные технологии способны помочь в будущем как руководителям крупных компаний, так и обывателям. Умный поиск, семантический анализ, распознавание образов, прокладка маршрута с учётом пробок и оценка состояния водителя в фоне — это всё только начало.
Среди действующих когнитивных систем наиболее известен суперкомпьютер IBM Watson с программой искусственного интеллекта, созданной под руководством Дэвида Феруччи в рамках проекта DeepQA. Этот суперкомпьютер обыграл в 2011 году двух чемпионов в викторине Jeopardy. В ролике ниже приводятся пояснения о работе его алгоритма и необычной структуре использованной базы данных.
http://www.youtube.com/watch?v=DywO4zksfXw
Как и в случае с победившим Каспарова суперкомпьютером Deep Blue, для IBM это была лишь демонстрация возможностей. Реальная область практических применений будет совершенно иной.
Специалисты компании рассчитывают в ближайшие двадцать лет создать компактную или даже носимую систему, имитирующую работу миллиардов нейронов и триллионов синапсов. Применений для неё найдётся масса — как в гражданском, так и в военном секторе.
http://www.youtube.com/watch?v=AHcRRfpHPt4
Общественности говорят в основном о медицинских аспектах применения. К примеру, указывается, что с помощью такого электронного ассистента слабовидящие люди смогут не только лучше ориентироваться, но и жить более полноценной жизнью. У здорового человека мозг обрабатывает терабайты графических данных ежедневно, и заменить функции зрительной коры не сможет ни один носимый компьютер классической архитектуры.
Основная проблема целой отрасли в том, что архитектура компьютеров и базовые подходы к программированию сформировались в ту пору, когда на ЭВМ решали довольно узкий круг прикладных математических задач. Они были вычислительно сложными, а их постановкой занимался штат опытных программистов.
От современных компьютеров требуется гораздо больше. Всевозможные «умные устройства» должны большей частью самостоятельно получать и успевать обрабатывать массу разнородных данных. Результат требуется выдавать через дружественный интерфейс, чтобы помочь человеку в его повседневной жизни или просто развлечь его.
Для этого компьютерная техника должна постоянно развиваться в направлении «очеловечивания» и всё больше опираться на алгоритмы самообучения. Иными словами – как можно точнее копировать суть работы мозга, сохраняя запредельную скорость обработки числовых данных.
Компания IBM при поддержке Корнеллского университета и DARPA уже многие годы разрабатывает такой искусственный мозг. До сих пор в научном мире нет единого мнения о многих аспектах функционирования неокортекса. Поэтому задача не состоит в том, чтобы воссоздать на массиве транзисторов работу коры головного мозга в деталях. Скорее есть понятное желание сотворить на базе компьютерных технологий нечто работающее похожим образом. Требуется не более быстрый автомат, а гибкая вычислительная система, хотя бы частично проявляющая свойства мышления живых организмов.
http://www.youtube.com/watch?v=J69EJxUr8mw
Значимых успехов в этой области удалось достичь в прошлом году: тогда с помощью второго по мощности суперкомпьютера из списка Топ-500 сымитировали работу ста триллионов синапсов. Конечно, эмуляция происходила с большой долей условности, а скорость обработки сигналов была оценена в полторы тысячи раз ниже, чем у реальной группы нейронов. Более быстрая и точная имитация работы всего нескольких нейронов по-прежнему требует десятков тысяч процессорных ядер.
В IBM Research стараются научить компьютеры не просто считать быстрее, но и проявлять отдельные элементы мыслительного процесса. По мнению исследователей, компьютеры будущего не должны слепо следовать алгоритму, как это было до сих пор. Они станут учитывать множество второстепенных факторов, свой прошлый опыт и будут даже немного колебаться в принятии решений — совсем как человек.
Агентство перспективных оборонных научно-исследовательских разработок США щедро финансирует связанную с этой инициативой программу SyNAPSE (Системы нейроморфной адаптивной масштабируемой пластичной электроники). Её главная цель — обеспечить компьютеры теми способностями, которые у человека пока ещё развиты лучше.
http://www.youtube.com/watch?v=agYJSdMWXYQ
Особенно это касается восприятия, умения принимать решения в условиях жёсткого дефицита достоверных данных и придумывать нестандартные выходы из ситуаций, в которых не приходилось бывать прежде.
Интерес DARPA вполне понятен. Сегодня управляемые операторами БПЛА уже показали свою эффективность. Осталось убрать операторов и связанные с ними задержки в передаче управляющих команд, чтобы Пентагон получил более совершенные и самодостаточные образцы боевой авиации.
В IBM Research убеждены, что так называемые когнитивные вычислительные системы найдут самое широкое применение и вскоре полностью изменят наши представления о компьютерной технике, которая до сих пор базируется на архитектуре фон Неймана.
Впервые о проекте открыто заговорили в 2008 году. Через год коллектив IBM Research отчитался о завершении подготовительного этапа — так называемой «фазы 0», на которой был сформулирован план исследований и решены общие вопросы.
К 2011 году был завершён первый этап проекта, заключавшийся в разработке фундаментальной архитектуры вычислительных блоков, эмулирующих работу нейронов. Ключевым требованием была масштабируемость архитектуры, поскольку от отдельных групп нейронов по мере роста доступной вычислительной мощности требовалось переходить к имитации работы целых отделов коры головного мозга.
Сегодня коллектив IBM Research говорит о новых успехах. Команде удалось провести объёмное исследование под названием «крупномасштабное корковое моделирование». Оно было сфокусировано на таких особенностях работы мозга, как сверхнизкий уровень энергопотребления и высочайшая плотность хранения данных. По результатам длительного эксперимента был создан новый алгоритм, позволяющий моделировать работу мозга более точно и ценой меньших затрат.
На его основе под руководством ведущего специалиста Дхармендра Модха был разработан язык программирования, ориентированный на создание приложений для когнитивных вычислений. Дальнейший этап — создание полноценной среды разработчика, поддерживающей весь цикл программирования — от проектирования до отладки и развертывания нового поколения приложений, способных частично имитировать свойства мозга. В конце неделе IBM представит свои разработки на Международной совместной конференции по нейронным сетям в Далласе.
Опубликовано 08 августа 2013
В первых числах августа по англоязычным новостным лентам промелькнуло известие о необычной сделке. За неназванную сумму была приобретена никому не известная Passif Semiconductor Corp. из Кремниевой долины. В самом характере покупки не было ничего, что привлекло бы внимание публики: несмотря на то что покупателем выступила компания Apple, уплаченная сумма, предположительно, не превышала сотни миллионов долларов (сущая мелочь по нынешним временам), да и ярких продуктов — вроде красивого мобильного приложения — у Passif нет, занимается она скучной для обывателя темой проектирования «полупроводников». Поэтому средства массовой информации сделку в общем не заметили.
И напрасно. Потому что, следуя в направлении, указанном Apple, мы окажемся в увлекательной области так называемых низкоэнергетических коммуникаций.
Эволюцию цифровых устройств можно измерять разными шкалами, и одна из них — это шкала энергозатрат при передаче данных. Древние модемы и сотовая связь оказываются среди самых расточительных подвидов: мощность сигнала тут измеряется единицами ватт. Популяризованный в конце 90-х IEEE 802.11, более известный как Wi-Fi, обеспечивает уже на порядок лучший «расход» (доли ватта). Непосредственно с ним граничит Bluetooth, пиковая мощность которого начинается с одной десятой ватта (для стандарта Class 1) и простирается вплоть до одной тысячной (для Class 3). Наконец, NFC обходится ещё меньшим. Проблема, однако, в том, что, несмотря на два десятилетия прогресса, коммуникации всё ещё остаются одной из самых энергозатратных функций для персональной электроники. И расслабиться, взять тайм-аут, не удастся: по мере того как вселенная бытовой электроники закручивается вокруг смартфонов и планшетов (см. вчерашнюю «Как смартфон с фотоаппаратом расправился»), нагрузка на коммуникационную часть растёт, в последние годы — лавинообразно.
Чем дальше, тем больше мы отходим от навязанной персональными компьютерами коммуникационной концепции «человек — человек». Мобильным устройствам вроде смартфонов всё чаще приходится не просто передавать речь или текстовые сообщения, а общаться с другими железками, причём зачастую весьма специфического свойства и функционала. В роли таких «неполноценных помощников» выступают, к примеру, гаджеты самоквантования (электронные браслеты, медальоны и прочее подобное, которые следят за физиологическими показателями человека и передают отправленные данные на смартфон), «умные часы», киберочки, электронные бирки (вроде показанной выше Tile).
А в ближайшем будущем ожидается настоящий взрыв их разнообразия за счёт появления бесчисленного множества локально-контекстных «маячков»: дешёвых, маломощных цифровых передатчиков, которые, будучи установлены в парках, магазинах, на автостоянках, да в любых общественных местах, помогут оказавшемуся поблизости человеку со смартфоном или самому смартфону сориентироваться (с точностью до сантиметров), получить какую-то ценную для данной точки информацию. Так, автомобиль, направляясь по сигналам таких маячков, сможет сам припарковаться, отдыхающие в парке узнают направление к аттракционам, посетитель музея будет сопровождаться автоматическим гидом, покупателю, покидающему магазин, вручат виртуальный купон и т. д. Важно, что связь во всех этих случаях должна вестись посредством чрезвычайно энергоэкономичного протокола, чтобы «маячки» могли работать месяцами без подзарядки, не выключаясь, а смартфон в столь интерактивном пространстве продержался хотя бы день.
Концепцию локально-контекстных устройств сейчас активно прорабатывает Apple (см. location beacons в iOS 7) и в меньшей степени Google (вспомните инициативу Android@Home), но, честно говоря, пионером тут была Nokia. Её стратеги ещё в середине «нулевых» предвидели время, когда мобильник будет нужен не столько для редкой связи человека с человеком, сколько для постоянных межмашинных коммуникаций. Вопрос энергозатрат в такой ситуации станет критически важным. Существующие популярные коммуникационные технологии ответа на него не дают: они либо слишком прожорливы, либо чересчур «близоруки». Пробел восполнила Bluetooth Low Energy, ставшая к настоящему моменту де-факто лидером низкоэнергетических коммуникаций.
Опершись на фундамент Bluetooth, Nokia в 2006 году выдала беспроводную технологию под кодовым именем Wibree. Позже она вошла в официальные спецификации Bluetooth и стала известна как Bluetooth LE или Bluetooth SMART. Несмотря на схожее имя и близкие технические характеристики (те же частоты, те же скорости, похожий метод передачи данных), Wibree предполагает серьёзные аппаратные и программные изменения, вследствие чего совместимость с более ранними версиями Bluetooth односторонняя (старые смартфоны не удастся научить работать с Bluetooth LE-устройством). Но оно того стоит: простое Bluetooth LE-устройство, запитанное одной батарейкой, теоретически может работать месяцами.
Достигается это не столько снижением мощности сигнала (которая в целом осталась той же — тысячные или сотые доли ватта), сколько хитрой оптимизацией коммуникационного протокола. Его, во-первых, упростили, а во-вторых, реализовали намного более быстрый диалог (то, что называют duty cycle: запрос — передача ответного пакета — конец связи). Когда цикл «запрос — ответ» отнимает в десятки раз меньше времени, то и энергопотребление снижается соответственно (в идеале — стократно!). Bluetooth LE уже поддерживается топовыми смартфонами и планшетами (iPhone 4S и 5, Galaxy S III и IV, Lumia, Nexus 7; правда, андроидовские и Windows-устройства требуют обновления операционных систем до последних версий), множеством недокомпьютерных устройств (они иллюстрируют колонку).
Таким образом, с Bluetooth LE Apple знакома не понаслышке. Так для чего ей понадобилась Passif? Дело, вероятно, в том, что Passif — смелый экспериментатор. Основанная парой молодых дипломированных электротехников в 2006 году, компания собрала полтора миллиона венчурных инвестиций и занялась проектированием суперэкономичных коммуникационных чипов «с нуля». Её фишка — оригинальные патентованные полупроводниковые решения, которые позволяют радикально снизить энергопотребление. Помимо прочего, в её портфеле обнаружен патент на коммуникационное устройство, способное поддерживать связь вовсе без батареек, за счёт наведённых в антенне токов — подобно RFID-чипам, но, вероятно, на большие расстояния и со скоростями, пригодными для более сложных задач, нежели простая защита от воров или выдача нескольких килобайт информации.
Apple же по-прежнему позиционирует себя в качестве первопроходца — а значит, вопрос энергоэкономичности для неё стоит острее других: резервы аккумуляторных технологий давно выбраны, прорывов в микропроцессорной технике не предвидится, остаётся только экономить. Одним из вероятных применений наработок Passif аналитикам видятся «умные часы», над которыми в Apple якобы трудится большой коллектив и выпуск которых (опять же якобы) уже откладывался по причине невозможности совместить энергозапросы устройства с ресурсом батарейки.
Как знать, может быть, теперь в мифических iWatch батарейки не будет вовсе? ;-)
Опубликовано 07 августа 2013
В Массачусетском технологическом институте создали усовершенствованную версию чипа для сортировки форменных элементов крови. Новая модель не просто лучше отделяет лейкоциты и точнее подсчитывает их число, но и сохраняет белые кровяные клетки неповреждёнными. Это открывает широкие перспективы как для клинических экспресс-анализов, так и для медицинских исследований с чистыми клеточными фракциями.
С общего анализа крови начинается практически любая диагностика. По его результатам можно сузить число предполагаемых заболеваний со сходной симптоматикой и распознать многие патологические состояния. В современных медицинских лабораториях крупных городов подсчёт числа форменных элементов крови и определение её показателей максимально автоматизированы.
Однако такое диагностическое оборудование довольно дорого, и его не в силах приобрести клиники развивающихся стран, где распространённость и длительность течения заболеваний выше. Это приводит к несвоевременному оказанию медицинской помощи, увеличению числа хронически больных и способствует формированию стойких эпидемических очагов.
Частично решить проблему может исследовательская программа «лаборатория на чипе», о которой «Компьютерра» уже писала ранее. Одной из задач данной инициативы является разработка надёжных и доступных методов автоматизированной экспресс-диагностики.
Специалисты MIT долгое время работали над чипом, который смог бы не только сортировать и подсчитывать форменные элементы крови без громоздкого и дорогостоящего оборудования, но и выделять из образца клетки одного вида.
Созданный чип выполняет всю работу буквально в один проход, довольствуясь микроскопическими количествами крови. Секрет его эффективности разработчики объясняют тем, что им удалось использовать технологии биомимикрии — подражания процессам в живых системах.
В норме определённое число лейкоцитов постоянно присутствует в крови человека. При возникновении воспаления они проникают в поражённую ткань, покидая кровеносное русло через поры сосудов. Направление перемещения задаётся присутствием сигнальных молекул — аттрактантов.
Чип использует схожий механизм фильтрации, имитируя в пористом материале микроканала эндотелиальные щели и маркерные вещества, активирующие хемотаксис. В частности, применяется белок P-селектин (CD62P), участвующий в слабой адгезии нейтрофильных лейкоцитов.
У прежней модели, созданной в 2012 году, P-селектин размещался на вытравленных в канале гребнях. Лейкоциты обратимо связывались с ними и увлекались в отдельные ответвления. Несмотря на высокую пропускную способность чипа, в нём происходили нежелательные эффекты перемешивания, что делало его непригодным для аналитической работы.
Спустя год два исследователя предложили новый дизайн чипа. Вместо травления микрогребней они взяли тончайшие золотые полоски. Их расположили по диагонали к потоку образца крови, разместив вдоль всей поверхности P-селектин.
На видео ниже показано, как за счёт слабой адгезии нейтрофильные лейкоциты двигаются вдоль золотых полосок, в то время как остальные форменные элементы крови перемещаются хаотично в общем потоке.
http://www.youtube.com/watch?v=TkeUK-K2HYs
Проанализировав результаты серии экспериментов, авторы исследования разработали математическую модель для расчёта оптимального расположения адгезивных полос. Последняя версия чипа позволяет захватить из образца крови более 99 процентов лейкоцитов. Это отличный результат, особенно если учесть, что встречаются они в тысячу раз реже, чем эритроциты.
После прохождения через канал чипа все лейкоциты плавно перетекают через искусственные поры строго определённого размера, оставаясь целыми и функциональными.
Дальнейшая работа ведётся в направлении интеграции созданных микрочипов в портативные диагностические приборы. С их помощью в регионах развивающихся стран планируется регулярно выполнять экспресс-анализы крови. На первом этапе будут определяться простейшие признаки воспалительных заболеваний, такие как повышение числа лейкоцитов и нарушение их связывания с P-селектином.
Последняя ситуация характерна для сепсиса, при котором, помимо инфекционного агента, в кровь попадает большое количество интерлейкинов и медиаторов воспаления. Данные изменения состава крови были сымитированы в лабораторных условиях. Во всех изменённых образцах наблюдалось резкое снижение процента захваченных чипом лейкоцитов. Таким образом, число оставшихся после прохождения чипа свободных лейкоцитов служит надёжным диагностическим признаком и позволяет оценить степень тяжести заболевания.
Для лабораторной диагностики с использованием созданного чипа достаточно в несколько раз меньшего количества крови пациента, чем требуется сегодня в любом другом методе. Речь идёт буквально о сотых долях миллилитра. Поэтому одним из плюсов «лаборатории-на-чипе» исследователи называют возможность её внедрения в педиатрическую практику, где требуются более высокая частота контроля и максимально атравматичные процедуры.
Опубликовано 07 августа 2013
Если вас попросят перечислить устройства, павшие жертвами смартфона, сможете ли вы без запинки назвать их все? Аудио- и портативные видеоплееры, переносные игровые приставки и наладонные компьютеры, диктофоны, навигаторы… Кажется, всё? Ах да, и фотоаппараты, конечно: всё чаще вместо «мыльниц» в руках прохожих светится всё тот же смартфон. Но вот ведь незадача: смартфоны покушаются и на сегмент профессиональных и полупрофессиональных камер. Парадокс: ещё десять лет назад никто не сомневался, что будущее принадлежит цифровой фотографии — но когда оно наступило, выяснилось, что фотоаппаратам пора на покой!
Этот печальный вывод следует из массы разрозненных фактов, внезапно, в течение лета, собравшихся в цельную картинку. И прежде всего из неважного состояния компаний Canon и Nikon, номеров первого и второго в мировой фотографической табели о рангах. На днях обе урезали прогнозы по выручке и продажам. Урезали незначительно, недостаточно для паники, однако здесь важна причина, побудившая их на это пойти: более быстрое, чем ожидалось, усыхание фотографического рынка, причём по направлению как зеркальных камер со сменной оптикой, так и дешёвых фотоаппаратов.
Аналитики, оценивая общее состояние рынка, говорят так: мировые продажи фотокамер находятся в низшей за последние десять лет точке. И поводов для оптимизма нет. Лучшим индикатором в подобных ситуациях служит биржа, а там акции и Canon, и Nikon ведут себя одинаково невесело: сделав пик в 2007 году (хелло, Apple!), они с тех пор движутся только вниз, потеряв примерно половину стоимости. Не удивляйтесь, если графики покажутся знакомыми: все мы знаем, чем болела Blackberry (бывшая Research In Motion) и как кончила.
Сегодня, шесть лет спустя после выпуска iPhone, фотографическое древо основательно изъедено смартфонным червём. Фотографов-профессионалов не так уж много, а среднестатистический консьюмер предпочитает устройства проще, дешевле, универсальней. Так что в этом году спад продаж фотокамер ожидается особенно сильный. По оценке японской Camera&Imaging Products Association, только с начала года они упали примерно на треть к тому же периоду в 2012-м. И, как ожидается, итоги всего года будут такими же, в минус треть. Глобальное соотношение продаж смартфонов и фотокамер составляет сейчас примерно 15 к 1, то есть в численном выражении за год всё ещё продаётся больше полусотни миллионов фотоаппаратов. Однако если для смартфонов кривая продаж забирает круто вверх (плюс тридцать — плюс пятьдесят процентов за год!), для фотокамер она почти так же агрессивно уходит вниз.
Сравнивать снимки, сделанные любой зеркалкой и даже лучшим из смартфонов, с точки зрения человека понимающего — занятие бессмысленное. Но у обывателя своё видение ситуации. Ему нет дела до физических размеров светочувствительной матрицы, до апертуры и прочей ерунды. Что отличает один фотоаппарат от другого для человека с улицы? Мегапиксели. И «камерофоны» тут сравнялись или уже одолели фотоаппараты: топовые смартфоны вроде Galaxy S4 легко дают больше десяти мегапикселей, а в экспериментах вроде нокиевского PureView счёт идёт на десятки. Эксперты, впрочем, считают, что даже количество пикселей уже отходит на второй план, уступая удобству пользования. Здесь у классического «фотика» просто нет шансов.
Дальнейшее предсказать нетрудно. Мелкие вендоры выйдут из игры или переместятся в ультрабюджетную нишу. (Кажется, одноразовых цифровых «мыльниц» ещё не было?) Крупных удержит на плаву имя, но им придётся задрать цену, компенсируя упавшие продажи. И всё это только ради выживания. Чтобы обеспечить рост, и тем и другим понадобится новый драйвер, свежая идея. И кое-какие намётки есть — начиная с грубого увеличения количества пикселей (Canon якобы готовит зеркалку с 75 Мп) и экспансии на смежные рынки (та же Canon и Sony подвизались в медицинской индустрии, где качественное фотооборудование ценится стабильно высоко) до развития принципиально новых фотографических концепций (см. «Настоящая цифровая фотография»). Но на данный момент всё это или слишком мелко, или чересчур ново, так что самым реалистичным решением кажется участие фотовендоров в смартфонном буме.
Понимаю, читатель, умеющий и любящий держать фотоаппарат (сам такой!), скривился, но… оглянитесь! Не только фотография, весь мир портативной электроники уже вращается вокруг смартфонов и планшетов. Да что электроника! После того как Hasbro и Mattel выдали квартальные результаты слабее ожидавшихся, деловая пресса на Западе заговорила и о влиянии смартфонов на индустрию игрушек. Как эти вещи вообще связаны? Очень просто: смартфоны меняют привычки детей, образ времяпрепровождения, смещая акцент с игрушек физических на игрушки программные. Точно так смартфоны и планшеты просачиваются во всё новые и новые ниши, реализуя функционал, раньше бывший хардварным, чисто программными средствами.
Так что особого выбора у фотопроизводителей нет — и они неизбежно выйдут на смартфонный рынок с собственными продуктами. Nikon давно об этом говорит («Мы хотим создать продукт, который изменит концепцию фотокамеры») и уже пробует: вспомните её андроидовский Coolpix S800c — больше наладонник, чем фотоаппарат. Canon направляется туда же со своим суперкомпактным вайфайным камкордером Vixia mini, а на 21 августа запланировала презентацию какого-то принципиально нового продукта.
Остаётся лишь пожелать им действовать оперативно. Та же Samsung, накачав смартфонные мускулы, не прочь подмять под себя и фотографический рынок: говорят, её Galaxy Camera расходится неплохо.
В статье использована иллюстрация Thomas Szynkiewich.