Опубликовано 30 сентября 2013
Мультифакторная аутентификация (МА) — одна из тех немногочисленных тем, светлое будущее которых считается предопределённым. Если вам не довелось о ней слышать, можете быть уверены, что услышите скоро: МА вышла из разряда «чистых теорий», и теперь не проходит недели, чтобы какой-нибудь вендор не сообщил о воплощении её в своих продуктах. Так, на неделе минувшей это сделала Microsoft в облачной платформе Windows Azure.
Суть МА сводится к простому постулату: особо важные данные следует защищать не одним, не двумя, а минимум тремя «замками», причём замки эти должны быть различного вида. Это принципиальный момент, который и определяет на порядки более высокую (по сравнению, скажем, с «однофакторным» паролем) надёжность всей защитной схемы: злоумышленник может украсть или подделать ключ (фактор) от одного замка, но ему придётся затратить несравненно больше усилий, чтобы выкрасть все три ключа.
Минимально достаточный случай МА — трёхфакторный. Здесь в качестве одного «замка» выступает тайное знание — то есть нечто такое, что должен чем-точем-тознать только сам пользователь и больше никто (сгодится обычный пароль). Фактор номер два представляется , чем обладает пользователь и никто больше: скажем, пластиковая карта (с чипом или магнитной полосой — не важно, главное, что такого больше нет ни у кого). Наконец, фактор номер три в идеале должен быть таким, что присуще пользователю, и только ему, от природы. Здесь сам бог велел использовать биометрию: в качестве третьего фактора может послужить отпечаток пальца, рисунок радужки и т. п.
Наверное, можно придумать и более многофакторную схему, важно только помнить, что «замки» должны быть разных категорий, чтобы их невозможно было скомпрометировать одним приёмом (любопытно, кстати, что вышеупомянутая защита Windows Azure этому требованию не удовлетворяет). В общем и целом трёхфакторная МА считается достаточно надёжной для любых применений на массовом рынке.
Двухфакторная авторизация уже широко применяется: мы пользуемся ею, например, расплачиваясь «пластиком» (карта — раз, пин-код — два). Однако и скомпрометировать такую систему относительно просто. Вспомните скиммеров, крадущих информацию с магнитного стрипа и подсматривающих «пин» (см. «какую-тоКак 3D-печать помогла скиммерам») чуть ли не с помощью одного устройства. С трёхфакторной МА этот фокус не пройдёт. Вот почему такие надежды возлагались на поставленный компанией Apple последний эксперимент с поп-биометрией. Apple можно ругать или хвалить, но нельзя отрицать: когда она реализует функцию в своих продуктах, это означает готовность данной функции к массовому «употреблению». Интегрированный в iPhone 5s сенсор для снятия отпечатков пальцев Touch ID как раз стал таким аттестатом зрелости для технологии определения личности по папиллярному узору. Увы, Touch ID не только не помог, но и навредил имиджу мультифакторной аутентификации — из-за событий прошлой недели, когда Touch ID удалось взломать.
Назвав отпечаток пальца «лучшим паролем» и намекнув на абсолютную непогрешимость Touch ID («высокая разрешающая способность сенсора», «чтение подкожного слоя» и т. п.), Apple не столько убедила публику в надёжности своего продукта, сколько подстегнула задор тех, кто ломает цифровые замки из спортивного интереса. Если помните, немедленно был объявлен краудфандинговый конкурс на взлом (в первые же сутки организаторы собрали почти 20 тысяч долларов, и, хоть главный спонсор потом платить отказался, призовые всё равно получились приличными), а уже через сорок восемь часов взлом состоялся. Всё, что требовалось от претендента на приз, — продемонстрировать воспроизводимый процесс разблокировки нового «Айфона» отпечатком пальца, снятым, например, с пивного бокала (а то и с самого корпуса телефона, где «пальчики» пользователя уж точно остались). Что и было проделано известным под псевдонимом Starbug хакером из легендарного коллектива Chaos Computer Club (CCC; ведёт родословную с начала 80-х и связан с множеством ярких — даже государственной важности — дел).
Метод взлома прост до смешного. С помощью хорошего цифрового фотоаппарата или сканера делается снимок отпечатка пальца, оставшегося на стеклянной поверхности. Картинку минимально обрабатывают в графическом редакторе (чистят; возможно, инвертируют) и печатают лазерным принтером на прозрачной плёнке. Затем на получившийся оттиск наносят латексное молочко, застывающее в эластичный резиновый слепок, отлепляют последний и делают классическое движение почтового служащего: выдыхают и припечатывают (вот демонстрационный ролик)! Латексные бороздки с осевшей на них влагой принимаются Touch ID за настоящий палец. Собственно говоря, тот же метод работает и против большинства других пальцевых сканеров, имеющихся на рынке, а известен он уже ровно десять лет!
Демонстрация Starbug требует задать минимум два вопроса. Первый таков: почему Apple, наверняка знавшая, что сенсор Touch ID «сломают», и сломают быстро (уж испытать самый популярный метод обмана папиллярных сканеров она должна была даже из любопытства!), всё равно установила его в новый смартфон, не оснастив никакими дополнительными защитными свойствами? («Подкожное сканирование» оказалось лишь рекламной уловкой, а «беспрецедентно высокая разрешающая способность», как видите, легко перекрывается бытовыми устройствами.) Хуже того, Apple рекламирует Touch ID как «безопасную» функцию и включила её в список самых важных инноваций своего топового продукта. Почему? Кончились идеи? Безалаберность перевалила за критическую отметку? Компанию одолела бюрократия и первые её лица теперь не ведают, что творится в лабораториях и сборочных цехах? Допустил бы такое Джобс?
Кто-то скажет, что 5s / Touch ID стал первым шагом мультифакторной аутентификации на широкий рынок, что первый блин комом — и его, конечно, будут дорабатывать... Однако ведь Apple могла, но даже не попыталась реализовать хотя бы двухфакторную защитную схему (достаточно было проверять вместе с отпечатком пальца, например, пин-код).
Для тех, кто верит, что Apple не была и не является инженерной компанией, ответ на первый вопрос очевиден (см. «Как «убить» Mac и iPhone строчкой текста»). Но лично мне более важным кажется ответ на вопрос номер два: не станет ли Touch ID последним гвоздём в гроб папиллярной биометрии?
Ведь дедуктивная последовательность здесь не бог весть какая сложная. Узнавание пользователя по отпечатку пальца является самым дешёвым и в то же время самым проработанным из биометрических методов. За последние десять–пятнадцать лет пальцевые сенсоры появлялись в продуктах разных производителей (включая и таких гигантов, как IBM), а Apple, вступив в игру, словно бы подвела черту: эксперименты кончились, можно приступать к массовой эксплуатации! Однако за те же десять лет стало ясно, что отпечаток пальца сам по себе (читайте: однофакторная схема) не может служить достаточной защитой, его необходимо комбинировать с другими технологиями аутентификации — да вот беда, они сами нуждаются в достаточно надёжном компаньоне (вспомните, почему удаётся скимминг).
Короче говоря, строить трёхфакторную систему аутентификации с использованием «отпечатков пальцев» практического смысла нет: её взлом — задача решённая и дешёвая. Но и какой практический смысл тогда вообще в установке пальцевых сенсоров на тех же смартфонах, персоналках или PC? Apple забудет о «пальчиках» как о неудавшемся эксперименте, а для всех нас они останутся лишь в художественной литературе и, возможно, как старая, но удобная технология установления личности в практике правоохранительных органов. Мультифакторные защиты для широкого рынка будут строиться с использованием других технологий.
Опубликовано 04 октября 2013
О том, что населённость «интернета вещей» в этом году вдвое превысила численность населения планеты, мы рассказывали в материале «Вещевая сеть». Приводили и сделанные специалистами аналитической фирмы J'son & Partners Consulting оценки перспектив развития рынка Internet of Things на период до 2020 года. Нынешний рынок в 14 млрд устройств обеспечивает ёмкость в денежном выражении $98 млрд. Ну а к 2020 году ожидается, что мировой спрос на устройства Internet of Things в количестве 34 млрд штук составит, по версии J'son, $359 млрд. Прогноз явно достоверный и предполагающий плавную эволюцию рынка.
А вот сейчас, в начале октября 2013 года, извечный конкурент J'son & Partners Consulting аналитическая фирма International Data Corporation (IDC) представила не просто более оптимистичный, но действительно поражающей воображение прогноз «Worldwide Internet of Things 2013—2020 Forecast: Billions of Things, Trillions of Dollars». Согласно ему, к концу 2020 года на планете окажется не 34 млрд интернет-устройств, а семикратно больше, целых 212 млрд. (Заглянуть в сам оригинал отчёта IDC не даёт — просит за это 4,5 килобакса, примерно как Ходжа Насреддин в детстве показывал за два гроша зверя, именуемого котом…) Денежная же ёмкость рынка достигнет величины просто фантастической — $8,9 трлн! Почему фантастической? Возьмём да и сравним его с некоторыми величинами, известными из тех источников, которые за своё лицезрение денег не просят. ВВП США в 2012 году — $15,811 трлн. Государственный долг янки (грозящий повергнуть в панику финансовые рынки всего мира) — примерно столько же…
Промышленное производство США в 2010 году — аккурат перед тем, как янки затеяли массово возвращать индустрию домой («Промышленное производство возвращается в Соединённые Штаты») составило $3,239 трлн. Промышленное производство Китая, где делается всё на планете, в том же году было $2,756 трлн. ВВП Поднебесной в 2012-м — $8,23 трлн. То есть аналитики International Data Corporation (а в фирме трудится около тысячи вполне квалифицированных и весьма хорошо оплачиваемых сотрудников) говорят о том, что рынок «интернета вещей» к концу 2020 года (а это через семь с небольшим лет) будет иметь объём больший, чем в прошлом году составил ВВП КНР, самой населённой и весьма промышленно развитой страны планеты. Будет иметь объём почти троекратно больший, чем три года назад имела вся промышленность США, с их хайтеком и сырьевыми запасами. Что это? Чрезмерный оптимизм? Ведь оценки тоже очень серьёзных и очень уважаемых аналитиков J'son & Partners Consulting в денежном исчислении в двадцать пять раз скромнее (в штуках, напомним, скромнее семикратно)…
Похоже, тут всё дело в парадигме, заложенной в прогноз. J'son & Partners Consulting экстраполировала в будущее структуру нынешнюю, с доминированием в ней очень нужных и полезных, но совсем дешёвых RFID (их на глазах начинает использовать логистика всё большего и большего объёма окрестных складов и магазинов). А обратим внимание: при семикратном расхождении в количестве устройств «интернета вещей» International Data Corporation прогнозирует двадцатипятикратное увеличение их стоимости. Следовательно — каждое устройство предполагается более дорогим и значительно более умным. И это именно так. (что-тоГоворится о том, что в «интернете вещей» образца 2020 года окажется 30,1 млрд автономных устройств (30.1 billion connected autonomous things). По четыре штуки на каждого жителя планеты. Причём это не любой датчик, подключённый к Сети, которых нынче на человека в Глобальной паутине две штуки, а действительно автономное устройство. Единственным аналогом такового в квартире образца 2013 года пока что выступает пылесос — но вот он с Сетью пока не взаимодействует для перепрошивки там, на сервисном уровне, есть, но нужды при нормальной работе не возникает).
То есть речь в прогнозе IDC идёт о коренной перестройке всего, что нас окружает. Позволю себе длинную английскую цитату: «Ongoing development of smart cities, cars, and houses; Enhanced connectivity infrastructure; An increasingly connected culture». То есть — разумные города, автомобили и дома. Обратим внимание: в американской культуре автомобиль идёт впереди дома, хотя в этой сфере интенсивней, с самыми разными подходами, трудятся германцы из именитых фирм («BMW между интернетами людей и вещей», «Особый путь Daimler AG к внедрению в свои машины искусственного интеллекта»). Подключённая инфраструктура и подключённая культура. Культура упомянута неспроста. Речь идёт о предстоящем внедрении таких инноваций, которые можно будет сравнить только с неолитической, индустриальной и информационной революциями. Ведь, по оценкам той же IDC, объём нынешнего ИТ-рынка составляет «только» $2,15 трлн.
То есть — возможна ли цифра, транслированная уважаемыми мировыми ИТ-изданиями? Может быть, возможна, но её правильность будет означать, что на наших глазах возникнет новый мир, подобно тому, как в неолитической революции возникал мир земледелия, а в индустриальной – мир промышленности... Что заставляет всерьёз рассматривать такой вариант? Скажем, планы Foxсonn нанять в течение трёх лет миллион роботов («что-тоАрмия роботов») при нынешней численности работников в миллион с четвертью… Как и то, что именно к 2020 году практически все крупные производители автомобилей планируют выпустить свои робокары. А тут уже пойдёт синергия. Роботизированному автомобилю очень удобно будет жить в роботизированном гараже: скажем, один запускает двигатель прогреться, а другой включает вентиляцию, не давая гаражу превратиться в душегубку и блокируя запуск двигателя, если с вентиляцией не так… (Это самые простейшие примеры.) Дальше — управление движением на уровне дорожной сети. Вычисление загрузок, распределение транспортных потоков. (Те же разумные светофоры в простейшем случае.) Промышленный робот уже в нынешнем обличье вполне экономически рентабелен — при условии что к конвейеру ритмично подаются детали. Например, контейнер и поддон так и напрашиваются на то, чтобы подключить их к «интернету вещей», связать машину с машиной.
Масса применений есть для «интернета вещей» и в квартире. Ещё бумажная «Компьютерра» рассказывала, как настроить веб-камеру для наблюдения за жилищем. А сейчас навскидку очень хочется, чтобы пылесос умел взаимодействовать с охранной сигнализацией. Он, конечно, маленький и аккуратный, добросовестно фотографирующий мебель для построения топографической карты, по которой и проводит работу. Но объёмные датчики охранной системы реагируют на него всё равно. Когда непосредственно, когда ловя колебания штор. А как было бы удобно эксплуатировать всё-таки шумящее устройство в пустой квартире… А ещё — вопросы энергосбережения. Датчиков вокруг нас уже хватает, Wi-Fi в телевизоре уже есть — так выгода от выключения 180-ваттной плазмы на время, когда никого в комнате нет, может сохранить не слишком большое, но вполне заметное количество энергии. То же самое — с большей эффективностью — могут проделать и системы отопления. Так что речь будет идти о полной перестройке нашего окружения, унаследованного от индустриальной эпохи, на новое, достойное нынешней информационной эры. И скорость морального старения тут действительно может оказаться предельно высока — примерно как сейчас это происходит на рынке смартфонов и планшетов; после Nexus пользоваться чем-либо другим оказывается сродни мазохизму…
Конечно, сказать, что развитие «интернета вещей» действительно пойдёт таким образом, нельзя. Есть ведь «всегда завтрашние» технологии — вроде управляемого термояда… Есть технологии тупиковые — вроде воздухоплавания (хотя приятнее всего обозревать землю именно из корзины аэростата, особенно когда не ревёт и не греет спину пропановая горелка). Есть технологии неудачливые, такие как Betamax… Но перемены иногда всё же происходят — наглядным свидетельством чему нынешний мир ИТ. Лет двадцать назад он казался бы фантастикой. Поэтому может быть, что и прогнозы IDC окажутся реальностью: слишком уж близок «интернет вещей» общей идеологии информационных технологий.
Опубликовано 04 октября 2013
Контроллер Kinect версии 2.0 появится в игровой приставке восьмого поколения Microsoft Xbox One, официальные продажи которой начнутся в конце ноября. Как выглядит мир «глазами» нового контроллера и какие улучшения от него ожидать?
http://www.youtube.com/watch?v=JaOlUa57BWs
В Xbox One сделана ставка на мультиплеер, поэтому во второй версии контроллера число одновременно регистрируемых им людей увеличено до шести. Такое изменение потребовало уменьшить фокусное расстояние камеры. Поле зрения Kinect 2.0 стало на шестьдесят градусов больше, но более широкий угол привёл к уменьшению масштаба. Поначалу это ухудшало распознавание мелких движений. Чтобы устранить этот недостаток, понадобился целый ряд других изменений.
Если первая версия Kinect довольствовалась разрешением 640×480, то вторая будет оперировать кадрами Full HD. Более мощная инфракрасная подсветка выполняет сразу две функции — обеспечение работы в условиях низкой освещённости и устранение через алгоритмы фильтрации бликов от внешних источников света.
Kinect 2.0 делает новый снимок каждые 14 мс, в то время как первая версия ограничивалась периодом в 65 мс. Улучшение временного разрешения в четыре с половиной раза позволяет регистрировать более быстрые движения. Технически контроллер способен фиксировать складки на одежде и распознавать движения губ. По алгоритму анализа изображений, сходному с описанным исследователями из MIT в прошлом году, возможно даже определение частоты сердечных сокращений пользователя. Вопрос лишь в том, где и как будут использоваться эти возможности.
Вместе с Microsoft Research над второй версией Kinect трудились специалисты другой известной в Кремниевой долине компании — Architecture & Silicon Management (ASM). Её старший директор по техническому обеспечению Сунил Ачарья (Sunil Acharya) так комментирует в блоге Microsoft главные сложности проекта:
Новый контроллер Kinect 2.0 передаёт игровой консоли поток данных на уровне 6,5 Мбит/с. Основная трудность состояла в том, чтобы максимально снизить его влияние на производительность. Ведь львиная доля ресурсов была зарезервирована для процессов первой необходимости — расчёта графических моделей в играх, распознавания лиц, воспроизведения видео и аудио.
Главной изюминкой Kinect 2.0 стала новая TOF-камера — электронно-оптическая система, вычисляющая объёмную форму объекта и расстояние до него по времени возврата световых импульсов от множества точек на его поверхности. Фактически это разновидность лидара, которому вместо картографирования и навигации нашли игровое применение.
http://www.youtube.com/watch?v=ziXflemQr3A
Для работы в условиях квартиры, где типичные расстояния не превышают нескольких метров, TOF-камера должна обеспечивать точность при вычислении задержки отражённых импульсов света не хуже одной десятимиллионной доли секунды. Один из разработчиков аппаратной части контроллера — Сайрус Бамджи (Cyrus Bamji) так прокомментировал эту проблему в блоге:
Внедряя новые технологии в коммерческий продукт, мы сталкиваемся с массой неявных особенностей, которые становятся очевидны только на конечном этапе разработки. Мы понимали, что размытие изображения в движении ухудшает точность работы, но не могли заранее оценить, насколько этот эффект окажется практически значим. В конечном счёте важно будет только то, как разные технические детали повлияют на впечатления пользователя от продукта.
Времени на разработку отводилось весьма мало, поскольку Microsoft планирует сорвать куш, выпустив новую приставку перед рождественскими каникулами:
Мы сразу знали, что наше время сильно ограничено. С другой стороны, нам предоставлялись все преимущества совместной работы с Microsoft Research, их технические знания и прежний опыт.
Основные консультации группе Бамджи давали старший специалист отдела прикладных исследований Microsoft Research Эял Крупка (Eyal Krupka) и его коллега Трэвис Перри (Travis Perry). Именно благодаря их вкладу затянувшаяся доработка Kinect 2.0 была завершена в срок.
Опубликовано 04 октября 2013
Про Mozilla Firefox иронично говорят, что это «браузер, который навсегда останется в памяти». Речь о его рекордных аппетитах в отношении оперативной памяти и вредной привычке висеть в ней как зомби-процесс. Однако в последнее время разработчики уделяют большое внимание оптимизации его кода — повышают стабильность работы и успешно снижают его потребности в объёмах ОЗУ.
Впервые работа с оперативной памятью была серьёзно оптимизирована в текущей версии за номером двадцать четыре. Главным образом изменения кода затронули способ работы с изображениями. До двадцать третьей версии включительно все картинки со всех страниц загружались и оставались в памяти постоянно, пока не закрывались соответствующие им вкладки.
Во время тестирования журналист немецкого издания Ghacks Technology News Мартин Бринкман (Martin Brinkmann) легко воссоздавал ситуации, когда браузер отъедал до 3 ГБ оперативной памяти. Даже не пытаясь имитировать тяжёлую нагрузку, я просто посмотрел, сколько в данный момент, пока пишу статью для «Компьютерры», требуется двадцать четвёртой версии. Получилось, около гигабайта.
Как понять — это объективно много или просто страницы подобрались такие тяжёлые? Попробуем открыть их в другом браузере. Те же самые вкладки в Opera 12.16 занимают… да примерно столько же и занимают! Разница, что называется, в пределах погрешности методики измерения.
В текущей версии Firefox за номером 24 из памяти постепенно стали удаляться изображения, которые не принадлежат текущей странице. При загрузке браузера с кучей вкладок (восстановление сеанса) отмечается, как и прежде, пик выделения ОЗУ, но теперь он быстро спадает из-за выгрузки изображений. Уже через несколько секунд работа становится комфортной. Пока я писал эти строки, процесс firefox.exe стал занимать 575 МБ, в то время как «Опера» «похудела» совсем незначительно — в пределах пары десятков мегабайт.
По данным StatCounter, сейчас доля всех версий Firefox составляет чуть больше восемнадцати процентов от общего числа браузеров, а «Оперой» пользуются единицы её давних фанатов.
Лидирует Google Chrome, о грамотной работе которого с системными ресурсами слагают легенды. Давайте сравним.
Действительно — легенды. Практически такая же картина: около 900 МБ в сумме — и только потому, что несколько страниц никак не желали загрузиться до конца. Обратите внимание, что число процессов с названием chrome.exe на три больше числа открытых в браузере вкладок. Затрудняюсь объяснить этот факт. Если посмотреть в диспетчере задач ниже, то мы увидим дополнительные процессы, ассоциированные с браузером Chrome, которые тоже отъедают память. Например, Google Updater. Иными словами, в моём микротесте всем трём браузерам потребовалось примерно одинаковое количество оперативной памяти.
При специальном исследовании версия 23 браузера Firefox вела себя как программа из анекдота — занимала столько памяти, сколько найдёт. Двадцать четвёртая начинала демонстрировать такое же поведение, но потом быстро избавлялась от неактуальных данных. Тестовая двадцать шестая версия под кодовым названием «Аврора» и вовсе должна явить чудеса оптимизации.
Её релиз запланирован на декабрь. Согласно предварительной информации с портала разработчиков, в оперативной памяти будут оставаться только видимые в данный момент изображения (похожий метод оптимизации используется в компьютерных играх). Разработчики считают, что Firefox версии 26 даже при открытии сотни тяжёлых сайтов в каждый момент времени будет требовать не более половины гигабайта ОЗУ. Самое удивительное, что при снижении потребления браузером оперативной памяти в разы прокрутка веб-страниц должна оставаться плавной.
Опубликовано 04 октября 2013
Двадцать лет назад альтернативная энергетика была голубой мечтой — о чистом воздухе и бесконечных ресурсах. Сегодня — и совершенно незаметно для нас, живущих в России, где, не считая гидроэлектростанций, доля возобновляемых источников энергии составляет меньше одного процента в общей выработке, — мечта превратилась в реальность и... головную боль! Нет, ветряки не стали вдруг генерировать углекислоту, и для солнечных батарей по-прежнему предостаточно места. Но всплыли другие проблемы — в основном, скажем так, переходного возраста. В следующие десять–двадцать лет миру предстоит не только значительно ослабить зависимость от ископаемого топлива, но, что важнее, мягко, без последствий, заместить его энергией (прежде всего) солнца и ветра.
В последние несколько лет, сразу и как-то вдруг, стало понятно, что никто не задумывался всерьёз над тем, сколь тяжёлым окажется первое столкновение новой «чистой» и классической «грязной» (основанной главным образом на сжигании — угля ли, газа, производных нефти) энергетики. Проблемы, порождённые этим столкновением, уже не бумажные, не теоретические, а самые что ни на есть жизненные. К примеру, около месяца назад немецкий энергогигант RWE AG (номер первый по объёмам генерации в Германии, играющий и заметную роль в Европе) предупредил, что намерен сократить свои генерирующие мощности (газовые и в меньшей степени угольные) на 6% — в ответ на сокращение спроса на электроэнергию и сильное её удешевление (цены на электричество в Германии упали до минимального уровня с 2004 года).
Причиной же обоих факторов стала отчасти больная экономика, но в большей степени конкуренция со стороны компаний, эксплуатирующих ветряные и солнечные инсталляции. В RWE говорят так: многие обычные электростанции в Европе теперь убыточны — и виновата в этом прежде всего солнечная энергия! Схожие трудности испытывает и главный конкурент RWE, гигант E.ON.
Кто-то скажет: замечательно! И европейские законодатели с этим в общем согласны и продолжают субсидировать «чистую» генерацию и подталкивать к закрытию наиболее вредных для окружающей среды обычных электростанций. Однако в той же Германии, которая по объёмам альтернативной выработки идёт чуть ли не впереди планеты всей (20% её электропотребления сегодня удовлетворяется ветром, солнцем и им подобными) уже наметилась обратная тенденция: субсидии альтернативщикам планируется урезать. Почему? Правительство Меркель волнует не столько судьба «бедствующих» энергогигантов, сколько ситуация с энергобезопасностью страны. Но чем же плохи солнечные батареи и ветряки? Ведь солнце едва ли погаснет, а ветры — перестанут дуть. Нет, не погаснет и не утихнут, но у «чистой» энергии есть специфические особенности, к которым нужно приноровиться. А до тех пор, уменьшая классическую генерирующую базу, Германия (да и любой другой регион) лишает себя резервных мощностей, которые можно будет задействовать в случае возникновения непредвиденных ситуаций. И это только часть проблемы.
Чтобы представить сложность задачи, стоящей перед энергетиками, вообразите сеть из сотен узлов: одни потребляют электричество, другие его выдают. Каждый узел хоть и связан только с ближайшими соседями, естественно, в некоторой степени зависит и от функционирования даже самых отдалённых узлов сети: ведь если где-то рвётся линия, выходит из строя генератор, то нагрузка на другие линии и узлы моментально меняется — и где-то может банально не хватить толщины проводов, где-то окажутся недостаточно мощны трансформаторы на районных подстанциях, где-то электростанции не смогут покрыть локальных потребностей. Задача эта настолько сложная и многоуровневая, что энергетики низводят её до пресловутого «сферического тела в вакууме»: узлы представляют точками, линии — графами, у каждого элемента свой набор параметров — и получается матрица чисел, обсчитываемая на компьютере. (Интересно? Электротехнические факультеты ждут вас!)
Но появление значительного объёма альтернативных генерирующих мощностей усложняет задачу ещё на порядок. И в США, и в Европе сейчас запущены большие государственные программы изучения тех эффектов, которые возникнут в энергосетях при расширении доли альтернативной генерации хотя бы до одной трети. Конечная цель — гарантировать, во-первых, что потребители не останутся без электроэнергии, а во-вторых — что обычные электростанции смогут работать и будут заинтересованы в этом. Таким образом, задача разбивается на две — и обе в значительной степени ложатся на плечи компьютерных систем и айтишников.
Что касается первой, то она возникает оттого, что альтернативные генераторы производят электроэнергию в зависимости не от текущих потребностей (как угольные или газовые станции), а от капризов погоды и времени суток. Кроме того, даже места установки «чистых» электростанций сложно увязать с нуждами потребителей (понятно: ветру и солнцу нет дела до того, как много электричества нужно жителям данного района). Всё это требует передачи электроэнергии сравнительно дальше и, соответственно, пересчёта/перестройки существующих линий электропередач. Но это требует и более точного контроля состояния электросетей в каждый отдельный момент.
Представьте, во что превратится вышеупомянутая матрица, если в сети появится значительное количество альтернативных источников электроэнергии. Каждый дом сможет переходить от потребления к генерации, отдавая избытки электричества в сеть. И если раньше генерация шла только в отдельных узлах (собственно на электростанциях), то здесь всплески мощностей будут непредсказуемы ни во времени, ни географически! Так что мало спроектировать электросеть, которая выдержит такие нагрузки, нужно ещё научиться перетоками энергии управлять, а это требует очень быстрой реакции.
Сегодня, как говорят специалисты, контроль электрических сетей реализован на технике и технологиях с невысокой частотой дискретизации. Как диспетчеры, управляющие перетоками энергии в сетях, контролируют их состояние? С помощью так называемых SCADA-систем — попросту множества датчиков, разбросанных по линиям и подстанциям, информация с которых передаётся на общий пульт мониторинга, где наглядно визуализируется компьютерами. Однако (сильно упрощая) существующие SCADA-системы не способны работать с событиями короче нескольких секунд. Чтобы наделить сеть такой способностью, её необходимо насытить сенсорами и техникой, работающими очень быстро и без участия человека, — в общем, сделать «умной» (есть такой расхожий термин: smart grid). Здесь электроэнергетика пересекается с областью задач big data.
Как вы понимаете, даже если всё получится посчитать, то перестроить существующие электросети в «умную» сеть за короткий промежуток времени не удастся: это фантастически дорого. Вообразите, во что встанет модификация структуры, которая остаётся в общем неизменной последние сто лет! Между тем времени на размышления нет: пока Россия пребывает в нефтяном забытье, альтернативная энергетика в Европе и Соединённых Штатах развивается темпами, намного превышающими планы. И даже по Тут-тообязательному плану, утверждённому членами Евросоюза, большинство европейских государств через семь лет должны будут покрывать свои потребности в электричестве «чистой» энергией минимум на четверть! и всплывает неприятный нюанс: в существующем виде электроэнергетические системы не смогут без вреда для себя выдержать увеличения доли «чистых» источников выше одной пятой от общего объёма генерируемой мощности.
К счастью, решение есть. Сильно упрощая, идея сводится к тому, чтобы оперативно управлять обычными электростанциями в зависимости от потребностей в конкретный момент в конкретном районе. То есть, к примеру, солнечным летним вечером, когда потребители удовлетворяют свои потребности в электричестве сами, газовые электростанции нужно временно «выключить» (на самом деле — перевести в «холостой» режим), а когда солнце скроется, включить снова. Большой вопрос до последнего времени заключался в том, не перекроют ли возникающие дополнительные расходы (часть времени топливо расходуется впустую, ускоряется износ генераторов и т. п.) выгод от экономии, предоставляемых «чистой» энергией. На прошлой неделе Минэнерго США опубликовало отчёт о серии исследований, посвящённых этому вопросу, с общим оптимистическим выводом: не перекроют! Несмотря на то что каждый мегаватт будет в среднем на доллар дороже, экономия больше в десятки раз.
Таким образом, дано теоретическое «добро» на расширение доли альтернативной генерации до 35%. Это, в свою очередь, означает, что и США, и Европа смогут развиваться, не задумываясь о кардинальной перестройке электросетей, до 2020 года. После этого в полный рост встанет проблема модификации устаревших систем: понадобятся новые ЛЭП, станции аккумуляции электроэнергии, точное прогнозирование погоды хотя бы на сутки вперёд, вовлечение альтернативных генерирующих мощностей в процесс регулируемой генерации (не вечно газовым и угольным станциям за всех отдуваться!) и... субсидирование уже классических электростанций, которые тоже должны будут перестроиться. Важнейшим качеством обычных электростанций новой эпохи станет способность оперативно выходить с нулевой мощности на полную, дабы покрыть потребности сети, оставшейся вдруг без такой экологичной, дешёвой, но такой непредсказуемой «чистой» энергии.
В статье использованы иллюстрации Warren Rohner, Kevin Dooley, Jonathan Doig.
Опубликовано 03 октября 2013
Век назад индустриальный мир был поделён между цветами и флагами империй. С различными хроматическими вариациями — южноафриканскими, канадскими, индийскими да австралийскими — доминировал британский Юнион Джек. Евразийское пространство Heartland’а занимала империя Российская. Империя Третьей Французской республики и колониальные реликты Первой Португальской республики. Обречённые на скорое исчезновение Австро-Венгерская, Германская и Османская империи… И — являющиеся сутью дела — экономические границы, делящие мир на рынки сбыта.
Ну а теперь мир информационный точно так же поделён на границы империй. Только информационных, сетевых, роль которых исполняют поисковые системы и социальные сети. Важность границ между ними для глобальной и национальных экономик не уступает важности таможенных границ вековой давности. Вот итоговый материал исследований Стефано де Саббаты (Stefano de Sabbata) и Марка Грэхэма (Mark Graham) из Оксфорда (Oxford Internet Institute ), озаглавленный «Age of Internet Empires». Это карта, на которую по состоянию на лето 2013 года нанесена статистика наиболее частых посещений сайтов в тех или иных странах, полученная от известного сетевого измерителя Alexa. Как мы видим ниже — доминирует Google, имеющая и максимум пользователей, причём живущих в наиболее состоятельных странах Европы и Северной Америки. На втором месте по территориальному охвату — Facebook, но по числу пользователей она уступает доминирующей на пространствах Поднебесной Baidu. (Интересное наблюдение — национальный китаец преобладает и на очень важном рынке Южной Кореи!) На постсоветском пространстве Казахстан любит Mail.Ru, а братская Белоруссия — «ВКонтакте». А на родных просторах первое место занимает Яndex.
Запущенный в 1997 году поисковый сервис Yandex.ru к нынешнему дню стал четвёртым из поисковиков мира. В декабре прошлого года он обрабатывал 4,84 миллиарда поисковых запросов, или 2,5% от их всемирного объёма. Учитывая, что население нашей страны составляет 2% от мирового, можно сказать, что «Яндекс» предоставляет нашим соотечественникам поисковых услуг в количестве большем, чем среднемировой уровень! Зарубежные обозреватели говорят о «Яндексе» как о «Russia’s answer to Google». И «русский ответ» был не только в аудитории, но и в финансовой успешности. Когда национальный поисковик провёл в мае 2011 года начальное размещение акций, то денег это принесло больше, чем любой интернет-компании со времени IPO Google в 2004 году, — $1,3 млрд против $1,67 млрд у янки…
В мае 2012 года ежедневная аудитория «Яндекса» обогнала Первый канал — 19,1 млн посещений против 18,2 млн зрителей. По результатам того же 2012-го фактически сравнялись рекламные доходы — 28,1 млрд рублей у поисковика против 28,2 млрд у телевизионщиков… Так что, рассуждая о «Яндексе», мы должны понимать, что говорим не просто об ИТ-компании, а о виднейшем игроке отечественного экономического пространства.
И вот теперь «Яндекс» обнародовал намерение сделать очередной и очень важный шаг. Объявлено о начале тестирования новой программной платформы «Атом». Она позволяет в реальном масштабе времени изменять содержимое сайтов, показывая каждому посетителю именно ту его версию, которая будет интересна ему и выгодна рекламодателю. Ну, примерно как провайдеры кабельного телевидения предлагают выбрать желаемое из списка каналов (в реальности сформировать пакет из пары деловых и полудюжины новостных каналов в HD-качестве они не могут, и приходится иметь их под две сотни, обозревая длиннющий список в момент смены частотной сетки). Так и тут — веб-мастерам, которые захотят присоединиться к программе тестирования, предстоит поделить контент сайта по темам, промаркировать его — а поисковик будет формировать представляемую пользователю индивидуальную версию сайта. Естественно, используя при этом те данные о его интересах и предыдущем поведении в киберпространстве «Яндекса» (практически на 60% совпадающем с информационным пространством Рунета), которые содержатся в базах данных поисковика.
Звучит очень просто… Но — фантастически сложно в реализации. Необходимо обрабатывать большие объёмы данных в реальном объёме времени. Именно это позволяют сделать технологии cloud computing. В качестве облачной платформы «Яндекс» выбрал Cocaine, известную PaaS-систему (Platform-as-a-Service) с открытым исходным кодом. Здесь можно посмотреть слайды с её презентации в этом качестве. Настройка поисковика под задачу кастомизации сайтов также чрезвычайно сложна и требует машинного обучения; тут используется опробованный на протяжении нескольких лет «Матрикснет». Интересующиеся техническим аспектом легко найдут дополнительную информацию и свяжутся со специалистами фирмы для возможного тестирования. Ну а мы поговорим о более общих проблемах.
Ну, прежде всего скажем, что о новой технологии «Яндекса» уже сообщили отечественные общественно-политические издания — и «Коммерсантъ», и «Ведомости»… И это как раз абсолютно понятно: речь идёт о новых возможностях крупнейшего игрока национального рекламного рынка, а суть постиндустриальной экономики и состоит в создании новых потребностей и продвижении их, в значительной степени с помощью рекламы. И про рекламный потенциал «Атома» двух мнений быть не может. Он явно эффективен и полезен потребителю в большинстве случаев. Скажем, вот простейший — привязка рекламы к месту. Ищешь элементарную вещь вроде батарейки для часов. И нет никакого смысла в том, что поисковик выдаст самый дешёвый вариант, находящийся даже не у МКАДа (где цены в стране минимальны), а на другом конце полумиллионника, поездка к которому может обернуться часом стояния в пробке… Нужен магазин рядом, с хорошим подъездом, или вообще мимо которого проходишь. И хорошо, когда такая локализация делается автоматически, экономя время. Мелочи — но жизнь и состоит по большей части из мелочей…
В привлекательности «Атома» для интернет-бизнеса не сомневается и вице-президент и технический директор Mail.Ru Group Владимир Габриелян, заявивший сколько-нибудьна страницах «Ведомостей»: «Обычных пользователей новая платформа не обрадует — им не понравится ни то, что за их поведением в интернете следят, ни то, что веб-мастера станут предлагать скидки менее платежеспособным посетителям сайтов». Вряд ли следует оглашаться с этим мнением. Давайте вспомним, что аудитория «Яндекса» превышает аудиторию Первого канала. Счесть, что тридцать миллионов человек в нашей стране или хотя бы заметная часть их озабочены возможной слежкой за ними в Сети, было бы уж очень сильным преувеличением… Поставьте простейший эксперимент — опросите знакомых, пользующихся интернетом: сколько из них знает про TOR и сколько пользуется луковичным браузером? Полученная в результате величина явно будет относиться к высшим порядкам малости…
Так что заметного рекламодателям оттока аудитории из-за таких проблем ждать не придётся. Ну а что насчёт любимого вопроса конспирологов — не будет ли новая технология использована для манипуляций общественным мнением? Ведь «Яндекс» превратился ещё и во влиятельное интернет-СМИ. И тут такая возможность формировать повестку именно под вкусы читателя, влияя на его настроения… Ну, это рассматривать всерьёз вообще не стоит. «Атом» даже в пределе будет всего лишь очень умелым макетировщиком, говоря терминами бумажной прессы. Он соберёт каждому постоянному посетителю страницу, наиболее удобную для него. Из тех материалов, которые предназначены в этот выпуск издания. И — всё!
Повторим: делать это в реальном времени фантастически сложно («Яндекс» не зря гордится тем, что лишь пяток фирм в мире умеет это). Но ждать от технологии некоей магии — а особенно чёрной — было бы опрометчиво. Это лишь инструмент. Способный повысить информационную проводимость Сети за счёт того, что к потребителю (ограниченному временем) на глаза будет попадать именно та информация, которая ему интересна. Читать её или нет — его выбор. И, накапливаясь в системах машинного обучения, она будет подстраивать «Атом» под его вкусы…
Ещё важней — способность новой платформы помочь оптимизации пути товаров и услуг от потребителя к производителю. И ещё важней — что такая прорывная технология предлагается отечественной фирмой, занимающей достойное место в мире информационных технологий.
Опубликовано 03 октября 2013
Ещё не так давно считалось, что использование на борту самолёта потребительских электронных устройств, в частности смартфонов и ноутбуков с подключением к сотовым сетям, небезопасно, поскольку это может повлиять на электронику самого авиасудна и снизить безопасность полёта. Однако сначала на американских, а потом и на европейских, в том числе и российских, пассажирских линиях стали предоставляться услуги беспроводного доступа в интернет.
Сегодня лишь при взлёте и посадке (на высоте до трёх километров) от пассажиров требуют отключать телефоны и другие устройства связи, но далеко не все это делают. К тому же бортпроводники не слишком придираются, поскольку для современных самолётов уже неактуальна проблема интерференции сигналов сотовой связи и авиадиспетчеров, а формальный запрет обусловлен лишь действием старых правил.
Наконец, буквально на днях Федеральное управление гражданской авиации США (FAA), обнародовало доклад, в котором говорится о допустимости использования любых электронных устройств в пассажирских лайнерах на всех стадиях полёта без угрозы для его безопасности. По данным Wall Street Journal, почти 60% всех пассажирских самолётов в США, не считая машин местных авиалиний, уже обеспечены доступом в интернет, а к концу 2015 года их станет 85%.
Сегодня в мире используются четыре разных системы организации доступа в интернет через Wi-Fi на борту пассажирских самолётов. А точнее, три, поскольку четвёртая, самая совершенная, будет запущена в эксплуатацию сразу несколькими американскими авиакомпаниями в самое ближайшее время. Давайте разберёмся в этих системах — какую из них стоит предпочесть, если вы не намерены отказываться от веб-сёрфинга или хотя бы «Твиттера» во время перелёта.
На сегодня система Air-To-Ground (ATG) остаётся самой популярной у авиакомпаний Северной Америки — США и Канады. Она предоставляется под маркой Gogo, которую можно увидеть на корпусе самого самолёта. Фактически эта самая древняя, но не самая медленная (об этом чуть ниже) система подключения пассажирских лайнеров к интернету, и когда вы слышите о «диалапном интернете» на борту, скорее всего, речь идёт именно о ней.
Как недвусмысленно намекает само название Air-To-Ground (что-то вроде «воздух, подключённый к земле»), технология основана на использовании базовых наземных станций, аналогично сотовым, а не на более дорогой спутниковой связи. Для ATG используется сотовая сеть 3G стандарта EVDO — подобная тем, что в США поддерживают крупнейшие операторы Sprint и Verizon, а в России, к примеру, «Скайлинк».
Оригинальная система ATG, до сих пор используемая во множестве авиалайнеров, предполагает передачу трёхмегабитного канала на каждый самолёт, а затем эти смешные по нынешним меркам 3 Мбит/с разделяются в лучшем случае между 50 пассажирами небольшого местного самолёта или местами первого класса, а в худшем — между 200–300 пассажирами. Особо терпеливые могут просмотреть электронную почту или ленту «Твиттера», но привыкшие к широкополосному интернету предпочтут выключить смартфон и открыть обычную книжку.
Более совершенная система ATG-4, введённая в эксплуатацию в 2012 году в компании Virgin America, обеспечивает скорость до 10 Мбит/с, что, конечно, лучше, но не намного. Никакого комфортного сёрфинга вы не получите, даже если разделите доступ всего между десятью пассажирами.
Наконец, в сентябре Gogo объявила о намерении ко второй половине 2014 года запустить новую, гибридную версию своего сервиса, которая сводила бы в единую систему наземную сеть базовых станций и спутниковый доступ. По утверждению Gogo, такая система обеспечит вшестеро большую скорость доступа в интернет на борту самолётов по сравнению с её сегодняшним лучшим предложением — то есть речь идёт о 60 Мбит/с, что на 10 Мбит выше сегодняшнего лучшего предложения от Ku-Band. Как и в случае с ATG-4, первыми лайнерами, использующими гибридную систему, станут самолёты авиакомпании Ричарда Брэнсона.
L-Band — это уже спутниковая система доступа, применяемая, в европейских, азиатских и африканских странах — и «Аэрофлотом» на аэробусах A320 и A330. Такие авиалайнеры можно узнать по логотипу OnAir.
Для трансляции спутникового сигнала на борт самолёта используется диапазон 1–2 ГГц, а сама система построена на основе службы SwiftBand компании Inmarsat. Несмотря, однако, на всю высокотехнологичность, поскольку размеры приёмной антенны в кожухе-обтекателе относительно невелики (в основном по соображениям экономии топлива), на выходе получается не самое быстрое 3G-соединение, распределяемое между всеми пассажирами. То есть это всего лишь 432 или 864 Кбит/с, в зависимости от конкретной конфигурации, что значительно хуже даже ATG. Если к такой сети одновременно подключатся пять–семь пассажиров, она окажется полностью перегруженной: это означает даже не «диалапный интернет», а полное отсутствие интернета.
Система OnAir оправдывает себя лишь на небольших частных самолётах, и остаётся только догадываться, чем руководствовался «Аэрофлот», упорно пытаясь эксплуатировать её на огромных «Аэробусах». Хотя, по отзывам пассажиров, он даже и не особо пытается: она настолько бесполезна, что её нередко просто забывают включать во время полёта. Впрочем, зная наше государство, можно предположить, что выбор именно OnAir связан не с некими коммерческими соображениями, а с тем, что в том же диапазоне 1–2 ГГц работает система правительственной связи «Контакт-СМ».
Самая скоростная на сегодня система доступа в интернет в полёте, также основанная на спутниковой технологии. Её выбрало большинство компаний Юго-Запада США, европейские и азиатские авиаперевозчики, а также и российская «Трансаэро» на Boeing 747 и 777. Технология предоставляется под целым рядом брендов, среди которых Panasonic Avionics Corporation (как раз в случае с «Трансаэро») и Row44.
Ku-Band использует частотный диапазон 12–18 ГГц и обеспечивает на каждый борт трансляцию канала со скоростью до 50 Мбит/с — на практике, разумеется, куда меньше. Тем не менее Ku-Band можно считать лучшим выбором для международных перелётов. Конечно, вы всё ещё не сумеете смотреть потоковое видео, но сможете комфортно путешествовать по веб-страницам и просиживать в социальных сетях. Однако все VoIP-сервисы в системах Ku-Band всё-таки запрещены и голосовой трафик неизменно фильтруется.
Самая перспективная система спутникового интернет-доступа на борту самолёта, которая обещает канал до 12 Мбит/с для каждого пассажира! Технология, которая будет продвигаться под маркой Excede by ViaSat, использует диапазон 26,5–40 ГГц и должна первоначально появиться на самолётах американских компаний JetBlue и United.
В будущем развитием Ka-Band должна заняться и вторая компания, но почти готовое решение пока есть только у ViaSat. JetBlue намерена использовать его, в частности, на аэробусах A320 в рамках услуги Fly-Fi. Базовый уровень скорости будет предоставляться бесплатно, а за деньги абоненты смогут смотреть в полёте даже потоковое видео, подключаясь к своему аккаунту на Netflix. Возможно, таким клиентам даже разрешат использовать на борту Skype.
* * *
Сегодня многие настолько привыкли к постоянно подключенным к интернету смартфону или планшету, что им непросто даются даже небольшие перелёты. Есть такое мнение, что некоторые склонны напиваться и дебоширить на борту не столько из-за боязни полётов, сколько из-за того, что их лишили привычной игрушки, а занять себя чтением журнала или книжки они уже не могут. В связи с этим постоянное увеличение скорости интернет-соединения, предоставляемого в самолётах, как ни странно, может даже способствовать безопасности полёта — в противоположность распространённому совсем недавно убеждению.
Опубликовано 03 октября 2013
В истории анонимных интернет-проектов поставлена если не точка, то жирное многоточие: сегодня ночью в Сан-Франциско, США, был арестован основатель и владелец знаменитого веб-магазина Silk Road. Сумма, прошедшая через его счета за неполных три года работы, оценивается более чем в миллиард долларов, а его личная прибыль — в десятки миллионов.
Silk Road был замечателен тремя аспектами. Во-первых, он размещался в так называемом подпространстве TOR, почему и был доступен только пользователям TOR и (по крайней мере теоретически) функционировал обоюдно анонимно: посетители не могли узнать, где физически находится магазин (в смысле — сервер), а владелец магазина не знал, откуда приходят посетители. Сохранять анонимность помогал и аспект номер два: все расчёты на Silk Road велись исключительно в криптовалюте Bitcoin — теоретически также не привязанной к именам и месту. Наконец, третий аспект — и самый важный для судьбы проекта из всех — вытекал из первых двух: Silk Road торговал много чем, от произведений искусства до порнографии, но самым ходовым товаром были наркотики (более подробно см. колонку годичной давности «Вне закона, вне конкуренции»).
Если быть точным, Silk Road — не магазин, а торговая площадка, где интернациональный спрос встречался со столь же интернациональным предложением в лице тысяч подпольных дистрибьюторов. Робертсу удалось выстроить весьма организованный проект: благодаря суровой дисциплине и мерам предосторожности (вроде авансового депонирования денежных средств клиентами на счета Silk Road) обман со стороны продавцов — вроде бы неизбежный в таком неприятном бизнесе — практически свели к нулю. Ничего удивительного в том, что деньги лились рекой. ФБР, сыгравшая главную роль в заключительном акте драмы, оценивает продажи с февраля 2011 суммой в $1,2 млрд. А сам Робертс делал ежесуточно на комиссиях по 20 тысяч баксов. Изъяли у него меньше четырёх миллионов (конечно, в пересчёте с биткойнов на доллары), а поскольку жил он весьма скромно, то, вероятно, львиную долю припрятал на чёрный день.
Сейчас на сайте Silk Road красуется стандартное уведомление ФБР об изъятии; Робертс, получивший обвинения в заговорах с целью незаконного оборота наркотиков, компьютерного взлома и отмывания денег, томится в кутузке и, вероятно, не сегодня завтра будет обвинён в новых прегрешениях. А пользователи грустно тусуются на пока ещё работающем форуме (видимо, размещённом на другом сервере). Но как же «накрыли» столь тщательно оберегавшийся проект? Неосторожность. Увы, банальная неосторожность!
Под личиной Dread Pirate Roberts скрывался 29-летний американский гражданин Росс Уильям Ульбрихт. Его история прямо-таки просится на широкий экран. Ещё вчера студент-очкарик, пошедший в аспирантуру, чтобы двигать науку (специализация — солнечные батареи и нанотехнологии), он потерял интерес к физике в конце «нулевых» — и посвятил себя изучению экономики и «либертарианству» (весьма странная концепция, предполагающая, в понимании Ульбрихта, борьбу с насилием и агрессией экономическими методами). В свободное время подрабатывал директором благотворительной фирмы, скупавшей старые книги для отправки в тюрьмы. А в последнее время он автор крупнейшего криминального проекта в истории Сети и потенциальный убийца, проводящий дни напролёт за ноутбуком в съёмном доме с соседями, которые понятия не имели не только о том, чем он занимается, но даже о том, как его на самом деле зовут. Впрочем, я забегаю.
Из краткого отчёта ФБР (копия бродит по Сети) рисуется следующая цепочка событий. В 2011 году, только-только запустив Silk Road и разбираясь с мало кому тогда известными биткойнами, Ульбрихт, действуя под псевдонимом и через TOR, написал несколько сообщений на центральном форуме Bitcoin, причём в паре случаев он рекламировал свой проект, а в третьем имел неосторожность указать личный адрес электронной почты (rossulbricht @ gmail.com). Это и стало зацепкой для ФБР. Через почту они пришли на профиль Росса в Google+, оттуда на его ютьюбовскую коллекцию, отметили, что Росс, как и Dread Pirate Roberts, увлечён экономистом Людвигом фон Мизесом (собственно один из отцов либертарианства), взяли Росса под интернет-наблюдение — и в конце концов обнаружили сервер Silk Road (находился вне Соединённых Штатов, но страна не раскрывается) и даже смогли изучить его содержимое.
По ходу дела Ульбрихт допустил ещё несколько аналогичных промашек, здесь не упомянутых: он заказывал себе фальшивые документы, писал под своим именем на технофорумах, пользовался VPN от провайдера, сотрудничавшего с ФБР. Если любопытно, вы найдёте всё это в том же отчёте. Который, кстати, именно поэтому представляет собой довольно скучное чтиво: большую его часть занимает перечисление собранных агентами Бюро мелких фактов, необходимых, чтобы доказать суду, что Ульбрихт и Ужасный Пират Робертс — одно лицо (что значит правовое государство! Подозреваю, случись это в России, главный герой оказался бы в КПЗ сразу после обнаружения имейла).
Психологи, вероятно, скажут, что он хотел быть пойманным, но Россу теперь не до психологов. Помимо наркотиков и прочего, ему могут предъявить (по некоторым данным, уже предъявили) обвинения в убийстве двух человек. Сначала он «заказал» вышедшего из-под контроля коллегу, позже (минувшей весной) — умника, который додумался шантажировать его раскрытием имён некоторых клиентов и продавцов Silk Road. В обоих случаях были уплачены приличные суммы ($80 тыс. и $150 тыс. соответственно; в биткойнах, конечно), в обоих случаях Ульбрихт потребовал и получил подтверждение исполнения заказа в виде фотографий убитых жертв. Впрочем, в первом случае в роли наёмного «убийцы» выступил агент ФБР, а во втором Бюро не удалось отыскать известий о смерти человека с нужным именем, то есть, возможно, наёмник Ульбрихта просто обманул.
Так или иначе, переписка сохранилась — и теперь по совокупности совершённого Россу светит пожизненное заключение. Так что для него приключения, вероятно, закончились. Но стоит подумать, чем обернётся арест Ульбрихта и закрытие Silk Road для всех нас. Криптовалюта Bitcoin в перспективе от этого только выиграет: она будет меньше ассоциироваться с нелегальной активностью, что, конечно, привлечёт к ней новых пользователей. Система анонимизации TOR в очередной раз подтвердила свою надёжность.
Что же до оставшегося неудовлетворённым спроса на нелегальный товар, то его наверняка удовлетворит какой-нибудь новый анонимный интернет-магазин. Готов поспорить, долго ждать не придётся.
Опубликовано 02 октября 2013
Эдвард Сноуден вряд ли получит Нобелевскую премию мира. Да и судьба разговорчивого идеалиста едва ли сложится хорошо… Но одним из самых популярных людей на планете он уже стал: поисковик даёт на него восемьдесят один миллион ссылок. (Двадцать семь миллионов — на Маркса, шестьдесят два — на Линкольна…) И разоблачения Сноудена уже сформировали поразительно мрачный образ мира информационных технологий: человек в киберпространстве со всех сторон обложен шпионскими сетями АНБ и его британских пособников. И нет ни малейшего сомнения в том, что и другие страны осуществляют подобную слежку — может, менее высокотехнологичную, но не менее усердную. Всё… Свободы кончились! Большой Брат Оруэлла везде. Мир теперь окажется под гнётом Железной Пяты, если вспомнить Джека Лондона. Ну или замкнётся в инферно, пользуясь термином Ивана Ефремова из «Часа Быка».
Но жизнь всегда шире любой придуманной схемы. И ростки её пробиваются сквозь железобетон даже самого технически оснащённого тоталитаризма. Причём лучшим удобрением служит не абстрактное стремление к свободе и справедливости, а самая обычная корысть… В столичных городах изредка можно встретить забредших в Россию бывших диссидентов, рассказывающих, как героически они в молодости боролись с коммунизмом… Может, и боролись. Только этого никто не видел. А вот экономические подпольщики, что на Привозе предлагали добытые моряками загранплавания джинсы и диски, деним и винил, своё дело сделали — сформировали у широких слоёв населения некоторое представление о стандартах потребления.
Так кто же готов противостоять достигшему планетарных масштабов любопытству Агентства национальной безопасности? Может, правительства? Такие демократические, послушные воле народов… Ну, в Германии массовые демонстрации против PRISM и Tempora прошли, политики произнесли именно те речи, которые хотел услышать избиратель, а потом немцы отдали большинство голосов христианским демократам. Вождь последних канцлер Меркель не скрывает своей проамериканской ориентации, занёсшей солдат миролюбивого бундесвера в афганские горы… Тогда правозащитники? Такие могущественные, повергающие в страх перед общественным мнением тиранов… Да нет, от них, скорее всего, проку будет столько же, сколько от диссидентов 70-х. Как же человечеству ускользнуть из информационных сетей глобального шпионажа?
Для ответа на этот вопрос посмотрим на то, что уже произошло. Прежде всего имел место прецедент, когда глава государства — и государства немаленького — действительно жёстко прореагировал на американскую киберслежку. Это сделала президент Бразилии Дилма Русеф. Она отказалась от встречи с мистером Обамой, выступив против того, что АНБ занималось экономическим кибершпионажем против бразильской нефтяной корпорации Petrobras. Доходы нефтяников очень важны для развития Бразилии, нашей соседки по BRICS. (Там даже учителя с полицией дерутся…) А для янки, находящихся на грани перехода от импортёра в экспортёры углеводородов, естественно, интересно и полезно знать о делах конкурентов («С открытыми картами»). Но Бразилия — это не ядерная Россия и не гигантский Китай. Демарш Русеф утонул в информационном шуме, порождённом ближневосточными войнами и бюджетными скандалами. На скандал с PRISM прореагировал даже германский семейный бизнес («PRISMа как шанс»). Что ж, защищённая почта дело хорошее, особенно для бизнеса, однако это всё же частности. Но вот теперь на защиту информационных свобод в хрустальном мире всеведения спецслужб выступил новый игрок. И это — одна из культовых фигур компьютерного мира, Джон Макафи.
Этот шотландец, родившийся в 1945 году в Британии и окончивший колледж свободных искусств Роанок, работал программистом в NASA, потом — проектировщиком программного обеспечения в UNIVAC (некогда создавшей легендарный UNIVersal Automatic Computer). Оттуда перешёл в Xerox, где был архитектором операционных систем. Позже — консультант по софту в Computer Sciences Corporation; этот нынешний гигант (98 тысяч занятых и $22 млрд оборота) уже в 70-е оказывал компьютерные услуги (откуда и происходят нынешние IaaS и PaaS). Затем — CSC, аэрокосмический гигант Lockheed. Проанализируем вкратце этот этап биографии Макафи. Начало — NASA, где тогда реализовывалась программа Apollo, апогей хайтека индустриальной эпохи.
Потом – UNIVAC, где за пару десятилетий до этого зародилась эпоха информационнная, и Xerox, где она в значительной степени оформилась в то, что мы видим каждый день. Дальше — ещё важнее. Computer Sciences Corporation — фирма, поставлявшая информационные услуги. И Lockheed — пронизанная духом холодной войны корпорация, создающая средства борьбы. И когда Джон Макафи в 80-е, трудясь у Lockheed, обзавёлся первым вирусом, пакистанским Brain (ещё в далёком 1986-м Юго-Восточная Азия вносила свой вклад в развитие ИТ-мира), он был уже готов к тому, чтобы стать одним из создателей очень перспективной отрасли ИТ-индустрии — борьбы с вредоносным программным обеспечением! (Перспективной — поскольку фундамент её благополучия покоится на извечной сущности человека — стремлении сделать гадость ближнему, порой даже бескорыстно…)
Ну, говорить про одноимённый с Джоном антивирусный сканер излишне: даже если вы не поклонник этого продукта, то наверняка встречали его предустановленным на ноутбуке от самых разных производителей… И про McAfee, Inc., бывшую McAfee Security, крупнейшую фирму в области компьютерной безопасности, купленную в 2010 году Intel за $7,68 млрд наличными (не в смысле грузовика банкнот, а живыми деньгами, то есть — не путём обмена акций на акции), тоже говорить излишне. Это уже совсем другая история, с Джоном Макафи не связанная…
А сам Макафи оказался не слишком везуч. Глобальный финансовый кризис драматически ужал его состояние — со $100 млн до $4 млн… Он перебирается в Белиз — классический «налоговый рай» — и размещает там штаб-квартиру новой компании QuorumEx, пытающейся производить естественные антибиотики. В конце прошлого года Джон Макафи оказывается в центре криминального скандала: полиция Белиза проявляет к нему интерес по поводу убийства его соседа, тоже налогового беженца, с которым Джон будто бы ссорился. Памятуя о том, что мешканьем беды не избудешь, и изменив внешность с помощью подручных средств, жевательной резинки на челюсть, Макафи бежит в Гватемалу. Там его задерживают, но экстрадируют в США, где дело и затихает...
И вот теперь — самое интересное. 1 октября 2013 года компьютерный мир обежала очередная ком-либоновость от Джона Мак-фи. Для её оглашения он выбрал очень интересную площадку — фестиваль музыки и технологий C2SV в Сан-Хосе. В выступлении (желающие могут посмотреть его здесь) он предельно низко оценил защищённость современных информационных коммуникаций (в чём сходится с нашим Касперским). 68-летний ветеран ИТ пообещал, что, располагая минимальной информацией о , он за три дня возьмёт его под плотное электронное наблюдение. И это может любой: «If I can do it, any idiot can do it».
Для исправления ситуации Джон Макафи намерен в ближайшее время создать новую компанию — и объявил о её первом продукте по имени D-Central. Это будет устройство размером с коробку для ботинок; без экрана, но способное создать миниатюрную сеть радиусом в 400 метров (или три городских квартала). Систему шифрования устройства получат собственную. Никаких индентификаторов они не имеют. В результате, «цепляясь» друг за друга (конечно же, в людных или достаточно населённых местах), коробочки D-Central формируют свою собственную сеть, через которую пользователи смогут передавать и принимать файлы. Причём — совершенно анонимно! Но для этого требуется достаточное количество обладателей D-Central и их желание работать в анонимной сети. И работу с потребителями Макафи уже начал. Пройдя по ссылке, можно увидеть экран с обратным отсчётом до дня весеннего равноденствия 2014 года (когда планируется начать выпуск устройств) и оставить там свои контакты.
Кроме этого, в крупных городах США планируется сеть узлов для подключения D-Central к обычному интернету. Естественно — тоже анонимного… Так что при достаточном количестве желающих обеспечить себе анонимность может возникнуть незаметная для спецслужб сеть передачи данных. Правда, работающая лишь в условиях, когда в радиусе 400 метров найдётся достаточное количество D-Central, позволяющее сформировать сеть.
Про диапазон этих приборов не говорится ничего: вероятно, он один из общеупотребительных… В современной жизни отключить или забить помехами Wi-Fi уже невозможно. В квартире перестанут гоняться сигналы между компьютерами, планшетом, книжкой, телевизорами… В кафе внизу замрёт платежный терминал. В супермаркете рядом встанет ещё и логистика, а дантист напротив не сможет смотреть рентгеновские 3D-снимки… Так что засунуть между этих потоков сигналов ещё и шифрованный обмен — вполне возможно. Было бы желание… Главное — не впадать в уныние перед всеведением спецслужб. Код Шеннона невзламываем и теоретически. Факторизация при длинных ключах лежит в области трансвычислений. А из «клетки Фарадея» не убежит никакой сигнал. Надо просто это знать и уметь этим пользоваться.
Ну и относиться к ситуации, сложившейся из-за деятельности спецслужб и обрисованной Сноуденом, лучше как к шансу, дающему новые возможности. Так, как делает это ветеран ИТ-отрасли Джон Макафи.
Опубликовано 02 октября 2013
Представьте автомобиль, рисунок покрышек которого динамически подстраивается под тип дороги, покрытие кузова само устраняет трещины и укрепляется в местах более частого контакта с водой, предотвращая коррозию. Вообразите одежду, которая отлично «дышит» летом, но становится водонепроницаемой, едва пойдёт дождь. Подумайте о камуфляже, устойчивом к загрязнению и меняющим цвет, как хамелеон свой окрас. Фантастика? Уже не совсем.
Исследователи из Гарвардской школы инженерных и прикладных наук при поддержке университетов Иллинойса и Питсбурга получили грант в размере $855 тыс. на разработку методов «четырёхмерной печати». Под «четвёртым измерением» понимается не только создание предметов с эффектом самосборки, но и дальнейшее развитие технологии 3D-печати в направлении адаптивных материалов. Как отмечают авторы, создаваемые таким образом вещи смогут меняться, приспосабливаясь к различным изменениям:
Вместо того чтобы использовать (в 3D-печати) полимеры с жёстко определёнными свойствами, мы предлагаем применять биомиметические композиты. Изменение формы и свойств созданных из таких материалов вещей станет возможным как по требованию, так и самопроизвольно — под воздействием внешних факторов.
http://www.youtube.com/watch?v=ow5TgVTTUdY
Иными словами, созданные по методу «4D-печати» вещи смогут менять свою функциональность, подстраиваясь под разные условия. Например, они будут становиться более твёрдыми или эластичными, гладкими или шероховатыми, самостоятельно восстанавливаться, изменять окраску и форму... Вариантов множество. Общая суть в том, что заранее учтённые изменения на микроуровне проявятся в виде определённых макроэффектов. Живые организмы постоянно приспосабливаются к внешней среде. Пора наделить этим свойством и рукотворные объекты:
Объединяя наши возможности точной послойной печати, синтеза адаптивных материалов и компьютерного моделирования поведения полученных структур, мы рассчитываем заложить фундамент для новой области — 4D-печати.
Лежащие в основе этого подхода «умные полимеры» сегодня применяются преимущественно в узкоспециализированных областях. Они используются для производства гидрогелей, биоразлагаемых упаковок и в экспериментах из области биомедицинской инженерии. Однако интерес к ним возрастает с каждым годом, а недавно значимые практические результаты были достигнуты и в микроэлектронике.
Инженерам из Университета штата Северная Каролина удалось сконструировать тензометрический датчик, самостоятельно восстанавливающийся после механического повреждения.
Аналогичными свойствами обладают защитная плёнка для экранов мобильных устройств компании Toray Advanced Film и чехол для iPhone. Они сами устраняют мелкие царапины в течение нескольких секунд.
Из-за иерархической структуры полимерных материалов малые конформационные изменения каждого мономера приводят к выраженному изменению общих свойств. Поэтому даже малого внешнего воздействия может быть достаточно для запуска различных процессов адаптации.
Например, способность «умных полимеров» к быстрому и обратимому фазовому переходу из гидрофильной микроструктуры в гидрофобную при изменении pH и температуры используется при создании новых средств избирательной доставки лекарств к поражённым клеткам. Из-за специфических условий в очаге воспаления изменения в структуре носителя и высвобождение из него лекарственного препарата происходят только в нужном месте, за счёт чего снижается выраженность побочных эффектов.
В технике одним из самых востребованных материалов с активной микроструктурой считается частично стабилизированный диоксид циркония. Он был разработан в Государственном объединении научных и прикладных исследований Австралии (CSIRO). Созданные из него детали не только обладают высочайшей механической прочностью, но и способны заполнять образовавшиеся в них трещины благодаря фазовому переходу из неравновесного в равновесное состояние. Как материал с исключительной износостойкостью в настоящее время он широко используется в установках измельчения и дробления химической, фармацевтической и пищевой промышленности.
Использование «умных полимеров» — закономерный этап в развитии технологии 3D-печати. Сами по себе такие материалы не позволяют создавать достаточно сложные вещи, в отличие от их определённого сочетания с запрограммированными свойствами.
Опубликовано 02 октября 2013
За три месяца копания в файлах, унесённых Эдвардом Сноуденом из АНБ, прояснилось многое о том, как американские спецслужбы и их коллеги за рубежом собирают информацию. Однако до последнего времени оставалось неясным, как именно они её используют. Сведения эти в сноуденовском архиве, несомненно, есть, однако даже либеральная западная пресса и обозлённые на правительство правозащитники выдают увиденное чрезвычайно скудными дозами (очевидно, чтобы и самим не попасть под обвинение в измене родине или раскрытии секретов государственной важности). Что ж, на прошлой неделе настал момент, после которого замалчивать факты стало невозможно, — и одного из наблюдателей прорвало: The New York Times рассказала, как АНБ строит беспрецедентно большую и подробную «социальную сеть», аккаунт в которой есть, возможно, даже у вас, хоть вы, конечно, не только в ней не регистрировались, но никогда о таковой и не слышали.
Последние три года (начиная с ноября 2010-го) с разрешения руководства АНБ анализирует собранные самостоятельно метаинформационные базы данных (в первую очередь телефонных звонков и электронной почты) с целью составления личных социальных графов граждан США и иностранцев. Вообще-то нет прямых доказательств, что граф строится для каждого индивида, метаданные о контактах которого осели в базах АНБ (PRISM и пр.). Но и доказательств обратного тоже пока не представлено — если не считать приевшихся уже уверений самого Агентства, что его интересуют только «некоторые» личности: вспоминая «три прыжка АНБ», можно представить истинные масштабы проблемы...
Соцсеть, построенная АНБ, в первом приближении напоминает обычные «фейсбуки»: её цель — систематизировать социально значимую информацию об индивиде и облегчить таким образом выявление его связей с интересными разведке людьми (поначалу в качестве последних выступали иностранные граждане — потенциальные шпионы или террористы). Однако АНБ не было бы АНБ, если б не воспользовалось всеми имеющимися в его распоряжении средствами для максимального уточнения картинки. Так что грубый соцграф, построенный на основе метаданных, «обогащали» (и продолжают по сей день) за счёт привлечения информации из внешних источников — публичных, коммерческих и всех прочих, до каких Агентство только смогло дотянуться. Это базы данных банков, страховых компаний, списки пассажиров и избирателей, записи налогового управления, сведения о месте жительства, и прочее, и прочее, включая и профили Facebook.
Ограничений на сбор не было практически никаких, и приличия соблюдались весьма условно. Так, вопреки всем предыдущим уверениям, изучение конкретного индивида могло проводиться без предварительной проверки, является ли индивид американским гражданином (то есть нужно ли для наблюдения за ним особое разрешение). Точно так же, без всяких запросов и разрешений, сосали информацию из «Фейсбука»: ведь это публичный ресурс! В результате же получилась весьма сложная схема, мало пригодная для чтения человеком, зато удобная для машинной обработки: легко проследить связи нужных лиц, узнать, кто, куда и с кем путешествует, где проживает, работает, с кем встречается и т. д.
Кстати, стоит сделать забавное дополнение для тех, кто ещё верит, что чей-тотакие возможности используются исключительно в интересах общества. В ответ на запрос одного американского сенатора АНБ обнародовало список (всего около дюжины инцидентов) злоупотреблений его сотрудников служебным положением — а точнее, техническими возможностями. Так вот, в АНБ работают такие же люди, как и все мы, подверженные тем же слабостям: одни следят за мужьями, другие слушают телефонные переговоры подруг и т. д. Естественно, карают за такое любопытство со всей жестокостью, от выговоров и ограничения доступа в будущем до увольнений. Однако инциденты не прекращаются, чего и следовало ожидать: слаб человек! Всё почти как в той юмористической рекламке с Сашей Грэй: хочешь — читай чужую почту, хочешь — слушай телефон.
Однако вернёмся к соцсети АНБ. В ответ на просьбу о комментарии журналисты получили от Агентства лишь повторение хорошо знакомого: «Мы работаем против терроризма и только по иностранным целям». Но, принимая во внимание масштаб вскрывшихся злоупотреблений (американцам в целом плевать на бесконтрольную слежку за иностранцами, но они не любят, когда государство следит за ними), пресса предполагает, что в этот раз АНБ легко не отделается. Страсти кипят ещё с июля, но если ранняя идея перекрыть финансирование Агентства совсем у законотворцев понимания не нашла, то вынашиваемый сейчас законопроект о запрете «оптовой слежки» (билль Вайдена — Юдалла — Пауля) имеет ненулевые шансы быть воплощённым в жизнь. Суть: АНБ по-прежнему сможет вторгаться в святая святых и применять свою аналитическую мощь на благо государства, но — только против конкретных лиц, подозреваемых в терроризме, шпионаже и прочем подобном.
Кто-то назовёт надежду на ограничение свободы рук АНБ неумеренным оптимизмом: Штаты не станут рубить сук, на котором сидят, да и список любопытных спецслужб не сводится к одним только американским. Но если позволите личное мнение, то надежда всё-таки есть, хоть и не там, где её видит обыватель или законодатели. На волне сноуденовской истерии в США вышла книга Кристофера Бойса «Сокол и Снеговик: сыны Америки». Бойс — это Сноуден образца середины 70-х годов: работая на правительство, он случайно (в результате технической ошибки) получил доступ к сверхсекретному коммуникационному каналу ЦРУ, но не поделился материалами с общественностью, а предпочёл продать их советской разведке. Пойман, осужден, бежал, жил грабежом банков и вынашивал планы бегства в СССР, снова пойман, отсидел в общей сложности почти четверть века и сейчас тихо живёт где-то в Штатах, не стесняясь признавать, что после всего пережитого даже думать о сопротивлении государству ему страшно.
По его биографии снят хороший фильм «Сокол и Снеговик» (1985), а журнал Wired на днях по случаю выхода книги (продолжение той истории) взял у него интервью. И вот там Бойс озвучил бесценную мысль: задачи осведомителя 70-х и сегодня разнятся принципиально. Почему он не обнародовал секретные телеграммы ЦРУ сорок лет назад? Да не было технической возможности сделать это с гарантированной безопасностью для себя! Ну как, в самом деле? Встретиться с журналистом? А что если это переодетый агент? Сегодня же достаточно выложить материалы в Сеть — и это даёт надежду, что Сноуден не будет «последним из могикан». Другие ребята с обострённым чувством справедливости не дадут расслабиться завравшимся службистам. Будет свой Сноуден и в России.
Печально, что сам Бойс не верит в эффективность такого рода активности. Как известно, большое видится на расстоянии, и Кристофера, отсидевшего за правдолюбие (он надеялся, что, сдавая информацию КГБ, понизит градус напряжённости в отношениях между двумя супердержавами) больше, чем многие из нас прожили, стоит послушать. А он считает, что среднего американца больше интересует, сколько сахара и сливок в его утреннем кофе, чем гражданские права. И как ничего не изменила WikiLeaks, ничего не изменят и Сноуден, и его последователи.
В статье использованы графика Василия Ложкина и кадр из личного архива Кристофера Бойса
.
Опубликовано 01 октября 2013
Развитие современной науки часто идёт по пути биомимикрии — имитации в технике наиболее удачных и закрепившихся в ходе эволюции природных механизмов реализации какого-либо свойства или функции. По принципу действия цифровые камеры похожи на глаз, мембранные фильтры — на почку, миниатюрные роботы действуют как рой насекомых, etc.
Постепенно биомимикрия переходит от макро- к микроуровню. Исследователи пытаются копировать принципы работы клеток и даже отдельных молекулярных систем. Среди последних наибольший интерес представляют непосредственно основанные на ДНК.
Дезоксирибонуклеиновую кислоту по праву считают совершенным носителем информации с многоуровневой системой защиты критически важных данных. Она кодирует сложные алгоритмы синтеза белка. Через неё реализуются главные свойства живых организмов — наследственность и изменчивость.
В то же время для химиков и представителей разных технических специальностей это просто полимерная молекула, которую можно синтезировать искусственно и закодировать с её помощью практически что угодно. Например, год назад в медицинской школе Гарварда в ДНК-чипе записали книгу «Регенезис: как синтетическая биология приведёт к переосмыслению природы и нас самих».
Подобные эксперименты пока единичны, а их авторы каждый раз используют свои уникальные методы. Исследователи из Вашингтонского университета пошли дальше и решили унифицировать процесс, для чего создали целую среду разработки:
Живые организмы используют многочисленные химические реакции для исследования окружающего мира и регулирования постоянства внутренней среды. Разработка синтетических систем с аналогичными свойствами представляет интерес для медицины и промышленных методов, использующих эффект самоорганизации. Для их создания требуется проектирование контроллера с молекулярными цепями управления, на основе которого могли бы выполняться необходимые вычисления и действия на химическом уровне. Мы реализовали вычислительное ядро таких контроллеров, использовав формализм сетей химической реакции и создав соответствующий язык программирования.
Из-за свойства комплементарности при помощи синтетической ДНК можно запрограммировать выполнение произвольного набора команд и сформировать молекулярную систему с определёнными свойствами.
Такой подход можно использовать для создания искусственных органов, в которых молекулярная система на основе синтетических молекул ДНК будет способна реализовать разные биологические программы в зависимости от текущих потребностей.
В клинической практике такие молекулярные системы могут служить способом для тестирования лекарственных препаратов и их избирательной доставки к клеткам поражённого органа. Один из авторов работы, доцент лаборатории экспериментальной вычислительной техники ExCEL Георг Силиг (Georg Seelig), так описывает роль исследования:
Если вы хотите, чтобы компьютер делал что-то иное, вы просто запускаете на нём другую программу. Теперь очень похожий метод управления мы можем реализовать на уровне (био)химии.
Параллельно исследователи из Вашингтонского университета приблизились к решению давней проблемы эффективной обработки аналоговых сигналов в цифровых системах:
Наша архитектура использует синтетическую ДНК и может осуществлять любые математические действия. В отличие от привычных логических схем, она позволяет естественным образом обрабатывать аналоговые сигналы, как это делают биологические системы. Для уменьшения ошибок, связанных со сборкой синтетической ДНК, компоненты контроллера могут быть получены биологическим путём из ДНК плазмид. Мы создали несколько строительных блоков для разных типов реакций, а затем объединили их в сеть, которая реализует на молекулярном уровне алгоритм, использующийся в распределённых системах управления.
Если каждый компонент цифровой системы имеет строго одно из двух состояний, кодируя логическую единицу или ноль, то группа нейронов или молекул, как правило, находится в более сложном состоянии, описание которого нельзя свести к простой битовой последовательности без огрубления.
Ограниченность возможностей имитации живых систем с помощью привычных логических схем тормозит развитие таких проектов, как искусственный мозг или моделирование биологических процессов, и множества других. С появлением среды разработки на основе синтетической ДНК существующие барьеры будет значительно легче преодолеть.
Опубликовано 01 октября 2013
На ежегодной японской выставке CEATEC компания Sharp продемонстрировала прототип дисплея, разработанный совместно с Qualcomm. В нём отсутствуют привычные RGB-светофильтры. Подсветка такого экрана индивидуальна для каждого пикселя. Она сама мерцает красным, синим и зелёным с высокой частотой. В качестве затвора пикселей используются микроэлектромеханические системы (MEMS), работу которых контроллер синхронизирует с подсветкой. По его команде затворы открываются на долю секунды, пропуская заданную порцию света с известной длиной волны. Визуально такое мерцание заметить практически невозможно. Для глаза человека отдельные разноцветные микровспышки сливаются в общую цветную картину.
http://www.youtube.com/watch?v=8Je6dlUZhAI
Новинка получила рабочее название MEMS-дисплей. Представлен прототип с диагональю семь дюймов и разрешением 1280×800. От других ЖК-панелей он отличался более яркими цветами. Это стало возможным за счёт отказа от светофильтров, вызывающих потери света. По этой же причине разработчики отмечают сниженное энергопотребление и прогнозируют увеличение времени работы от батарей мобильных устройств с такими дисплеями.
Отдельные посетители «Объединённой выставки передовых технологий» отмечали, что если при обычном взгляде на экран изображение выглядит чётким и насыщенным, то периферийным зрением они иногда фиксируют красно-синие всполохи. На вопрос журналиста издания PC World об этом явлении ответил заместитель генерального директора нового центра развития компании Sharp Акира Имаи:
Мы знаем об этом недостатке и считаем его простительным для прототипа. Разработчики постараются полностью устранить его в серийно выпускаемых дисплеях.
Вероятно, для этого будет достаточно просто повысить частоту подсветки и скорость работы затворов.
Сотрудничество с Qualcomm началось летом этого года. Американская компания дважды инвестировала в развитие MEMS-дисплеев Sharp по $60 млн.
Фирма Sharp известна в том числе как один из пионеров в использовании жидкокристаллических дисплеев на потребительском рынке. В 1973 году она выпустила первый микрокалькулятор с ЖК-экраном. Сегодня в стратегии развития компании MEMS-дисплеи указываются как промежуточный этап на пути к созданию более совершенных экранов по технологии IGZO.
Название IGZO указывает на использование оксидов индия, галлия и цинка в качестве полупроводникового материала для изготовления прозрачных тонкоплёночных транзисторов. Они считаются совершеннее существующих из-за более высокой подвижности электронов. Это свойство позволит добиться создания пикселей с уменьшенными размерами и временем отклика.
Технология IGZO-TFT была разработана десять лет назад группой профессора Хидео Хосоно в Токийском технологическом институте при поддержке Агентства по науке и технике Японии. Первоначально предложенная кристаллическая модификация была заменена в 2004 году аморфной. С ней подвижность электронов активного слоя жидкокристаллических дисплеев повысилась в 40–50 раз по сравнению с аморфным кремнием.
Развитием концепции IGZO-TFT долгое время занималось подразделение Hitachi displays. Три года назад его сотрудники представили на CEATEC 2010 свой прототип такого дисплея с разрешением 730×920. Затем технология была лицензирована для использования компанией Sharp в 2011 году. В настоящее время она оценивается как одна из самых перспективных для развития производства дисплеев любого назначения, включая классические TFT-матрицы и OLED-модули.
Опубликовано 01 октября 2013
В мире науки едва ли найдётся другой эксперимент, сравнимый по величине с экспедицией марсохода Curiosity. Эта «лаборатория на колёсах» работает в интереснейшем районе Красной планеты уже год — и равных ей по функционалу, важности и потенциалу поставленных задач, интересу общественности попросту нет. Но больше того: Curiosity лично мне представлялся и уникальным примером научного интернационала: к его постройке приложили руку учёные из разных стран — и результаты, которые сейчас получает NASA, эксплуатирующее ровер, по праву принадлежат всем нам (да-да, в том числе и нам, россиянам; мы тоже внесли свой вклад, но об этом позже). Однако случившееся в последние дни бросило тень на этот чистый образ. В проекте оказались замешаны деньги, личные и национальные интересы, и сейчас вокруг него разрастается скандал, сопоставимый с тем, что гремел минувшей зимой вокруг недоброй памяти Аарона Шварца.
В скандале этом, не считая самого вездехода, три действующих лица. Первое — Национальное управление по воздухоплаванию и исследованию космического пространства, NASA. Оно посадило Curiosity (так именуют вездеход; полное официальное название проекта — Mars Science Laboratory, MSL) на Красную планету и теперь руками сотрудников MSL Science Team принимает поток информации от ровера (если забыли, как это было, вот эмоциональный отчёт о посадке: «какие-нибудькогда-токогда-тоЗачем Америке Марс? И нужен ли он нам?»). Среди последних результатов — неожиданно высокое содержание воды (2% от массы) в марсианском песке: если я правильно перевёл из имперских единиц в метрические, нагрев кубометр грунта, можно получить почти 27 литров воды. Находка эта, конечно, не так впечатляет, как окаменелости, бывшие живыми, но практически она даже более значима, ведь теперь одной серьёзной проблемой для марсианских поселенцев будет меньше. Да и для терраформирования Марса, если до него дойдёт, это столь же важно.
Второе действующее лицо — уважаемый журнал Science, в котором на прошлой неделе было опубликовано полдюжины статей, посвящённых всестороннему анализу марсианского грунта инструментами Curiosity. Статьи за подписями пёстрого коллектива авторов, среди которых заметное место занимают сотрудники различных подразделений NASA, а остальные поделены между опять-таки американскими вузами. В частности, именно в этих научных работах — фактически первых, основанных на данных Curiosity и прошедших рецензирование независимыми исследователями, — констатируется наличие в марсианском песке практически полезных концентраций химически связанной воды. Плюс масса нюансов, ранее не публиковавшихся. Вероятно, человека с улицы эти статьи не заинтересуют, но астрономам-любителям, а тем более — представителям профессионального научного сообщества они к прочтению обязательны. Да вот незадача: прочесть их мы с вами не можем, точнее — не можем сделать этого бесплатно. Материалы выложены в платной секции Science, по двадцать долларов США за штуку.
И вот здесь в игру вступает третий участник — Майкл Эйзен, американский биолог, известный в том числе как сторонник «открытой науки», то есть науки без платных барьеров вроде того, за которым Science спрятал отчёты Curiosity. Эйзен, наткнувшись на ценник, пришёл в ярость и, заплатив за статьи, вопреки всем запретам и предупреждениям перепечатал их на собственном сайте. Он сделал это, отчётливо понимая, что нарывается на неприятности с поборниками «копирайта»: в памяти ещё свеж зимний пример Аарона Шварца, фактически сделавшего то же самое, попавшего за это под суд и убившего себя, возможно, из-за перспективы чрезмерно жестокого приговора (см. «Вор в законе Аарон Шварц»). Аргументация Эйзена проста: Curiosity «скушал» два с лишком миллиарда долларов только американских налогоплательщиков, стал для NASA одним из самых ярких успехов, подарив ему беспрецедентное внимание публики — и как NASA отблагодарило простых американцев за это? Опубликовав (ну или позволив опубликовать) ценнейшие материалы в платном разделе и на весьма суровых условиях — вроде использования только в личных и научных целях, с запретом на перепечатку без письменного разрешения AAAS (некоммерческая Американская ассоциация содействия развитию науки, издающая Science), и тому подобных.
Эйзен считает это совершенно неприемлемым по двум причинам. Во-первых, нравственной: NASA прекрасно известно, что публика следит за каждым манёвром Curiosity — и наживаться на этом стыдно. Эйзен не проводит аналогий, но, думается, это всё равно как если бы трансляцию первых шагов Нила Армстронга по Луне пустили только по платному каналу. Во-вторых, такая публикация противоречит законам США: поскольку собранные Curiosity данные и проделанная сотрудниками NASA работа оплачены государством, они «не могут быть объектом копирайта» (по выражению Эйзена; иначе говоря, не могут быть объявлены чьей-то собственностью, ибо уже являются общественным достоянием).
Эйзен уверен в своей правоте настолько, что даже поддался соблазну поёрничать: мол, публикую это, чтобы помочь NASA и журналу Science исполнить требование закона! И по крайней мере по состоянию на текущее утро репрессий не последовало. Лучше того, JPL сама разместила копии статей на своём сайте, правда, как и Science, с заметными ограничениями: для перепечатки требуется разрешение, копии предоставляются только для «персонального, некоммерческого» использования и т. п. Но всё это ещё не означает, что «антикопирайтная» выходка сойдёт Эйзену с рук и он не попадёт на скамью подсудимых по обвинению в воровстве, за что в числе прочего настрадался и приснопамятный Шварц (а ведь в числе украденных им работ наверняка тоже было множество выполненных на государственные гранты).
Дело в том, что дело очень, очень тёмное. В разгоревшейся с подачи Майкла дискуссии приняли участие и журналисты, и юристы, и учёные. И даже эта весьма подкованная публика не смогла прийти к общему мнению по ключевым вопросам: например, так и осталось невыясненным, кто должен или сможет преследовать Эйзена за перепечатку без спроса — журнал Science, авторы статей или Министерство юстиции.
Впрочем, пусть себе спорят, пусть сажают, если захотят, для нас происходящее ценно по-своему. Ведь, вообще говоря, у нас должен был бы отыскаться свой Майкл Эйзен, который вступился бы за честь российской науки и российских налогоплательщиков! В Mars Science Laboratory вложена заметная доля нашего с вами труда, наших денег. Во-первых, за атмосферу MSL вывела ракета-носитель Atlas-5 с двигателями НПО «Энергомаш». Допустим, это был чистый бизнес. Однако есть и аргумент номер два: один из ключевых инструментов для зондирующей разведки Марса — прибор под названием «Динамическое альбедо нейтронов» — был разработан, сконструирован и предоставлен NASA государственной корпорацией «Росатом», Институтом космических исследований РАН и Объединённым институтом ядерных исследований (международная организация, квартирующая в подмосковной Дубне). К слову, именно с помощью ДАН были получены первые свидетельства наличия воды в приповерхностном слое марсианского грунта (до метра глубиной) в концентрациях, сравнимых с теми, о которых речь шла выше.
Таким образом, мы с вами имеем на результаты работы Curiosity не меньше прав, чем граждане Соединённых Штатов Америки (которые в своей обычной манере зациклены на своих интересах — и даже Эйзен не вспоминает ни Россию, ни Евросоюз). И если, к примеру, лично для меня «место в заднем ряду» на презентации подробных минералогических отчётов о кратере Гейла — просто досадный факт, то для исследователей, занятых космосом профессионально, это может стать и является серьёзной помехой, а с ними мешает и российской науке (которая и так-то страдает от недофинансирования). По крайней мере в частной редакционной беседе это подтвердил известный вам Михаил Ваннах: некоторые его прихожане, (пока ещё) двигающие науку в России, называют отсутствие доступа к платным научным ресурсам одним из побудительных мотивов к эмиграции.