Опубликовано 17 сентября 2013
Многие смарт-карты обладают низкой криптографической защитой либо не имеют её вовсе. Это утверждение справедливо даже для тех карт, которые признаны соответствующими жёстким критериям FIPS 140-2 Level 2 и надёжность которых подтверждена двумя международными сертификатами. К такому выводу пришла группа из семи независимых криптографов.
Полный отчёт об исследовании, компрометирующем существующую систему сертификации, будет представлен на конференции Asiacrypt 2013. Часть любопытных деталей стала известна уже сейчас.
Серьёзная уязвимость была выявлена в тайваньской программе цифровой сертификации с использованием персональных смарт-карт. С учётом её характера можно предположить, что она затрагивает другие страны и области применения. Основная проблема заключается в генераторе псевдослучайных чисел (ГПСЧ), применяемом в широко распространённом варианте криптосистемы RSA.
Приставка «псевдо» используется потому, что получение истинно случайных значений трудно реализовать на уровне математических алгоритмов. Создаваемые генераторами цифровые последовательности всегда немного отклоняются от закона равномерного распределения. Однако эти отличия от идеальной схемы обычно не слишком принципиальны и нивелируются по мере увеличения множества сгенерированных чисел, а каждый генератор проходит ряд проверок, прежде чем стать основой серьёзного программного продукта.
В рассматриваемом случае генератор для системы цифровой сертификации оказался настолько посредственным, что среди собранных ключей RSA длиной 1 024 бита группе аналитиков под руководством Кеннета Дж. Патерсона удалось взломать 184 штуки в течение нескольких часов на рядовом персональном компьютере.
При использовании корректного ГПСЧ стойкость криптографической системы RSA (как и всех алгоритмов асимметричного шифрования) базируется на том, что при наличии открытого ключа сложно вычислить парный ему секретный.
Ключи создаются на основе произведения пар больших простых чисел (натуральных чисел, которые делятся без остатка только на единицу и сами на себя). Эти числа генерируются псевдослучайным образом. В теории ключу длиной 1 024 бита соответствует множество из 2502 простых чисел. Для атакующей стороны они все равновероятны.
На практике это означает неприемлемо долгое время атаки (годы, века) даже с использованием суперкомпьютера или сети распределённых вычислений, так как она в конечном счёте сводится к решению задачи факторизации — представления (больших) целых чисел в виде произведения простых.
Эксперт по вопросам криптографии Марк Бернетт поясняет в своём микроблоге, что число атомов во Вселенной гораздо меньше множества этих пар. Поэтому при реальном соблюдении всех требований FIPS 140-2 Level 2 шанс найти два идентичных произведения простых чисел или сотню слабых ключей RSA даже из миллионов образцов должен быть очень близок к нулевому.
На первый взгляд, такая грубая ошибка, как дефектный генератор псевдослучайных чисел, в международной платёжной системе просто не могла пройти мимо десятков специалистов сертификационных центров и остаться незамеченной. Складывается впечатление, что их попросту заставили проигнорировать её, а сложившаяся ситуация возникла по причине закрытости деталей конкретной криптографической системы.
Распространено мнение, что открытый исходный код криптографических программ гарантирует их надёжность. Однако на практике получается, что открытость — необходимое, но не достаточное условие.
К примеру, подобная ошибка в генераторе случайных чисел криптографического пакета OpenSSL (применяемого в том числе и для создания ключей RSA) в ОС Debian не замечалась сообществом более полутора лет, хотя его исходный код был общедоступен. Всё это время серверами генерировались слабые OpenSSL-ключи. Они были настолько предсказуемы, что вскрывались в течение нескольких часов ещё пять лет назад. При быстрой проверке среди владельцев цифровых сертификатов на основе слабых ключей обнаружилось свыше двадцати тысяч сайтов коммерческих и правительственных организаций, одним из которых был сайт Белого дома.
Критерии надёжности криптографических систем пересматриваются каждый год. Происходит это даже не столько в связи с увеличением мощности компьютеров, сколько из-за развития математики. Продолжается поиск всё больших простых чисел, открываются их новые свойства, создаются более эффективные алгоритмы и реализующие их ценой минимальных затрат узкоспециализированные чипы.
В этом году перуанским математиком Харальдом Хельфготтом (Harald Andres Helfgott Seier) была решена одна из старейших математических проблем — доказана гипотеза Гольдбаха. Она гласит, что любое нечётное число больше пяти можно представить в виде суммы трёх простых чисел.
Определить общее количество простых чисел в заданном диапазоне гораздо проще, чем вычислить их ряд до этого предела. Существуют (и разрабатываются новые) также способы эффективного поиска простых чисел отдельных типов и алгоритмы проверки произвольного числа на соответствие критериям простоты.
При помощи проекта добровольных распределённых вычислений было найдено самое большое (среди известных на сегодня) простое число. Им оказалось число Мерсенна: 2 57885161 — 1. Его запись в десятичном виде в формате текстового файла выглядит так: [Осторожно! Браузер может зависнуть при попытке загрузить эту страницу в память.].
Помимо очевидного упрощения задачи взлома систем шифрования с течением времени (в силу развития математики и закона Мура), существует гораздо более серьёзная проблема — снижение стойкости применяемых на практике криптографических средств из-за ошибок в их реализации или намеренного ослабления.
Именно в последнем заключается политика правительства США, Канады, Великобритании и, возможно, других стран в отношении как экспортируемых, так и свободно доступных криптографических продуктов. К примеру, эффективная длина ключа намеренно уменьшалась в системах с блочным алгоритмом DES и поточным алгоритмом шифрования A5.
До недавнего времени считалось, что наиболее популярные варианты реализации RSA сегодня лишены такого явного огрубления, но их стойкость оказалась снижена на другом уровне.
После двух с половиной лет распределённых вычислений группе криптографов под руководством Торстена Клейнюнга (Thorsten Kleinjung) в декабре 2009 года удалось выполнить факторизацию ключа RSA длиной 768 бит методом решета числового поля. После этой работы оценка вычислительной сложности взлома криптосистемы RSA была понижена на несколько порядков.
Последующие работы этого же коллектива выявили другие проблемы с практической реализацией криптосистем на базе RSA. Как и в рассмотренных выше случаях, её корнем стал ненадёжный ГПСЧ. Совпадающие произведения простых чисел были обнаружены у одного процента всех проанализированных ключей с длиной 1 024 бита. Это кажется не столь большим, пока не осознаёшь, что в таком огромном массиве идентичных пар не должно встречаться вовсе. Разложив модуль на произведение двух простых чисел, атакующий может вычислить недостающий секретный компонент и взломать RSA.
Главный специалист подразделения безопасности корпорации EMC и директор лаборатории RSA Ари Джулс (Ari Juels) ознакомился с исследованиями группы Торстена и опубликовал официальный комментарий. На страницах блога он в очередной раз подчёркивает, что теоретическая стойкость алгоритма не эквивалентна надёжности конкретных криптографических систем на его основе. Указанные недостатки касаются не самого алгоритма RSA, а проблем его применения.
Что получается в сухом остатке? На протяжении как минимум последних пяти лет разные группы криптографов указывали на однотипные проблемы в самых распространённых системах, использующих алгоритм RSA. Проанализировав эти отчёты и фактические темпы вскрытия ключей разной длины в конкурсе RSA Challenge, Национальный институт стандартов и технологий США (NIST) рекомендовал устранить выявленные ошибки, а также прекратить использование ключей длиной 1 024 бита и менее не позже начала 2010 года. Однако проблема остаётся актуальной и для ключей длиной 2 048 бит, поскольку ненадёжные генераторы псевдослучайных чисел продолжают применяться до сих пор в самых ответственных областях.
Опубликовано 17 сентября 2013
Были когда-то автомобили-классики. Не редкой ныне классической схемы (впереди мотор, в середине — кардан, привод на задний мост), а именно классики. Как Данте, Шекспир и Достоевский в литературе. Рождалось их производство до Великой войны, в мире, не знавшем подоходных налогов и социальной справедливости, и продолжалось до 1930-х годов. Наиболее известен воспетый пролетарским поэтом Маяковским Rolls-Royce – «Товарищи, вы видели Ройса? Ройса, который с ветром сросся?» Товарищи, впрочем, Rolls-Royce любили и активно эксплуатировали. Ребёнок, поглядевший в Музее В. И. Ленина в Горках на машину, предпочитаемую вождём пролетариев, на всю жизнь избавлялся от идиотской веры в равенство и братство… Были и менее известные в нашей стране классики — скажем Bucciali и Bugatti.
Огромные, до семи метров длиной. С длиннющими капотами, скрывающими двигатели аж о шестнадцати цилиндрах. У Hispano-Suiza («испано-швейцарской») на капоте был аист, в память об эскадрилье аса первой мировой Гинеме, имевшей эмблемой эту птицу и летавшей на моторах этой фирмы. Модель от Avions Voisin 1935 года звалась «Аэродинамик». Люксовые автопроизводители из Германии также были связаны с авиацией: одна из моделей компании Maybach звалась Maybach Zeppelin, её моторы стояли и на цеппелинах, и на менее известных жёстких дирижаблях от Шютте-Ланц. Так что хайтек индустриальной эпохи широко присутствовал в классиках, собиравшихся вручную, в традициях европейских цехов.
Именно с «классиков» пришли в массовое автомобилестроение электрический стартер, впервые появившийся на кадиллаках, указатели поворота, синхронизаторы в коробке передач. Оценить это может только тот, кому в 70-е приходилось с мотороллера «Тула-200″ показывать намерение повернуть рукой, а потом, чуть позже, «ловить передачи» в коробке «Москвича-400», в девичестве известного как «опель-кадет»; нынче выросло уже целое поколение, не умеющее ездить без «автомата»… Несмотря на консервативность «классиков», изменения в технологиях смежного, авиационного хайтека отображались и на них. У Bugatti колёса сначала имели спицы из рояльной проволоки, шедшей на растяжки аэропланов. Потом, когда крылатым металлом стал дюраль, они обрели диски из лёгких сплавов.
Ну а теперь перенесёмся в наши дни. Посмотрим на продукцию концерна Daimler — и увидим, что его новости в равной мере проходят и по ведомству информационных технологий. Дело в том, что опытный автомобиль Mercedes Benz S 500 Intelligent Drive абсолютно автономно совершил стокилометровую поездку между Мангеймом и Пфорцхаймом. Расстояние небольшое — по сравнению с состоявшимся в 2010 году пробегом от Милана до Шанхая минивэнов Piaggio Porter, оборудованных системами автовождения от пармской компании Vislab. Но там были машины, обвешанные дополнительным оборудованием. Перед каждым роботом ехал человек, прокладывавший ему путь…
А вот Mercedes Benz S 500 Intelligent Drive выглядит так, как и подобает машине премиального класса от добротного германского производителя. Большой седан и большой седан.
Все датчики – внутри. Не нарушая аэродинамики и минимально угрожая здоровью пешехода, попавшего под колёса, как этого и требуют современные нормы безопасности. И ехал он по дороге с весьма интенсивным движением, местами круговым. Пересекая трамвайные пути и велосипедные дорожки (а велосипедист германский предельно избалован, не жмётся он к обочине при виде автомобиля), пропуская пешеходов (привыкших, что поток машин застывает, стоит занести ногу над «зеброй»).
Навигационному оснащению опытного автомобиля позавидовали бы боевые корабли и истребители недавнего прошлого. Четыре системы ближней радиолокации, три системы локации дальней… Стереокамеры играют роль оптических дальномеров, в долокаторную эру наводивших на цель корабельные пушки. Панорамная камера позволяет получать наиболее точную привязку к местности по ориентирам. Цветная камера следит за сигналами светофоров. Функции всех этих систем многократно накладываются друг на друга, образуя многоуровневое резервирование.
Как можно понять из описаний, получив приказ на поездку по маршруту в точку Б, робокар прежде всего начинает определять свои координаты по данным системы глобального позиционирования. После начальной топопривязки — точности которой позавидовали бы артиллеристы и ракетчики восьмидесятых — положение сверяется панорамной камерой с бортовой базой данных, содержащей информацию об ориентирах. Убедившись, что машина действительно находится в точке А, робот проверяет, есть ли у него возможность свободного выезда и строит траекторию, по которой и начинает движение. В процессе этого движения он непрерывно контролирует свои координаты, сверяет их с видимыми в оптике ориентирами, следит за соседями по потоку движения и выделяет тех, кто может в этот поток вписаться или врезаться, подобно лосю на дороге…
И — самое интересно. Датчики, стоящие на экспериментальной машине от Daimler, серийные. Они — хоть и по отдельности или в иных сочетаниях — стоят уже на серийных моделях Mercedes Benz. А рулить, хотя бы только при парковках, умеют уже и машины куда более демократичных производителей. То есть — Mercedes Benz S 500 Intelligent Drive хоть и несколько более «зорок», чем серийные машины от фирмы Daimler, но отличается от них прежде всего не этим. Он более интеллектуален. Он имеет более мощный разум, позволяющий ему ехать самостоятельно. И дело прежде всего в этом.
Но есть в кибернетике ещё и понятие тезауруса. Того, с помощью чего интерпретируются входные воздействия. Им в данном случае будут трёхмерные карты, содержащие ширину проезжей части, количество полос на шоссе, параметры поворотов, дорожные знаки, точные координаты светофоров и придорожных ориентиров, за которые сможет уцепиться панорамная камера. Такие карты — несопоставимо более подробны, чем ориентированные на водителя-человека, и занимают несопоставимо большие объёмы. Карты будут составлять совместно Daimler AG и бывший производитель мобильных телефонов Nokia. Финны, продавшие свой телефонный бизнес Microsoft, оставили себе отделение Here, которое и займётся картированием. Первой дорогой, подвергнутой тщательному картированию, будет именно шоссе между между Мангеймом и Пфорцхаймом.
Впрочем, доктор Томас Вебер, профессор из руководства Daimler, призывает желающих купить робота-водителя к терпению. По его мнению, необходимо повысить быстродействие компьютеров, качество картирования и изменить законодательную базу. Пара первых задач сугубо проходит по ИТ-ведомству — и даёт ответ на вопрос о том, что будет формировать платёжеспособный спрос на процессоры новых поколений, потенциал которых заведомо перекрывает потребности и офисной работы, и мультимедиа.
Впрочем, с законодательной базой дело начинает сдвигаться с мёртвой точки. На номерных знаках штата Невада пишут «Silver State». И именно знак «Серебряного штата» оказался у первого робота, зарегистрированного в соответствии с принятым тамошней легислатурой законом, разрешающии езду по шоссе «автомобилей, использующих искусственный интеллект, сенсоры и систему GPS для самостоятельного передвижения, без активного вмешательства водителя-человека». Впрочем, водитель по-невадски переименовывается в оператора и должен, кроме обычной лицензии, иметь и лицензию оператора-робокара. И на Mercedes Benz S 500 Intelligent Drive, когда он пойдёт в серию, планируется пока оставлять рулевое правление на случай экстренных ситуаций. Но ведь и Daimler AG — концерн автомобильный…
Опубликовано 17 сентября 2013
Микропроцессор A7 стал одной из главных изюминок обделённого новизной iPhone 5S. Но при всём техническом превосходстве «первый в мобильной истории», «вдвое более производительный», «десктопного класса» чип выглядит, тем не менее, больше маркетинговой находкой: практической необходимости в 64-битном CPU на смартфоне нет — либо она неочевидна. К констатации этого факта и сводились почти все комментарии первых часов и дней после показа 10 сентября (см. «Налетай, подешевело!»). Однако уже в выходные тон дискуссии сменился. После всесторонней оценки A7 сочтён вещью ещё менее нужной в одной плоскости, но весьма полезной (хоть и с серьёзным оговорками) в другой.
Теорию вы уже знаете, а если не успели, учить там совсем немного. Apple A7 — основанный на спецификациях ARMv8 микропроцессор (точнее, система на чипе, SoC, включающая ещё и графический процессор, оперативную память и прочую обвеску). Однако, поскольку спецификации ARM описывают лишь процессорное ядро, а сам A7 в руках никто из аутсайдеров пока не держал, то и не известно о нём почти ничего. Никто, например, не знает точного количества ядер. Да что там, не знают даже, кто именно его производит!
Утверждать наверняка можно лишь то, что у A7 два набора инструкций, отдельно для 32- и 64-разрядного режимов, плюс несколько вспомогательных наборов, доступных и там и там; что 32-битный код в 64-битном режиме исполняется в виртуальных машинах, организуемых самим процессором под надзором операционной системы; что работает он на частоте, незначительно (предположительно, процентов на 30) превышающей A6, то есть менее 2 ГГц. Наконец, весной мы, вероятно, увидим более мощную версию A7 (A7X?) в новых «Айпадах».
Что даёт увеличение разрядности процессора с 32 до 64 единиц? Во-первых, возможность оперировать числами вдвое большей длины, откуда двойной прирост производительности и меньший, но заметный выигрыш в энергопотреблении. Во-вторых, 64 разряда обеспечивают прямой доступ к значительно большему объёму оперативной памяти (специалисты говорят, впрочем, что на адресацию в ARMv8 выделено только 48 бит, но и этого достаточно, чтобы обойти ограничение на 4 Гбайт, присущее 32-разрядным процессорам). Проблема лишь в том, что этими преимуществами ещё нужно суметь воспользоваться.
64-разрядная математика пригодится там, где есть потребность в обработке больших массивов данных. Это резко сужает круг приложений, которые выиграют от перехода на 64 бита: к примеру, для офисных приложений (текст, соцсети, коммуникаторы и пр.) выигрыш окажется совершенно незначительным, если будет вообще (о побочных эффектах далее). Базы данных в мобильный сегмент пока не перебрались, так что остаются игры, мультимедиа, криптография, научные инструменты.
Увы, и этот список при ближайшем рассмотрении придётся сильно сократить. Игры, на которых во время презентации новых «Айфонов» Apple сделала особый акцент, традиционно больше выигрывают от мощного GPU, работающего, как теперь и полагается, независимо (графический процессор на 5S поддерживает новейший OpenGL ES 3.0, но больше о нём ничего не рассказали — похоже, как раз чтоб не бросать тень на «супермощный» CPU). Из числа мультимедийных программ 64-разрядность смотрится интереснее всего для синтезаторов звука, однако и там выигрыш не гарантирован. В процессе подготовки колонки я советовался с автором мультиплатформенного (и одного из самых популярных на iOS) синтезатора — и он, опираясь на опыт адаптации приложения для 64-битных x86, выразил сомнение, что практический, полезный выигрыш вообще будет. Кроме того, в A7 интегрирован сигнальный сопроцессор, который возьмёт на себя рутинную работу с камерой/изображениями, а попутно, вероятно, может быть применён и для обработки звука.
Остаются наука и криптография. Первое — весьма узкий и малопопулярный пласт софта, а второе опять-таки больше выиграет от имеющихся в ARMv8 криптографических инструкций, которые (как, кстати, и удвоенный набор регистров, и увеличенная точность работы с дробными числами) собственно к 64-разрядности отношения не имеют.
Но отсутствие ощутимого влияния на скорость ли, энергопотребление ли — это ещё полбеды. Принудительный переход на 64 бита обещает массу неприятных побочных эффектов. Прежде всего Apple требует, чтобы каждое 64-битное приложение теперь комплектовалось и 32-битной версией для совместимости со старыми устройствами, что усложнит разработку и сделает размеры программ больше. Поскольку сейчас 64-разрядных программ в Apple App Store фактически нет, с появлением 5S на прилавках среди разработчиков неизбежно начнётся суета — и можно предположить, что значительная часть существующих приложений будет переведена на 64-битные рельсы грубо, чисто механической перекомпиляцией. Что неизбежно аукнется «ожирением»: раз там, где можно обойтись четырьмя байтами, теперь потребуется восемь, как минимум увеличатся системные требования прикладного софта.
Кроме того, A7 спроектирован с прицелом на 64 бита и, работая под 64-битной операционной системой (читайте: iOS 7), 32-разрядные приложения исполняет медленнее, чем они могли бы исполняться в нативном режиме. Совместимость, естественно, обеспечивается ценой некоторых расходов, включая более активное расходование «дисковой», оперативной памяти и процессорного кеша. И при прочих равных может получиться так, что старые (32 бита) приложения будут исполняться на iPhone 5S даже медленнее, чем на оригинальной «Пятёрке».
Что касается оперативной памяти, то даже на десктопах пока ещё редко её нужно больше четырёх гигабайт, а смартфонам перешагнуть эту границу и вовсе угрожает не раньше чем через три–четыре года. И дело не только в том, что для комфортной работы мобильному пользователю важнее объём энергонезависимого накопителя (сегодня это «флеш»), но и в том, что оперативная память дорога и энергозатратна. Аккумуляторы же, в том числе на «Айфонах» (ёмкость батареи 5S отличается от батареи первого iPhone на единицы процентов), давно застыли в своём развитии — не из-за лености Apple, а по причине выжатой как лимон электрохимической технологии (см. «Аккумулятор: трудная судьба»).
Учитывая всё это, легко понять, почему медлят конкуренты. Ведь Apple не единственная, кто лицензирует наработки ARM Holdings: лицензии на ARMv8 приобретены как минимум Samsung, Qualcomm, AMD. И хоть та же Samsung уже пообещала, что её будущие смартфоны получат 64-разрядный процессор, точной даты она не назвала (в лучшем случае предполагается следующий год). Так куда же торопится Apple?
Единственное разумное объяснение поведению «яблочников» (исключая маркетинговый хайп) состоит в прицеле на конвергенцию, слияние мобильной и стационарной платформ. Разговоры об этом идут как минимум последние три года (см. «Apple готовится к переезду на ARM», «Даёшь конвергенцию!», «Системы завтрашнего дня», «Из Apple с любовью» и др.) и Apple, не подтверждая прямо, всё-таки подбрасывает время от времени дровишек в огонь дискуссии. Пока изменения затрагивали в основном софтверную часть (iOS и OS X за последние годы обрели много общих свойств; теперь же они обе 64-битны, а iOS 7, говорят, весьма сильно модифицирована с прицелом на внутреннюю идентичность OS X), а главной проблемой оставалась архитектурная пропасть, разделяющая ПК и мобильные устройства. Архитектура x86 мощная, но прожорливая; ARM энергоэкономична, но не вышла мускулом.
A7 не ставит точку, но позволяет провести важную промежуточную черту. Да, пока это чисто «научный» проект — в том смысле, что практической пользы от него чуть. Но через три–пять лет, когда мобильная индустрия упрётся в границу 4 Гбайт и вынуждена будет перейти на 64 бита (Android поддерживает ARMv8 с версии 5), когда идея конвергенции десктопа и мобильных систем станет мейнстримом, все мы двинемся тропинкой, протоптанной командой Джобса и Кука.
Где к тому моменту будет сама Apple, можно только гадать.
Опубликовано 16 сентября 2013
Получить квалифицированную медицинскую помощь зачастую трудно из-за необходимости посетить кабинет врача, сдать анализы и пройти различные обследования. К тому же, пока вы доберётесь до специалистов, будет упущено время.
В последние годы решить эту проблему пытается целый ряд стартапов, стремящихся превратить смартфон в персональный диагностический центр.
Молодая компания EyeNetra при помощи технологии 3D-печати создала прототип устройства под названием Netra-G. Оно подключается к смартфону и определяет величину рефракционной ошибки для каждого глаза.
http://www.youtube.com/watch?v=f7WM49Ir2E0
Следуя указаниям аудиоинформатора, пользователь должен добиться чёткого восприятия виртуального объекта или визуального совмещения линий в демонстрируемых шаблонах. На основании этого Netra-G определит остроту зрения и отобразит рекомендации по выбору очков или контактных линз.
Конечно, Netra-G не заменит полноценное обследование в кабинете офтальмолога, но при себестоимости $75 может стать дешёвой заменой авторефрактометру, чья цена измеряется тысячами долларов. Ещё одна область применения Netra-G — проверка точности системы автофокусировки цифровых фотоаппаратов.
Нарушения сердечного ритма встречаются не так часто, как рефракционные аномалии, но тоже могут быть выявлены с помощью смартфона. Ежегодно в США делается около 12 млн кардиограмм, и это гораздо меньше реально необходимого числа. Большинство пациентов просто не обращаются за медицинской помощью в силу разных причин. Улучшить ситуацию поможет беспроводной электрокардиограф компании AliveCor, который подключается к iPhone и отображает кардиограмму на его экране.
Устройство выполнено в формфакторе накладки на заднюю панель (бампера). Оно снабжено миниатюрным беспроводным передатчиком, транслирующим отведения от двух накожных электродов. Последние можно расположить на груди или просто касаться их указательными пальцами. Встроенной литиевой батареи хватает на 180 часов непрерывного использования.
Разумеется, при такой примитивной технике AliveCor не будет настолько точным и чувствительным, как стационарный двенадцатиканальный электрокардиограф. Однако при стоимости около $100 устройство позволяет снимать ЭКГ где угодно и помогает раньше распознать большинство нарушений сердечного ритма. Как минимум комплекс QRS и интервалы между зубцами R видны отчётливо.
Ещё один плюс — вы всегда сможете самостоятельно снять кардиограмму своему домашнему питомцу в домашней обстановке и отправить её на анализ ветеринару. Обвешать проводами кошку или собаку в ветеринарной клинике удаётся далеко не всегда.
Миллиметровая сетка формируется программой автоматически. Записанную кардиограмму можно сохранить в PDF и отправить на печать.
В отличие от внешне похожих псевдомедицинских программ, электрокардиограф AliveCor получил разрешение FDA и уже официально продаётся.
На волне успеха были созданы и другие подключаемые модули для iPhone. Один из них разработан компанией CellScope. Он помогает диагностировать отит без посещения врача.
Устройство нацелено в первую очередь на педиатрическое применение, поскольку воспаление среднего уха встречается чаще всего у детей раннего возраста. Их широкая и короткая евстахиева труба повышает риск развития инфекционного процесса. Неспособность чётко сформулировать жалобы и боязнь осмотра нередко приводит к затяжному характеру заболевания.
Прибор от CellScope позволяет безболезненно сделать «Айфоном» фотографию барабанной перепонки через наружный слуховой канал. Снимок с десятикратным увеличением передаётся на сервер компании, откуда может быть загружен врачом для удалённой диагностики. В большинстве случаев такой информации и сопроводительного текста с описанием жалоб оказывается достаточно для постановки первичного диагноза.
По данным официальной статистики, в госпиталях США ежегодно регистрируется около миллиона ситуаций, когда пациенту делают верное назначение, но фактически дают не то лекарство или не в той дозировке. Это происходит из-за обычной человеческой невнимательности, главной причиной которой считают высокую загруженность медицинского персонала. В любой момент сотрудника отделения могут отвлечь вопросом или привлечь для разрешения неотложной ситуации. Обычными просьбами «не беспокоить» тут не обойтись.
Некоммерческая организация Kaiser Permanente провела масштабный эксперимент, в рамках которого все медсёстры и врачи уведомляли пациентов и коллег о выполнении ими ответственных операций оригинальным образом.
Во время приготовления и распределения лекарств медсестры закрепляли на халате iPhone с мигающей вспышкой, что служило условным знаком. Частота ошибок в выдаче лекарств снизилась на 85%, после чего «Айфоны» заменили на флюоресцентные мигающие пояса. Они дешевле и видны с любого ракурса, но именно приложение для iOS помогло протестировать идею без дополнительных вложений.
Электроника всё чаще используется не только для диагностики, но и в лечении. Помимо новых возможностей, она создаёт и новые угрозы. Исследователи из Университета Райса обращают внимание, что сегодня как минимум два типа электронных устройств медицинского назначения оснащаются беспроводным интерфейсом, из-за которого могут стать лёгким объектом удалённой атаки. Это имплантируемые кардиовертеры–дефибрилляторы и инсулиновые насосы. Нарушив их работу, можно анонимно ликвидировать человека, выдав его смерть за результат обычного сбоя.
Для предотвращения подобных ситуаций специалисты из Университета Райса и компании RSA разработали оригинальный метод криптографической защиты. Передаваемые управляющие сигналы привязываются к сердцебиению пациента. При непосредственном контакте с больным сердечный ритм считывается врачом и используется для шифрования управляющих сигналов. Имплантируемое устройство выполнит их только в том случае, если его собственные датчики зарегистрируют точно такой же сигнал.
Мобильные приложения медицинского назначения появились ещё в девяностых годах, однако долгое время они были ориентированы исключительно на врачей. Выступая в роли справочников и электронных картотек, они позволяли всегда иметь под рукой необходимые для работы материалы. Параллельно развивалось направление телемедицины.
Сейчас наметилась новая тенденция: разрабатывается всё больше медицинских программ для персонального использования самими пациентами и мобильных диагностических комплексов.
При помощи систем на базе смартфонов можно не просто измерять артериальное давление, но даже проводить ультразвуковое обследование.
Уже представлены десятки приложений для пользователей iPhone, BlackBerry, смартфонов и планшетов с ОС Android. Их точность гораздо ниже, чем у специализированных диагностических приборов, но главный плюс заключается в постоянной доступности и простоте использования.
Аналитики из агентства Juniper Research прогнозируют, что к 2016 году число загрузок приложений медицинского назначения достигнет 142 млн.
Опубликовано 16 сентября 2013
Шахматы — игра почтенного возраста. Авторы солидных энциклопедий конца позапрошлого века приписывали её изобретение древним египтянам, относя таковое за пять тысяч лет до нашей эры. Ссылались на статую играющего в шахматы вельможи Мера, найденную к северу от пирамиды фараона VI династии Тета. Говорили о любви к ней Александра Македонского… Современные оценки заметно скромнее. Ныне как о предшественнице шахмат говорят об индийской игре чатуранга, изобретённой в Северной Индии где-то в пятом веке нашей эры. Игра эта моделировала на игровом поле столкновение четырёх армий (ими могли руководить или четыре игрока, или два «генералиссимуса», каждый из которых управлял парой союзников). Армии делились на королей, слонов, всадников, корабли и пехоту. Точные правила её неизвестны, но как модель военных столкновений она пришлась бы ко двору тем, кто имитировал тотальные войны ХХ века: целью игры было уничтожение фигур противника, а последовательности ходов определялись броском игральных костей (о генетической связи теории вероятностей и теории игр мы недавно говорили).
Потом игра модифицировалась: предположительно в Кушанском царстве целью её стало поставить короля в такое положение, от которого нет защиты. И от генератора случайных чисел в виде игральных костей отказались. В таком виде игра приобрела популярность в Халифате; там её называли шатрандж. В Персии её имя было шатранг. Современные шахматы тоже происходят от персидских слов «шах» и «мат» — властелин умер. Через Византию, через оккупированную арабами Испанию, посредством бродяг-викингов игра проникает в средневековую Европу, где зовётся у французов eschés, а у англичан ches. И — сразу же приходится ко двору. Феодальному двору, где получает имя «royal game». Она входит в программу рыцарского воспитания, в неё играют герои «Песни о Роланде», «Тристана и Изольды»…
И очень понятно, почему феодалам эта игра понравилась. Это же стратегическая (говоря терминами современной теории игр) модель конфликта. То, что нужно феодалу. Фехтование и охота формировали способности быть индивидуальным бойцом. А умение правильно строить конфликт вырабатывалось начиная в том числе с шахмат — бывших моделью средневековой войны. С разменными пехотинцами-пешками, которых, бывало, рыцарская кавалерия попросту топтала, стремясь поскорее дойти до достойного противника. С конницей и башнями. С советником-ферзём (арабское фирзан значило советник), самой мощной из фигур (сколько было случаев перехвата власти всякими там майордомами и сёгунами). Наконец, со всевластным королём. Поймали его — хоть и пешки — всё, конец войне. Так что именно таков генезис шахматной игры в европейской цивилизации. Модель конфликта с другим игроком. Модель управления своими человеческими ресурсами в этом конфликте. Как двигать по доске тех, кем располагаешь…
Потом, по мере умягчения нравов, начали говорить о связи шахмат с математикой. В начале восемнадцатого века вводят алгебраическую шахматную нотацию. Затем начинают развивать теорию шахмат. В 1911 году Эрнст Цермело походит к ним с точки зрения зарождающейся теории игр. Ну а сорок лет спустя Алан Тьюринг создаёт алгоритм шахматной игры, который, по причине отсутствия у великого математика доступа к компьютеру, получил имя «бумажная машина Тьюринга» и даже как минимум однажды проиграл партию человеку (в роли компьютера был сам программист). Приложил руку к компьютеризации шахмат и творец теории информации Клод Шеннон. В 1957 году Алекс Бернстейн создал первую реальную программу для игры на стандартной шахматной доске и при участии всех фигур. В 1974 году советская шахматная программа «Каисса» — названная в честь дриады-шахматистки из поэмы Уильяма Джонса — выиграла Первый международный чемпионат мира шахматных программ, обойдя Chess 4, Chaos и Ribbit. В 1981-м Cray Blitz выиграл чемпионат штата Миссисипи. Ну а в мае 1997 года шахматный компьютер Deep Blue от IBM выиграл матч у чемпиона мира Гарри Каспарова. (После какового события интерес к данной игре, ведущейся людьми, представляется довольно странным…)
Еще раньше к шахматам охладел Главный Заказчик, которым во времена холодной войны были военные ведомства. Игра хоть и стратегическая (то есть ведущаяся более чем одной игровой коалицией; чатуранга с четырьмя игроками была бы прекрасным примером для теории игр), но для моделирования современных вооружённых конфликтов подходит слишком мало. Хуже даже шашек, не говоря уже о го… «Правительство приняло решение прекратить работу над программой [«Каисса»], поскольку время программистов лучше посвятить работе над практически полезными проектами».
Но отметим: шахматы были моделью управления ограниченными ресурсами (в том числе и человеческими) в условиях игры (игра тут сугубо в терминах теории игр: она может быть и кооперативной, без противника). И в процессе автоматизации игры в шахматы — вызывавшейся сначала военными и научными потребностями, а потом чисто маркетинговыми ходами (всё же лучший шахматист мира, главный эрудит США и лучший онколог вышли в свет из лабораторий IBM, а вовсе не из другого места), — были созданы алгоритмы, которые вместе с вычислительными возможностями позволяют играть в шахматы лучше, чем любой человек. И так будет теперь всегда: мощность компьютеров ничем не ограничена, добавляй и добавляй кристаллы, а размер головного мозга лимитирует габариты того отверстия, из которого люди появляются (по словам знакомых акушеров популярнейший первый вопрос у рожениц не о младенце, а — «Доктор, я порвалась?..»). Так что возникает соблазн использовать алгоритмическую и вычислительную мощь не для игр, а «для практически важных проектов».
И вот United States Department of Homeland Security приступил к разработке крупномасштабной облачной системы, которая будет управлять профессиональным продвижением и ростом квалификации четверти миллиона служащих Министерства внутренней безопасности. На настоящее время в этой бюрократической структуре (третьей по величине в США после Пентагона и Министерства по делам ветеранов) работают четыре отдельных системы управления кадрами (или — человеческими ресурсами, как нынче говорят, калькируя «с американского»). Для их интеграции привлечена фирма Visionary Integration Professionals, с которой заключён первоначальный контракт на сумму в 95 миллионов долларов.
Эта калифорнийская фирма, созданная в 1996 году, занимается консультированием американских властей — федеральных, уровня штатов и местных — в области системной интеграции, технических методов обучения, компьютерных методов оценки качества управления, а также внедрением систем ERP и Business Intelligence. Так что заказ ей по профилю.
Так что оценивать квалификацию и работу американских бюрократов из МВБ, планировать их обучение и продвижение, будет теперь компьютерная сеть. Облачной архитектуры — что весьма обоснованно. Homeland Security — ведомство зонтичное, унаследовавшее разных там пограничников, таможенников и президентских топтунов, со своей бюрократией. Заняты его служащие в самых разных точках страны — от Майами и Гавайев до Аляски. Заняты самыми разными делами. Сеть связи между службами имеется всё равно. Обрабатываемые массивы данных не слишком велики. Задержки на несколько часов для решения кадровых вопросов никакого значения не имеют. Так что cloud computing может здесь иметь весьма высокий эффект. Какие именно алгоритмы будут использоваться — сказать трудно. Но очень похоже, что они будут смахивать на те методы, которыми учили компьютер играть в шахматы. Оценить фигуру. Оценить её возможности на данной позиции. Свести сведения воедино. Прикинуть, какой ход будет оптимизировать целевую функцию сейчас и в перспективах разной дальности. Есть аналог профессиональной подготовке — обращение пешки в фигуру… И ведь шахматные компьютеры особенно хороши в решении краткосрочных задач, которые обычно заботят бюрократов!
И очень интересно, что параллельно с созданием самой системы решаются и вопросы её безопасности. В одной из книг Леонида Каганова юная киберведьмочка обретает теневую власть над корпорацией, взломав компьютерную сеть отдела кадров. Здесь во избежание таких ситуаций создаваемая облачная структура будет параллельно сертифицироваться по Federal Risk and Authorization Management Program (FedRAMP), Федеральной программе управления рисками и авторизацией [в облачных компьютерных сетях]. Так что, вступая на госслужбу, янки придётся положиться на волю компьютерной системы: доверяют же вкладчики фондов свои деньги компьютерам, совершающим до 90% сделок на биржах…
Опубликовано 16 сентября 2013
Эдвард Сноуден продолжает хранить молчание. Собственно говоря, после раздачи большей части вынесенных из АНБ материалов ему и не остаётся ничего, кроме как наслаждаться российскими просторами да принимать заслуженные поздравления. На днях, к примеру, его номинировали на учреждённую Европарламентом премию «За свободу мысли» имени Андрея Сахарова — весьма престижную и значительно менее политизированную награду в сравнении с «Нобелевкой». Впрочем, присутствовать на церемонии награждения лично ему всё равно не удастся, ибо, без всяких сомнений, власти того же самого ЕС его американцам и сдадут.
Но вызванное Эдвардом кипение умов продолжается, натурально превращаясь в самоподдерживающуюся реакцию. Неделей ранее в очередной порции интересностей, извлечённой журналистами из сноуденовского архива, проскользнуло упоминание класса криптоалгоритмов, которого вроде бы стоит избегать из-за опасений, что АНБ прямо повлияло на его разработку — естественно, ради ослабления. Для популярной прессы тема оказалась слишком сложна, но на айтишных форумах многих зацепила — и за прошедшие семь дней совместными усилиями десятков энтузиастов были получены весьма интересные результаты, которыми я и хочу здесь поделиться. Как обычно, не претендуя на звание эксперта по криптографии, я прошу знающих читателей поправить, если что-то в моём рассказе окажется некорректным или покажется сомнительным.
Формальным началом дискуссии стало подозрение, павшее на популярный сервис анонимизации TOR. А точнее, на используемые в нём криптографические схемы. Дело в том, что программное обеспечение TOR, по крайней мере до версии 2.4, защищает передаваемую информацию с помощью связки классических алгоритмов RSA + DH, причём длина ключей составляет 1024 бит. Так вот, хотя прямых доказательств нет, авторитетные эксперты считают разумным предполагать, что АНБ обладает достаточной вычислительной мощью для взлома такой защиты. Таким образом, незащищёнными оказываются (грубая оценка) три из четырёх пользователей TOR. Что делать? Обновиться до версии 2.4.x, где длина ключей увеличена, а кроме того, в дополнение к «классике», применена сравнительно новая так называемая эллиптическая криптография. Оно же, эллиптическое крипто (ЭК), используется, в частности, и в Bitcoin.
Упомянутые выше «классические» криптоалгоритмы были разработаны в 70-х годах и на сегодня остаются в числе самых популярных в компьютерном мире. Главная их проблема в том, что с ростом вычислительных мощностей, доступных атакующим, требуется и увеличение длины ключа, а процедура шифрования непростая, энергозатратная. Эллиптическое крипто — детище 80-х, основанное на математике эллиптических кривых, откуда и название, — в общем обладает более высокой стойкостью при той же длине ключа, но, что самое важное, в сравнении с «классикой» устойчивость к взлому с ростом длины ключа нарастает экспоненциально быстрее: так, 1024-битный ключ RSA/DH примерно соответствует 160-битному ЭК-ключу, но уже 3072 бит ключа RSA эквивалентны всего лишь 256 битам ЭК. Иначе говоря, если сегодня преимущества эллиптического крипто ещё неочевидны, то в ближайшем будущем они проявятся ярко: компьютерный мир, который подталкивается, с одной стороны, растущей вычислительной мощью, находящейся в распоряжении спецслужб и злоумышленников, а с другой — требованиями экономно, но быстро и прозрачно шифровать данные, будет вынужден перейти на ЭК.
Правовые аспекты ЭК — тема отдельная и непростая: часть фундаментальных наработок здесь защищена действующими патентами (принадлежащими компаниям в Канаде и США), часть патентов приобретена или лицензируется АНБ и т. д. Формально авторы отдельно взятого программного продукта могут реализовать ЭК самостоятельно без нарушения чьи-либо авторских прав. Фактически, по крайней мере на Западе, принята следующая схема: частные компании реализуют в своих программах работу с кривыми, рекомендованными Национальным институтом стандартов и технологий США (NIST). Оглядка на рекомендации NIST даёт два преимущества. Во-первых, это открывает продукту дорогу в госучреждения. Во-вторых, не все эллиптические кривые одинаковы: некоторые, к примеру, легче обсчитывать, и NIST как раз отобрал полтора десятка наиболее выгодных.
Теоретически процесс стандартизации в NIST прозрачный, публичный. Однако законы США обязывают Институт пользоваться помощью АНБ — и временами, как выяснилось благодаря Эдварду Сноудену, эта «помощь» перерастает в диктат. Благодаря Эдварду мы знаем теперь, что именно так, под нажимом АНБ, NIST стандартизовал генератор псевдослучайных чисел Dual_EC_DRBG (тоже основанный на ЭК) — один из рекомендованных для использования в криптографических продуктах и реализованный в такой форме десятками вендоров. Документы Сноудена прямо указывают на то, что неслучайность, присущая Dual_EC_DRBG и давно уже подмеченная независимыми экспертами, была введена АНБ ради ослабления генератора и, соответственно, последующего более лёгкого взлома шифров. На днях, поупиравшись для виду («Мы не ослабляем стандарты намеренно!»), NIST официально посоветовал не использовать Dual_EC_DRBG и возобновил процедуру его публичного рассмотрения.
Dual_EC_DRBG используется сравнительно редко, однако скандал вокруг него дал повод усомниться вообще в стандартах эллиптического крипто, опубликованных NIST. Сыр-бор разгорелся вокруг уже упомянутых выше рекомендованных кривых: что если Институт, действуя по указке АНБ, выбрал особенные кривые — скажем, такие, основанные на которых шифры будут менее стойкими? Математического или документального доказательства этому нет. Но вот что настораживает: в ходе устроенного энтузиастами расследования выяснилось, что начальные параметры (константы) для рекомендованных кривых должны были быть сгенерированы случайным, но проверяемым образом — а вместо этого их словно бы взяли наугад, так что объяснить сейчас, как они были получены, никто не в состоянии. Логично предположить, что константы были подобраны, чтобы ослабить стойкость шифров. И каждый криптографический продукт, использующий ЭК-рекомендации NIST, оказывается беззащитным перед АНБ.
Дискуссия продолжается, и в следующие недели и месяцы мы наверняка услышим новые аргументы как за, так и против этого обвинения. Но в данный момент каждому пользователю и разработчику стоит задаться вопросом: используют ли важные лично для вас программы эллиптические кривые, рекомендованные NIST?
К счастью, для двух крупнейших свободных проектов Сети — Bitcoin и TOR — ответы на него будут отрицательными. Спасибо Сатоши Накамото: эллиптическое крипто, положенное в основу Bitcoin, опирается на кривую (sec256k1), отсутствующую в рекомендациях NIST. Равно и TOR основан на кривой, к которой NIST не имел отношения.
Но вы понимаете, что вопрос этот нужно задать для каждой программы, использующей эллиптическую криптографию. И ответ не всегда будет таким, на какой вы, возможно, надеетесь…
В статье использована иллюстрация Georgio Montersino.
Опубликовано 20 сентября 2013
Линус Торвальдс — «великодушный диктатор», по сей день возглавляющий крупнейший open source-проект на планете Земля, — редко попадает в заголовки новостей. Его работа для непосвящённых скучна, так что пресса если и вспоминает об отце Linux, то только к очередной годовщине (как раз на днях свободной ОС исполнилось 22 года), либо когда, выведенный из себя, он обрушивает на оппонентов всю свою холодную финскую мощь. (Помните его ссору с nVidia?) Нынче, впрочем, повод оказался ещё интересней. Прибыв на девелоперскую конференцию LinuxCon в Новый Орлеан, Торвальдс попал под перекрёстный допрос журналистов и публики, спросивших, помимо прочего, не поступало ли к нему от правительства США предложения имплантировать в линуксовое ядро шпионскую закладку. Линус ответил «нет», но — под нервный смех собравшихся в зале — в то же самое время утвердительно кивал головой: да…
Пошутил? Скорее всего. Потому что, приходили на самом деле к Линусу «люди в чёрном» или нет, грех не воспользоваться моментом. Ведь всплеск паранойи, спровоцированной Эдвардом Сноуденом, с одной стороны, несомненно добавил Linux очков (Брюс Шнайер, например, собственноручно копавшийся в сноуденовских «бумагах», теперь настоятельно рекомендует Linux и свободный софт), с другой — лично Линусу, кажется, доставляет больше пустых хлопот.
Теоретически разработчиков Linux, как и вообще любого свободного продукта, должно быть весьма сложно склонить к сотрудничеству со спецслужбами. Во-первых, исходные тексты открыты, так что закладка не продержится долго. Во-вторых, open source-коллективы, как правило, интернациональны, то есть составлены не только из американских или английских граждан. И подкатить к тому же Линусу, намекая, что отказ будет расцениваться как измена родине, не получится: коллеги, которым нет дела до желаний и методов АНБ, обязательно спросят, откуда взялся данный код и для чего нужен.
Но это, естественно, не избавляет Линуса от столкновений с конспирологами-параноиками, которые видят угрозу везде и во всём. Представить, насколько «приятными» бывают такие встречи, можно по совсем ещё свежему инциденту, закрутившемуся вокруг одной из внутренних функций линуксового ядра (далее, по традиции, просто Ядро). Если коротко, в Linux имеется функция RDRAND, которая используется для генерации случайных чисел. И есть некоторые сомнения насчёт качества её работы: если допустить, что в микрокод процессора силами АНБ и Intel вшит «троян», то вместо случайных чисел RDRAND может выдать неслучайную последовательность. Так что несколько ребят мечтают удалить RDRAND, но, отчаявшись найти понимание среди линуксоидов, написали открытое письмо Торвальдсу. И получили фирменный торвальдсовский ответ: пойдите подучите матчасть (драйвера и криптографию), а потом возвращайтесь и признайте, что гнали волну напрасно! Там же Линус пояснил, что RDRAND используется лишь совместно с другими источниками случайных чисел, почему и не ухудшит криптостойкости Ядра, даже если действительно скомпрометирован.
Соглашаться с Линусом или нет — личное дело каждого; у несогласных всегда есть право на форк. Вот только так уж всегда получается, что диссиденты возвращаются в родное лоно. Посмотрите хотя бы на Android: после некоторого периода разногласий, вызванных сепаратистскими настроения в Google, она снова идёт курсом на сближение, и через год–другой андроидовские исходники будут полностью включены в линуксовое ядро. В том числе и поэтому Linux продолжает расти — и конца-края росту не предвидится!
Android, захватившая мобильный рынок и продолжающая расширяться, играет теперь в популяризации Linux одну из важнейших ролей: да, пользователи Android-смартфонов, планшеток, всевозможных прочих устройств не подозревают, что фактически пользуют Linux, — но разработчики, создающие эти устройства, прекрасно понимают, на что опираются, и тем активней дорабатывают Ядро. Примерно та же история и с Chrome OS — единственным светлым пятном в унылом мире PC (см. «Chrome против всех»). Наконец, большинство сетян пользуются «Линуксом» ежедневно, даже если этого не замечают, не планируют или не хотят: инфраструктура практически любого гигантского интернет-проекта, от Google и Twitter до Facebook, сегодня основана на свободной ОС.
Как хорошо сказал Джим Землин, исполнительный директор The Linux Foundation (некоммерческий промышленный консорциум, фактически оплачивающий работу Торвальдса и основные инициативы для популяризации Linux), никто и ничего сегодня не делает без Linux, за редким исключением в лице Microsoft, Apple и BlackBerry. На этой неделе Linux Foundation опубликовала очередной ежегодный отчёт о состоянии Ядра — и цифры там впечатляющие по любым меркам. В разработке Ядра теперь принимают участие больше энтузиастов и компаний, чем когда бы то ни было. Только с 2005 года патчами отметились около 10 тысяч девелоперов и теперь Linux не просто один из самых крупных (17 миллионов строк кода), но и, вероятно, наиболее активно развивающийся софтверный проект всех времён и народов: ежечасно в Ядро вносится почти десяток исправлений, а каждые два месяца они отливаются в новую версию.
Линус, кстати, давно уже не самый активный участник этого процесса. По количеству вносимых патчей он теперь занимает почётное 101-е место и больше управляет людьми, недели занимается кодом («перекинулся на тёмную сторону», по собственному выражению). Если же говорить о тех, чья доля заметно выросла, это будут представители компаний, занятых мобильными и встраиваемыми продуктами. В любом случае активность и численность разработчиков так велики, что наблюдатели, когда-то пытавшиеся предсказать конец этому безумному пиршеству коллективного разума, сейчас только с улыбкой чешут затылки: статистика уже беспрецедентна, такого никто ещё не видел, но и остановки не предвидится. Linux оказалась нужна всем, и люди, стоящие сейчас у Ядра, не желают назначать целей: им интересней смотреть за естественным движением проекта, помогать ему развиваться по мере рождения у пользователей новых потребностей.
Нетерпеливый читатель, вероятно, поморщился: «Хорош уже философствовать!» Но хотим мы того или нет, от философии линуксоидам теперь никуда не деться: такой уж период настал! Посмотрите на Гейба Ньюэлла — одного из самых желанных гостей LinuxCon’а, успешного и в высшей степени оригинального предпринимателя (это он основал и «руководит» Valve Software) и в то же время, пожалуй, самого большого философа open source последних лет. Гейб помешан на играх и считает, что Linux — будущее электронных развлечений. В его представлении, за последние годы игровая экономика преобразилась беспрецедентно, показав выгоды открытых (очевидно, он имеет в виду свободных) систем. Пользователи нынче генерируют больше контента, чем сами создатели игр, — и логичней предоставить им свободу, нежели пытаться их контролировать. Проще говоря, проприетарные классические гейм-консоли и современные закрытые экосистемы вроде iOS обеспечить требуемого не смогут. Смотреть нужно в направлении свободных продуктов: мне вспомнилась Ouya, а Ньюэлл, возможно, имеет в виду SteamBox (полумифическую собственную игровую Linux-консоль Valve Software, показать которую могут уже на следующей неделе).
Что до Линуса, то он, даже перевалив за сорок и вырастив трёх дочерей, остаётся в общем тем же любопытным подростком, каким был двадцать лет назад. Он удивляется, когда без объявления войны приказывает долго жить SSD на его ноутбуке. И беспокоится о дне, когда закон Мура перестанет работать: физический предел миниатюризации для полупроводников, в его понимании, уже маячит на горизонте, а ответа, куда двинется компьютерная индустрия после этого, нет пока ни у кого. Ему приятно констатировать постоянно эволюционирующий характер пользования Linux: сегодня, по словам Торвальдса, системой пользуются совсем не так, как ещё десять лет назад, не говоря о более ранних периодах. И хоть Ядро разрослось и усложнилось невообразимо, Линус считает, что в проекте по-прежнему найдётся место для всех желающих. Лучше того: влиться в разработку Ядра проще, чем в любой другой свободный проект, потому что сделано многое — но несравнимо больше ещё сделать предстоит!
Опубликовано 19 сентября 2013
Восемь лет назад Министерство обороны США публично выразило обеспокоенность тем, что при достаточном техническом уровне противника существует опасность выполнения им скрытой модификации любого чипа. Изменённый чип станет работать в критических узлах, а внедрённый «троянский конь» или «аппаратная закладка» будут оставаться незамеченными, подрывая обороноспособность страны на самом фундаментальном уровне. Долгое время такая угроза оставалась гипотетической, однако международная группа исследователей недавно смогла реализовать её на физическом уровне.
Георг Беккер (Georg T. Becker) из университета штата Массачусетс вместе с коллегами из Швейцарии и Германии в рамках доказательства концепции создал две версии «трояна аппаратного уровня», нарушающего работу генератора (псевдо)случайных чисел (ГПСЧ) в криптографическом блоке процессоров Intel архитектуры Ivy Bridge. Создаваемые с помощью изменённого ГПСЧ криптографические ключи для любой системы шифрования окажутся легко предсказуемыми.
Наличие аппаратной закладки никак не определяется ни специально разработанными для этого встроенными тестами, ни при внешнем осмотре процессора. Как же такое могло произойти? Для ответа на этот вопрос необходимо вернуться к истории появления аппаратного ГПСЧ и ознакомиться с базовыми принципами его работы.
При создании криптографических систем требуется устранить возможность быстрого подбора ключей. Их длина и мера непредсказуемости непосредственно влияют на число вариантов, которые пришлось бы перебрать атакующей стороне. Длину можно задать прямо, а вот добиться уникальности вариантов ключей и их равной вероятности гораздо сложнее. Для этого во время создания ключей используют случайные числа.
В настоящее время принято считать, что за счёт только программных алгоритмов нельзя получить истинно случайный поток чисел с их равномерным хаотическим распределением по всему указанному множеству. Они всегда будут иметь большую частоту встречаемости в каких-то частях диапазона и оставаться до некоторой степени предсказуемыми. Поэтому большинство применяемых на практике генераторов чисел следует воспринимать как псевдослучайные. Они редко оказываются достаточно надёжными в криптографическом смысле.
Для снижения эффекта предсказуемости любому генератору чисел требуется надёжный источник случайного начального заполнения — random seed. Обычно в качестве него используются результаты измерений каких-то хаотических физических процессов. Например, флуктуации интенсивности световых колебаний или регистрация радиочастотного шума. Такой элемент случайности (да и весь аппаратный ГПСЧ) было бы технически удобно использовать в компактном варианте, а в идеале — сделать встроенным.
Компания Intel встраивает генераторы (псевдо)случайных чисел в свои чипы начиная с конца девяностых. Раньше их природа была аналоговой. Случайные значения на выходе получались за счёт влияния трудно прогнозируемых физических процессов — тепловых шумов и электромагнитных помех. Аналоговые генераторы было сравнительно просто реализовать в виде отдельных блоков, но трудно интегрировать в новые схемы. По мере уменьшения технологического процесса требовались новые и длительные этапы калибровки. К тому же закономерное снижение напряжение питания ухудшало соотношение сигнал/шум в таких системах. ГПСЧ работали постоянно и потребляли значительное количество энергии, а скорость их работы оставляла желать лучшего. Эти недостатки накладывали ограничения на возможные сферы применения.
Идея генератора (псевдо)случайных чисел с полностью цифровой природой долгое время казалась странной, если не абсурдной. Ведь состояние любой цифровой схемы всегда жёстко детерминировано и предсказуемо. Как внести в неё необходимый элемент случайности, если нет аналоговых компонентов?
Попытки получить желанный хаос на базе только цифровых элементов предпринимались инженерами Intel с 2008 года и увенчались успехом через пару лет изысканий. Работа была представлена в 2010 году на летнем симпозиуме VLSI в Гонолулу и произвела маленькую революцию в современной криптографии. Впервые полностью цифровой, быстрый и энергоэффективный ГПСЧ был реализован в серийно выпускаемых процессорах общего назначения.
Его первое рабочее название было Bull Mountain. Затем его переименовали в Secure Key. Этот криптографический блок состоит из трёх базовых модулей. Первый генерирует поток случайных битов с относительно медленной скоростью — 3 Гбит/с. Второй оценивает их дисперсию и объединяет в блоки по 256 бит, которые используются как источники случайного начального заполнения. После ряда математических процедур в третьем блоке с более высокой скоростью генерируется поток случайных чисел длиной 128 бит. На их основе с помощью новой инструкции RdRand при необходимости создаются и помещаются в специально отведённый регистр случайные числа требуемой длины: 16, 32 или 64 бита, которые в итоге и передаются запросившей их программе.
Ошибки в генераторах (псевдо)случайных чисел и их злонамеренные модификации стали причиной утраты доверия к популярным криптографическим продуктам и самой процедуре их сертификации.
По причине исключительной важности ГПСЧ для любой криптографической системы в Secure Key были встроены тесты для проверки качества генерируемых случайных чисел, а для сертификации привлекли ведущие экспертные группы. Весь блок соответствует критериям стандартов ANSI X9.82 и NIST SP 800-90. Вдобавок он сертифицирован на уровень 2 в соответствии с требованиями NIST FIPS 140-2.
Как мы увидим дальше, ни ответственный подход при разработке, ни расширенная сертификация не защитили криптографический блок от реальной возможности скрытой и недетектируемой модификации.
До сих пор большинство работ об аппаратных троянах носило гипотетический характер. Исследователями предлагались добавочные конструкции из небольших логических цепей, которые следовало каким-то образом добавить в существующие чипы. Например, Сэмюэл Талмадж Кинг (Samuel Talmadge King) с соавторами представил на конференции LEET-08 вариант такого аппаратного трояна для центрального процессора, который предоставлял бы полный контроль над системой удалённому атакующему. Просто отправив сконфигурированный определённым образом UDP-пакет, можно было бы сделать любые изменения на таком компьютере и получить неограниченный доступ к его памяти. Однако дополнительные логические цепи сравнительно просто определить при микроскопии, не говоря уже о специализированных методах поиска таких модификаций. Группа Беккера пошла другим путём:
Вместо того чтобы подключать к чипу дополнительную схему, мы внедрили наши закладки аппаратного уровня, просто изменив работу некоторых уже имеющихся в нём микротранзисторов. После ряда попыток нам удалось выборочно изменить полярность допанта и внести желаемые модификации в работу всего криптографического блока. Поэтому наше семейство троянов оказалось стойко к большинству методов обнаружения, включая сканирующую микроскопию и сравнение с эталонными чипами».
В результате проделанной работы вместо уникальных чисел длиной 128 бит третий блок Secure Key стал накапливать последовательности, в которых различались только 32 бита. Создаваемые на основе таких псевдослучайных чисел криптографические ключи обладают очень высокой предсказуемостью и могут быть вскрыты в течение нескольких минут на обычном домашнем компьютере.
Лежащее в основе аппаратной закладки выборочное изменение удельной электрической проводимости было реализовано в двух вариантах:
цифровая пост-обработка сигналов от Intel Secure Key;
Последний метод более универсален и может применяться с небольшими изменениями на других чипах.
Возможность использовать встроенный ГПСЧ через инструкцию RdRand впервые появилась в процессорах Intel архитектуры Ivy Bridge. Компания Intel написала подробные руководства для программистов. В них рассказано о методах оптимальной реализации криптографических алгоритмов и даётся ссылка на описание принципов работы Secure Key. Долгое время усилия экспертов по безопасности были направлены на поиск уязвимостей в программной части. Пожалуй, впервые скрытое вмешательство на аппаратном уровне оказалось куда более опасной и вполне реализуемой на практике технологией.
Опубликовано 19 сентября 2013
До вчерашнего дня на вопрос, сколько отнимет создание практически пригодного робокара — автомобиля, способного рулить самостоятельно (то, что в английском называется self-driving car), — стандартным ответом было: семь лет! В лучше случаем к 2020-му аналитики надеются увидеть робокары на том же месте в авторейтингах, где сегодня обитают гибриды, то есть уже не экзотика, но ещё и не ширпотреб. Производители на этот счёт всё больше отмалчиваются: многие только к 2020-му надеются выпустить первые самоуправляемые модели.
Так вот, вам будет приятно узнать, что буквально за последние сутки срок сократился больше чем вдвое. В «гонку» включился новый участник, известный как своей нетерпеливостью, так и столь же впечатляющими успехами на поприще высоких технологий. На его счету орбитальный грузовик, масштабная сеть персональных солнечных электростанций, первый коммерчески успешный массовый электромобиль — в общем, в представлении он не нуждается. Вчера Элон Маск официально подтвердил, что Tesla Motors приступила к созданию самоуправляемого авто. И сделать работу обещает всего за три года. Но каким образом, если другие просят на то же самое чуть не десять лет? Есть одна тонкость…
О том, как обстоят дела в робоавто-сегменте, речь шла совсем недавно (см. «Безопасность прежде всего»). С тех пор глобально ничего не изменилось, лидером де-факто всё так же остаётся Google, чьи автомобили накатали уже более полумиллиона безаварийных километров по реальным автострадам. Однако даже Google не сообщает текущего статуса проекта — а сторонние наблюдатели отмечают, что главная проблема для неё не столько дороги, сколько до сих пор не нашедшийся генеральный партнёр, который взялся бы поставить гугловскую технику в свои авто. Проблема очень серьёзна: если раньше никто не сомневался, что поисковый гигант не возьмётся строить свой автомобиль, то сейчас пополз слушок (и вроде бы даже есть утечки), что Google отчаялась и намерена строить машину сама (точнее, спроектировать; непосредственное производство поручат нанятому вендору вроде Continental).
Но почему же автопроизводители не желают сотрудничать с Google — которая добилась очевидных успехов на поприще автомобильного автопилотирования? (А среди её возможных партнёров фигурировала и Tesla Motors: представьте, какой замечательный получился бы дуэт!) Причиной, по которой Google не может найти общего языка с вендорами, и в том числе с Маском, стало, как полагают некоторые, расхождение во взглядах на незначительную деталь: должен ли автомобиль быть автоматическим или автоматизированным.
Технарь увидит разницу между этими вроде бы идентичными терминами: автоматический механизм — значит, стопроцентно самостоятельный, не требующий вмешательства человека. Таковы гуглокары с интернет-соединением, таковы работающие без доступа в интернет экспериментальные робокары Nissan. Но автоматизированный — значит, оставляющий некоторую часть функций человеку и делящий с ним ответственность за последствия. Мелочь? Да, для аутсайдера. Но для конструкторов робокара мелочей, как видно, не существует.
Так что Маск будет строить робокар без привлечения сторонних наработок, сам — и это можно понимать буквально: команда инженеров, которую сейчас формируют (есть вакансии, пишите: autopilot [@] teslamotors.com), будет подотчётна лично Элону. Механическая часть давно отлажена и даже бьёт рекорды безопасности. Остаётся сконструировать «мозг» и «глаза». Деталей, по обыкновению, мало: Маск предпочитает недоговаривать, оставляя простор для фантазии, но также и избавляя себя от постоянного контроля СМИ на соответствие обещанного достигнутому. Сегодня ночью он пояснил в своём «Твиттере», что речь идёт о нескольких встроенных камерах, обеспечивающих круговой обзор, и классическом радаре (не лазерном), плюс многогранной обработке изображений.
Ну а уложиться в три года удастся потому, что, в отличие от автоматических конкурентов, робокар Tesla будет автоматизированным. Большую часть пути он будет рулить сам, но в оставшиеся минуты человеку придётся взяться за баранку и рычаги. Маск уверен, что постройка автоматического робоавто слишком амбициозна и граничит с невыполнимостью. Математически описать прохождение некоторых этапов пути (Элон не уточняет, каких именно, но российскому автолюбителю объяснять и не нужно) будет, цитирую, «невероятно сложно». Вот почему конкуренты, обещающие «полный автомат» (Nissan, на днях подтвердившая свои планы, Mercedes-Benz и др.), называют в качестве срока реализации безопасные даты: согласитесь, обещать что-то на 2020-й год, когда ИТ-индустрия преображается до неузнаваемости каждую пятилетку, это всё равно что не обещать ничего.
Однако пунктик разницы «автоматический — автоматизированный» важен не только в смысле технологий, но и в смысле права. Знающие люди, цитируемые солидными изданиями (Financial Times, Businessweek и т. п.), утверждают, что Маск и автовендоры побаиваются сотрудничать с Google не столько из-за опасений неосуществимости идеи автомобильного автопилота, сколько из-за возникающих здесь правовых коллизий. Кто будет виноват, если робокар собьёт человека, попадёт в аварию? Ответы «никто» или «компьютер» вендоров, естественно, не устраивают: виновник найдётся обязательно, и скорее всего, получается, им будет производитель. Но это ещё если робокар получит разрешение выйти на дорогу, что тоже пока совсем не факт.
А вот если автомобиль лишь автоматизирован, то ответственность будет нести человек за рулём, и шансов быть одобренным транспортными регуляторами у такого авто больше. Правда, придётся отказаться от идеи совсем не смотреть на дорогу. (Та же Nissan заливается соловьём: «Скучные и непродуктивные поездки останутся в прошлом!») Ну так что ж, желающие могут потерпеть до 2020-го ;-).
Опубликовано 18 сентября 2013
Гордиться ручным ремеслом янки нынче не приходится: летом 2013 года в Лейпциге, на Международном конкурсе профессионального мастерства WorldSkills International, команда из США заняла лишь 39-е место из 47 участников. На три десятка позиций отстав от Бразилии, президент которой, возмутившись компьютерным шпионажем АНБ за бразильской нефтяной компанией Petrobras, отказалась от встречи с мистером президентом Обамой, и всего лишь на пять ступенек обойдя российских наследников Левши. Времена, когда на американских заводах ставили на конвейерную сборку легендарный авиамотор Merlin, который создавшие его англичане производили селективно, канули в Лету. Нет больше тех крестьянских ребят и девчат, которые либо с ферм Среднего Запада, либо прямиком с эмигрантского Стейтон-Айленда приходили на сталеплавильные и автомобильные заводы Среднего Запада, на швейные и текстильные фабрики Новой Англии.
Но у американцев есть лучшие в мире университеты. Есть инновационный ИТ-бизнес. У них есть Defense Advanced Research Projects Agency (DARPA), разработки которого порой превосходно находят себе применение в мирной жизни: да возьмём хотя бы тот же интернет, в котором вы читаете эти строки. И есть — при всей трогательной любви к авторскому и смежному правам, подпёртым всей мощью государственной машины, — концепция Open Source-кода. И вот всё это нынче начинает сходиться вместе при решении вопросов практической робототехники. Пока — для выполнения задач гражданской обороны и ликвидации последствий стихийных бедствий. Того, что в наших документах называлось СНАВР (спасательные и неотложно-восстановительные работы).
Трата государственных денег объясняется налогоплательщику историями драматическими — гибелью девятнадцати огнеборцев при тушении лесных пожаров в Аризоне; тем, что при работах в центре 9/11 спасатели надышались токсической пылью. Вспоминаются даже ликвидаторы из Фукусимы — будто японцам после Хиросимы и Нагасаки привыкать к радиации… Жертвы ничтожные, по сравнению с тем количеством жизней, которые может спасти роботизация автомобильного движения. Но задачи предполагается решать самые интересные и очень важные.
Без малого год назад агентство DARPA объявило конкурс по созданию программного обеспечения на основе открытого кода, предназначенного для управления роботом-спасателем. Партнёром его выступил некоммерческий Open Source-фонд Open Source Robotics Foundation (OSRF). Только вот если вы, прочтя «некоммерческий», представили себе нечто энтузиастски-несерьёзное, то сильно ошиблись. Это вполне солидная организация, учреждённая робототехнической фирмой Willow Garage и ориентированная на поддержку и продвижение программных проектов в области робототехники. Записались на конкурс 26 команд со всего мира. Им была предоставлена возможность скачать эмуляторы аппаратного обеспечения робота, равно как и модели окружения, в котором роботам-спасателям предстоит решать свои задачи, и погонять на них свой код. В середине лета были подведены итоги конкурса. Из участников выбрали семь команд, разработки которых DARPA и OSRF сочли наиболее перспективными.
А для команд, вышедших во второй тур, наступает самое интересное. Им предоставляется возможность тестировать своё программное обеспечение на реальном роботе, действующем в физическом мире. Робота этого вы, уважаемые читатели, наверняка уже видели. Зовётся он Atlas, по имени того брата Прометея, которого в наказание за участие в контрреволюционном восстании против прогрессивных олимпийцев определили держать земной свод. 188 сантиметров роста. 150 килограммов веса. Механизм имеет двадцать восемь степеней свободы, действия в которых осуществляются двадцатью восемью гидравлическими приводами, работающими от общего гидронасоса. А гидравлика — технология довольно архаичная. Еще античная техника владела искусством ΰδραυλις — построения водяных органов… Гидравлическими были привода орудий броненосцев и рулевые машинки древних ракет. Теперь гидропривод возвращается в робототехнику: у него всё ещё хватает достоинств — вроде приёмистости, нагрузочной характеристики. Но есть и недостатки, такие как КПД. Сопротивление жидкости, знаете ли… Поэтому заокеанский Atlas абсолютно неавтономен. Питание он получает по силовому кабелю, таскающемуся за ним подобно обезьяньему хвосту (ранние этапы эволюции, что придираться). И ещё в конструкцию робота специалисты создавшей его новоанглийской робототехнической компании Boston Dynamics ввели радиатор, менее заметный, чем подсветка из голубых светодиодов, но более необходимый для рассеяния тепла, отобранного у гидрожидкости. Вспоминая, что отечественная оборонка ещё в индустриальную эпоху переводила довольно много приводов с гидравлики на электрику, очень похоже, что Atlas создавался именно как системный прототип, для которого приемлема архаичная и энергоёмкая гидравлика.
И вот на этом-то роботе претендентам на двухмиллионный приз предстоит отрабатывать свои алгоритмы и коды, с помощью которых Atlas должен научиться решать типовые задачи СНАВР. Разобрать завал. Проломить стену. Подсоединить брандспойт к гидранту (в мышлении янки пожарный кран носит культовый характер: хуже, чем припарковаться рядом с ним, — только обогнать школьный автобус). Смонтировать пожарную магистраль, соединив несколько труб… Базовые функции движения в пространстве Atlas уже освоил. Он умеет удерживать равновесие: для него это, как и для человека, динамический процесс. Была когда-то система статических тренировок Atlas, занесённая из США и позволявшая очень быстро наращивать мускулы ещё до введения в быт стероидов. Состояла она в том, что надо стоять под нагрузкой: мышцы-то в это время интенсивно трудятся, хотя работа в физическом смысле и не совершается. (Все нормальные тренеры с таким атлетизмом боролись насмерть, заставляя воспитанников заниматься менее эффектной, но более эффективной ОФП, последствия чего ощущаются десятилетия спустя — но это другой разговор…) Вот и гидроприводы Atlas трудятся для поддержания равновесия, рассеивая тепло… Ещё он умеет схватиться в движении за стенку, помогая удержать равновесие.
Ну а всему остальному Atlas предстоит научить. И доучивать постоянно… И вот этому-то доучиванию и поможет концепция открытого кода. И — доступные эмуляторы к нему. Каждый сможет войти в этот бизнес, дописывая новые и новые функции для робота. Копать канавы. Сращивать кабели. Работать с перфоратором. И — продавать их по всему миру, получая за это роялти.
Ведь задачи, которые в ближайшем времени научится решать Atlas (мы говорим «научится», а не «если научится»!), вполне на уровне сложности того труда, которым на улицах заняты вездесущие гастарбайтеры в ярких жилетах. Вполне можно представить себе команду потомков Атласа (имён много — все Гиады и Плеяды), приезжающих на место работы в кузове робопикапчика, запускающих генератор, от которого питаются и их электроперфораторы, и они сами, и приступающих к вечному — почти как у Данаид — труду по смене тротуарной плитки и бордюрных камней… Всё это наверняка освоит Atlas в ближайшее время: премию-то в два мегабакса разработчикам софта получить явно хочется, а вручать-то её будут уже в декабре этого года, в тёплом Майами…
О стоимости экспериментального Atlas говорить нет никакого смысла: она чрезвычайно высока, как у первых студийных видеомагнитофонов, занимавших половину комнаты. Но грубо-грубо её можно прикинуть для серийных образцов, соотнеся массу робота с массой автомобиля. Железка и там и там. Примерно одного уровня технологии. И поршни с уплотнениями там и там. И двигатель с радиатором. И электроники в наследниках самобеглых колясок Даймлера хватает. И заезжать в
Опубликовано 18 сентября 2013
Каждый раз, когда разговор в этой колонке заходит о «здоровье» PC-индустрии, я поражаюсь комментариям читателей. Можно рассуждать о преждевременности диагноза «смерть PC», можно успокаивать себя всё ещё стоящей на рабочем столе персоналкой (см. дискуссию под «Chrome против всех»), можно даже утверждать, что планшетки и им подобные никогда не сравняются с десктопом функционально — но нельзя, невозможно не признавать, что персоналка больна, причём больна настолько, что если когда-то и «покинет палату», то изменившейся до неузнаваемости.
Впрочем, средний пользователь здесь ничем не рискует. Но уже среднему разработчику выгодней задуматься, куда мы движемся и, возможно, поймать тренд, а для вендоров с мировыми именами и это непозволительная роскошь: пока остальные думают, они уже который год терпят убытки — и нужно действовать сейчас, сегодня, чтобы завтра не разделить участь неповоротливых Nokia и Research In Motion.
Intel, выручка и прибыли которой падают два года подряд, а маржа — уже три, и перспективы на год будущий туманны, находится в самом центре этой нежданной эпидемии. Её доли на мобильном рынке ничтожны: по самым оптимистичным прогнозам, через год она завладеет лишь одной десятой планшетного сегмента, а про достижения микропроцессорного гиганта на смартфонном поприще даже самые смелые аналитики предпочитают стыдливо молчать (в лучшем случае единицы процентов, в том числе и потому, что пришла она сюда лишь в прошлом году). Аргумент «Смартфоны, планшетки и прочая мелкая дребедень не имеют ничего общего с персоналкой», увы, для неё не работает. Потому, во-первых, что «Айпады» уже бесспорно выедают долю собственных персоналок Apple (на интеловских, кстати, процессорах), а «Андроиды» так же успешно кушают долю винтеловских машин. И во-вторых, у Intel своя философия компьютинга, свой взгляд на эволюцию вычислительных машин, из которого точно так же следует, что цифровая мелочь неизбежно будет править компьютерным миром.
Intel имеет право на собственную философию. Модными нынче «умными» часами она занималась даже не тогда, когда нынешние Pebble и Galaxy Gear были на бумаге, а когда их разработчики ещё не появились на свет: в 70-х она производила электронные ходики Microma. Равно и процессорами для наладонников занялась одной из первых: старшее поколение должно помнить её ARM-производный XScale, занимавший в начале «нулевых» лидирующие позиции в сегменте мобильных устройств. В обоих случаях она избавилась от бизнесов, поскольку они не приносили ей достаточной (по её меркам) прибыли: и электронные часы, и хендхелдовые микропроцессоры были слишком дешёвыми, маржа для них (попросту говоря, превышение отпускной цены над себестоимостью) — слишком маленькой по сравнению с процессорами для PC. Запомните эту деталь, она понадобится чуть позже.
Так вот, о философии Intel. Микропроцессорный гигант представляет себе компьютерную эволюцию состоящей из трёх этапов. На первом (англ. ориг. task-based) пользователи несли свои задачи на мейнфреймы. На следующем (lifestyle-based) уже вычислительные устройства — PC, смартфоны, планшетки — могли быть доставлены к рабочему месту и применены там и тогда, где и когда мы этого пожелаем. Но сейчас мы переходим к этапу номер три (integrated), когда компьютеры будут окружать нас и встраиваться во всё и везде, будут тотально взаимосвязаны. Поскольку первый этап давно закончился, а конец второго компания фактически проморгала, необходимо готовиться к третьему. Что она и делает: вероятно, вы слышали, что на минувшей неделе Intel на своём девелоперском форуме показала нечто необыкновенное.
Это необыкновенное — микропроцессор (а правильней — SoC, система-на-чипе, или, по-советски, микроконтроллер) Quark. Одно ядро, один поток 32-битных инструкций, впятеро меньший и вдесятеро более энергоэкономичный, чем самый-самый крохотный представитель мобильного семейства Intel Atom, но по-прежнему принадлежащий к архитектуре x86, Quark — это выстрел в сторону носимых и встраиваемых устройств. Производительность для них — вопрос второстепенный, важнее уровень энергопотребления, степень автономности (вспомните, что те же Galaxy Gear публика не желает воспринимать всерьёз в том числе и по причине их предполагаемой неспособности продержаться без подзарядки хотя бы полный рабочий день). И Quark, потребляющий доли ватта, должен стать мозгом этого нового поколения устройств: цифровых браслетов, смартвочей, очков расширенной реальности, компонентов умного дома, встраиваемых промышленных и даже вживляемых медицинских цифровых аппаратов.
Естественно, Intel здесь не первая. Множество вендоров уже лицензируют и производят микропроцессоры, основанные на близком по характеристикам ядре ARM Cortex M. Преимущество Quark — классическая интеловская архитектура, что должно облегчить перенос и разработку программного обеспечения. Однако, обжёгшись дважды (см. выше), Intel более не пытается просто навязать рынку собственное видение, один только готовый продукт. Quark, производство которого начнётся ещё до конца текущего года, возвещает и начало новой эпохи в жизни Intel, большие перемены в принципах её работы.
Прежде всего вместо традиционного массового производства небольшого числа модификаций микропроцессора компания намерена позволить клиентам добавлять на процессорный кристалл собственные функциональные блоки (подключая их в предусмотренных точках расширения) — и таким образом переходит к производству сравнительно небольших партий большого количества разновидностей чипа. В Intel это называют «синтезируемой архитектурой» — в том смысле, что клиент получает процессор с уже встроенными нужными лично ему добавлениями, а в будущем, возможно, даже сможет приобрести лицензию на ядро Quark и менять и производить его на собственных фабриках. CEO компании Брайан Кржанич утверждает, что никаких сложностей тут не будет: Intel, мол, давно приноровилась производить чипы на заказ.
Это поистине либеральное новшество для микропроцессорного гиганта, но, к сожалению, главный конкурент работает по ещё более либеральной схеме. Если Intel не намерена разрешать своим клиентам менять собственно процессорное ядро (и даже вроде бы сохранит в секрете его устройство), то ARM Holdings позволяет вертеть ядром как заблагорассудится.
Но есть и ещё один подводный камень. Вспомните, почему Intel продала «Микрому» и XScale: на таких процессорах много не заработаешь, а компания привыкла ворочать миллиардами! Микроконтроллеры же класса Cortex M/Quark ещё дешевле. Норма прибыли тут должна радикально отличаться от процессоров для PC — и выхода нет, Intel придётся держать на балансе такое производство. Результатом станет как минимум упавшая маржа, а скорее всего, и глобальное ухудшение прибыльности: мобильные (Atom) и носимые (Quark) чипы если не сожрут, то понадкусывают продажи чипов для PC, оставив доходность микропроцессорного бизнеса времён господства Wintel только в светлых воспоминаниях. И потребуют дальнейшего реформирования производства и отхода от принципов, выработанных Intel за полувековую историю.
Я всего лишь обозреватель, не аналитик и не желаю претендовать на звание такового. Но отказать в удовольствии наблюдать за теми, кому платят за аналитические труды, не могу. Так вот, сейчас сложилась забавная ситуация: констатируя сказанное выше, западные аналитики вместе с тем как будто боятся заглянуть вперёд. Все как один они цепляются за озвученный кем-то прогноз о стабилизации здоровья PC-индустрии в будущем году: очень уж страшно говорить об Intel в прошедшем времени! Впрочем, два года назад точно так же боялись ставить крест и на Blackberry, и на Nokia.
Так что и я не стану утверждать: конец! Спрошу только: вы задумывались, куда дальше?