Опубликовано 04 октября 2011 года
На научной конференции фонда «Сколково» руководитель компании SoftJoys и член правления MIT Enterprise Forum of Russia Александр Андреев говорил о пользе футурологии. И для убедительности показал картинку, нарисованную в 50-х годах ХХ века: дескать, практически всё изображённое на ней уже реализовано — за исключением дизайна автомобилей, ныне выглядящего скорее старомодно.
А ещё добавил, что, хоть Россия и отстаёт от мира современных технологий на десять лет, она способна перенимать передовые решения и разработки. И если начать «правильный стартап» сегодня, то лет через десять станешь мейнстримом.
Александр советует делать экстраполяцию с бизнес-модели, которая частично существует сейчас и с большой вероятностью будет воплощена в 2020 году: «Представим, что у нас есть неограниченная полоса пропускания в любой точке мира, процессоры неограниченной мощности и аккумуляторы с бесконечно долгим временем работы. Повсюду в мире установлены камеры и сенсоры, изменилась концепция авторского права (в сторону большей свободы), всё и вся находится онлайн, все соединены друг с другом».
Именно в рамках такой бизнес-модели, по мнению эксперта, нужно создавать стартапы, которые оправдают себя в будущем. И если у читателя возникнет хорошая идея, можно смело обращаться к господину Андрееву за инвестициями.
Кстати, влиятельный аналитический центр RAND предсказывает схожие тренды 2020 года. Вот технологические тенденции, отмеченные её аналитиками как актуальные в будущем:
конвергентность;
данные повсюду;
сенсоры повсюду;
биометрические технологии;
камеры повсюду;
системы глобального позиционирования;
развитые технологии баз данных;
микро- и мобильные устройства и источники энергии;
инструменты анонимности и приватности;
робототехника;
высокие технологии в обучении.
Интересующимся будущим полезно заглянуть и на страницу прогнозов сервиса TechCast. Там отображаются ежедневно меняющиеся прогнозы по ряду популярных отраслей и рынков, с предсказанием события или тренда, года его возникновения, размера рынка (в единицах от 1 до 10) и уверенности экспертов (в процентах). Например, на 29 сентября 2011 года в сегменте ИТ-технологий среди прочего прогнозируется рост рынка облачных вычислений на 30 процентов к 2016 году, а увеличение числа смартфонов на те же 30 процентов — к 2012-му. В общем что-то вроде гороскопа, только на серьёзные темы и с несколько большей точностью, чем у астрологов.
Более чёткую и прагматичную картину будущего рисует бывший руководитель московского центра разработок Google, а теперь бизнес-ангел и член Российской венчурной компании Сергей Бурков. Он исходит из задач, которые популярны у разработчиков в США, и ситуации на глобальном рынке, но серьёзное внимание уделяет лишь интернет-технологиям. И кажется, неслучайно.
Недавнее прошлое, по словам Буркова, — это эра Google. "Интернет, к которому мы привыкли, — это такая всемирная библиотека сведений со всех концов мира, и Google в этой библиотеке главный, ничего с этим поделать пока нельзя. Как и всякий библиотекарь, Google работает по запросу. Приходит посетитель с вопросом: «Меня интересует такая-то информация, где я могу её найти?», — и поисковая машина её находит. При этом мы должны знать, чего мы хотим", — напоминает Бурков.
Сегодня царит эра Facebook, Twitter и геолокационных сервисов, которые, как выяснилось, будут в том или ином виде существовать и в 2020 году.
Сегодня, по словам Буркова, Facebook выглядит примерно так: «Это сеть, которая связывает всех людей мира. Если Google (или иной поисковик) связывает все документы мира, всю информацию мира, то здесь у нас появилась база данных, в которой есть все люди мира и связи между ними (кто с кем знаком и каковы их взаимодействия)».
"Это распространение и предоставление информации, но уже не «гугловским» способом. Мы не приходим и не говорим: «Дайте мне информацию». Здесь информация сама находит нас. Наши друзья делятся с нами этой информацией, и это уже совершенно не поисковая бизнес-модель, это протекание информации по сети людей, нередко вирусным способом. Получается такая курилка или кухня, на которой мы сидим и обмениваемся новостями. Эта часть сейчас неплохо развивается", — поясняет Сергей Бурков.
Вторая важная вещь, которую сделал Facebook, — это кнопка «Мне нравится». Пользователь отмечает понравившиеся сообщения или странички, и таким образом можно как проследить за поведением людей в сети (куда они ходят, какие страницы популярны, какие нет), так и узнать предпочтения конкретного человека. Это чрезвычайно важно для рекламы, которая, по мнению эксперта, становится ненавязчивой и дифференцированной: «На этом можно получить кучу денег, которую Facebook сумеет заработать».
Чем Facebook или аналогичная ему социальная сеть могут стать через десять лет? "Одно из интересных заданий, над которым работает много стартапов в Кремниевой долине, — как построить некую базу данных на каждого человека в мире и узнать, что он любит, какие фильмы он смотрел в сети, какую музыку слушал; более того — узнать, что он пишет в «Твиттере», и на основе этого попытаться понять, какие у него интересы", — рассуждает Сергей Бурков.
Уже сегодня информации в социальных сетях так много, что требуется инструмент, способный эту информацию отфильтровывать по признаку важности лично для нас. Если сейчас пользователь обычно пишет конкретный запрос и поисковик находит информацию, то в 2020 году отвечать на запрос помогут люди. То есть «следующий Google» должен понять, что интересует каждого человека, и доставить ему нужную информацию вообще без запросов. «Это новая система фильтрации информации без запросов, — говорит Бурков. — В качестве запросов будем выступать мы сами».
Ещё один интересный нереализованный на сегодня момент — поиск новых друзей. Обычно в социальной сети мы общаемся с теми людьми, с которыми более-менее знакомы, а поиск родственных душ в Facebook или «Вконтакте» пока не реализован. Зато, по сообщению эксперта, есть масса стартапов, которые пытаются эту задачу решить.
В недалёком будущем появятся так называемые графы интересов: «Интересно выделить группы людей (из всех пользователей Facebook, Twitter и так далее), которые, скажем, любят кошек, которые катаются на лыжах, имеют семьи, поздно ложатся спать и так далее, — говорит Бурков. — То есть как-то классифицировать людей и нарисовать отдельные графы по интересам. Над этим тоже работают».
Получат развитие динамические социальные сети: когда, например, люди оказываются поблизости, то между ними, вероятно, есть некая связь и её можно установить. Скандальный стартап Color, который собрал 41 миллион венчурного капитала, работает как раз над этим направлением (однако в его перспективности многие сомневаются).
На сегодняшний день, по мнению Буркова, отдельно стоит выделить Twitter. Это, по его мнению, телеграфное агентство для всего мира, где человек «становится на подиум и может что-то крикнуть всем». При этом в отличие, например, от электронной почты, где пользователи сами выбирают адресатов, здесь они посылает сообщение всем, а те уже сами решают, хотят они получать это сообщение или нет.
Соответственно человек не делает никаких запросов на получение информации — она находит его сама. И здесь также наблюдается вышеописанная проблема: двести миллионов пользователей плюс быстрый рост сервиса. Да и люди, по сути, пишут «о чём попало»: налицо переизбыток информации, которую нужно как-то систематизировать. Эта информация хоть и кажется не особенно ценной, но она может оказаться внезапно полезной. Люди постоянно твитят о происходящих вокруг событиях.
По утверждению эксперта, модель монетизации «Твиттера» близка к той, что сейчас реализует Groupon: "Народ часто собирается в конкретных заведениях и твитит оттуда. И вообще «Твиттер» — замечательная система организации и самоорганизации, как мы могли это наблюдать на примере египтян. Поэтому на «купонных», скидочных акциях в «твиттере» можно сделать миллиарды".
Что будет с «Твиттером» через двадцать лет? В первую очередь, может случиться смена поисковой парадигмы. Бурков говорит: «Во-первых, у меня есть подозрение, что это будет не Twitter, а какая-то другая компания — вполне возможно, что его поглотят. И от текстовой модели он, скорее всего, придёт к модели мультимедийной, где каждый человек сможет создавать что-то вроде собственного телевизионного канала».
При этом сейчас в «Твиттере» существует проблема: пользователь подписывается на конкретного человека, который одновременно может любить гольф и быть специалистом по криптографии. Даже если нас интересует только криптография, а от гольфа тошнит, разделить информацию не получится и придётся покорно терпеть лишние твиты. Над решением этой задачи тоже работает большое число компаний.
Появится "Google для «Твиттера», то есть поисковая система, которая заработает миллиарды долларов на фильтрации твитов. Здесь Сергей подчёркивет, что система фильтрации для Facebook и Twitter не имеет ничего общего с тем, что делают Google или «Яндекс». Это совершенно другая система.
В неё входит один документ, а «в очереди» стоит множество запросов, то есть при появлении документа система должна очень быстро решить, какому запросу этот документ соответствует. По словам Буркова, компаний, которые разрабатывают такие системы, пока всего три или четыре и процесс находится в самом начале: "В будущем должна происходить фильтрация сообщений, то есть не от одного человека сразу ко всем. Внутри «твиттера» будет система, рассылающая конкретные сообщения нужным людям — тем, кому это интересно. То есть поиск будет проходить в момент пересылки информации".
Ещё одна популярная сегодня тема — геолокационные сервисы, которые пытаются определить местоположение всех людей в этом мире в конкретный момент. При этом, поскольку мы регистрируемся в каком-нибудь кафе или кинотеатре, параллельно создаётся всемирная «телефонная книга» и «книга жалоб и предложений», рекомендательный сервис. Без краудсорсинга это сделать невозможно — огромное количество компаний безуспешно пытались собрать информацию, тогда как известные геолокационные сервисы с помощью своих пользователей легко создают всемирную базу данных посещаемых объектов. Одновременно появляется статистика посещаемости: популярность того или иного места — невероятно ценная информация.
К 2020 году геолокационные сервисы могут стать чем-то вроде «Википедии» реального мира. "На каждый физический объект, будь то кинотеатр, музей или обычный дом, можно будет наложить виртуальную надпись. То есть появятся «виртуальные граффити», и мы сможем «писать на стенах». Разовьются и другие аспекты дополненной реальности", — обещает Сергей Бурков.
Помимо этого получит развитие идея, которой, по данным эксперта, сейчас занимается огромное количество стартапов — когда, например, несколько друзей собираются в определённом месте и они могут легко обмениваться личными сообщениями через программу. И естественно, появится компания, которая начнет фильтровать информацию, поступающую от геолокационных сервисов. А их монетизация, по версии Буркова, будет строиться на уже упомянутых купонных сервисах: заработают в полную силу программы лояльности и «локальные купоны».
После таких прогнозов возникает резонный вопрос: неужели кроме соцсетей, «Твиттера» и бесконечных «чекинов» иных глобальных тенденций в сфере интернет-технологий не предвидится? Естественно, мы экстраполируем лишь то, о чём уже знаем, и наше знание таким образом не может превышать нашего (пусть коллективного) опыта.
Когда-то Землю представляли плоской и покоящейся на спинах трёх слонов. Теперь нам кажется, что пространство и события измеряются «Фейсбуком», «Твиттером» и Forsquare. По этим «слонам» рисуют современные карты технологического ландшафта, в них верят инвесторы. Возможно, они правы, но не исключено, что настоящее мироустройство на самом деле куда сложнее.
Опубликовано 06 октября 2011 года
Приблизительно год назад по новостным лентам прошло сообщение о начале процесса покупки фирмой Intel компании McAfee. За туманными заявлениями для прессы профессионалы сразу уловили новый вектор развития систем информационной безопасности – сращивание аппаратных и программных средств, для обеспечения комплексной защиты вычислительной платформы.
До настоящего времени процессоры содержат только блоки контроля разграничения привилегий выполняемых программ, но эти системы внедрены в архитектуру х86 более двадцати лет тому назад (только вдумайтесь во временной масштаб!).
За все эти годы единственным архитектурным решением, улучшающим защиту информации на вычислительных системах, было внедрение NEX бита в структуру табличных преобразований виртуальной памяти. Аппаратура контролировала наличие данного бита в системных таблицах и блокировала выполнение кода в страницах памяти, помеченных этим битом. Иными словами, страницы памяти разделили на два типа. Страницы старого типа содержат данные и программный код (то есть всё что угодно), а страницы нового типа могут содержать только данные.
Это произошло более пяти лет тому назад одновременно с внедрением шестидесятичетырёхбитного режима, и оказалось малоэффективной мерой — хакеры научились обходить эту защиту. Была понятна и основная причина такой слабости: защитные механизмы работали на том же программном уровне, что и вирусные программы. Короче говоря, вирусы научились сначала отключать эту аппаратуру, а затем уже выполнять свои функции.
И вот, через пять лет, процессорные архитекторы снова взялись за решение проблем информационной безопасности. Факт дорогостоящей покупки однозначно говорил о том, что для решения этой задачи привлекаются не только мозги, но и серьёзные финансовые ресурсы. Значит, задумано что-то посерьёзней внедрения очередной локальной системы безопасности. Сразу возникает вопрос: а почему это произошло именно сейчас, что случилось такого, что пришлось заняться эти вопросом так серьёзно?
Конечно, можно ограничиться мыслью, что рынок «созрел», пора отправляться бизнесменам в Страну Дураков и выкапывать на поле чудес кучи «золотых сольдо». Но, думаю, есть ещё один фактор, который существенно повлиял на принятие такого серьёзного финансового решения. Этот фактор можно образно назвать фактором красного (жёлтого) дракона.
За последние годы география расселения хакерских команд существенно расширилась. Если раньше там безраздельно хозяйничали европейцы и американцы («сукины дети», конечно, но свои), то теперь явно с участием и поддержкой государства к ним присоединились китайские коллеги, а это уже фактор непредсказуемый и неконтролируемый. Видимо, озабоченность их деятельностью достигла той стадии, что решено было ограничить их активность «железными (кремниевыми) рамками». Но эту тему мы оставим для Бёрда Киви, наша история не об этом.
После информации об организационном масштабе (покупка фактически непрофильного актива) и огромной сумме вложений (называлась сумма в семь миллиардов долларов) стало понятно, что решаться проблема безопасности будет комплексно и радикально. Похоже, решили устранить самые принципиальные корневые проблемы — так сказать, «ахиллесовы пяты» самой архитектуры вычислительного процесса. Отложенные про запас, но очевидные для специалистов изменения и дополнения в архитектуре вычислительного процесса начнут постепенно реализовывать в кремнии.
Их, проблем, на уровне архитектуры вычислительного процесса не так уж и много, всего четыре, но они на протяжении последнего десятилетия терзают информационную безопасность, воплощаясь в разных ипостасях. Чисто программными методами с ними справиться не удаётся; настало время радикальных, «железных» решений.
Проблем четыре, и они разной природы. Три из них связаны с конкретными методами атак, а последняя проблема носит концептуальный характер. Перечислю с конца, благо этой темы мы уже краешком коснулись в данной статье.
На настоящий момент программная и аппаратная инфраструктура систем безопасности функционирует в лучшем случае на том же программном уровне, что и ядро операционной системы. Это позволяет внедряться в процессы контроля безопасности практически любому программному коду. Для исключения такой возможности необходимо ввести аппаратный механизм изоляции программ и аппаратуры информационной безопасности.
Инфраструктура защиты должна быть вынесена с уровня программирования, доступного операционной системе и тем более прикладным программам. Не вдаваясь в подробности, можно сослаться на печальный опыт внедрения защиты с использованием NEX бита: его просто научились отключать.
На данный момент в архитектуре х86/64 таких независимых уровня два: это уровень режима системного менеджмента (SMM режим) и уровень хоста Гипервизор. Кроме этого, у Intel есть один малоизвестный режим работы процессора – логический режим доверенного выполнения (XSMM). Если всерьёз подходить к борьбе с вирусами, то, конечно, аппаратура контроля вирусной активности должна управляться программами, работающими именно в этих режимах, хотя ничего не мешает ввести новый режим, специально заточенный под специфику решаемой задачи.
Кроме этого, для антивирусных программ пользовательского уровня и уровня ОС следует предоставить доверенный командный интерфейс, по типу реализованного в ТРМ-модулях. Заодно можно побороться с пиратами, на радость блюстителей авторских прав, заставив контролировать в точках старта программ наличие легальных сертификатов с помощью того же ТРМ-модуля.
С инфраструктурой понятно, теперь вопрос: что контролировать?
И здесь всё ясно. Методов пробоя информационной безопасности у хакеров и шпионов не так много, на первом этапе можно ограничиться контролем за самыми актуальными.
В сумме эти методы эксплуатируют всего ТРИ архитектурных уязвимости. Следовательно, можно поставить на аппаратный контроль нарушение архитектурных соглашений, которые декларируются, но не контролируются на настоящий момент. Пока звучит туманно, но думаю, из дальнейшего сразу станет понятным.
Первая и самая серьёзная архитектурная уязвимость — это однородность оперативной памяти: в ней все можно хранить в произвольном порядке. Конечно, имеются соглашения на уровне ОС о распределении адресных пространств, часть этих соглашений уже давно контролируется аппаратурой (в области ОС нельзя работать прикладным программам), но только часть. Атака, направленная на повышение уровня привилегий, как раз и эксплуатирует уязвимость в архитектуре, не защищённую аппаратурой. В области прикладных программ пока разрешено работать программам с привилегиями уровня ядра ОС, и именно этим пользуются хакеры.
Вторая архитектурная уязвимость — это наличие единого стека. В нём хранится как служебная информация (указатели на точки возврата из процедур), так и локальные данные программ. Соглашение о разделении и упорядочивании стека существует, но не контролируется аппаратурой. Атака через переполнение буфера как раз и эксплуатирует этот механизм методом подмены адреса точки возврата из процедуры. Следовательно, если поставить на контроль целостность адресов области стека, где хранятся указатели на точки возврата из процедур, то можно блокировать целый класс хакерских атак.
Третья архитектурная уязвимость — это равноправие программ, независимо от их источника загрузки в оперативную память. Максимум, что проверяется на данный момент, — это авторство, через цифровые подписи, ну и, видимо, уже скоро начнут контролировать наличие сертификатов на право использование программ. Как показывают недавние громкие скандалы, связанные с дискретизацией подписей и сертификатов, даже эти средства защиты не панацея. Нужно ранжировать непосредственный источник загрузки исполняемого программного кода. Одно дело — локальный диск, это максимальный уровень доверия; другое дело — съёмный носитель либо сетевой доступ (в большинстве случаев им совсем нельзя доверять). Если при загрузке информации (данных и программ) в оперативную память маркировать страницы памяти кодом устройства, с которого произведена загрузка, то становится возможным блокировать попытки запуска программ со съёмных устройств и сети. Атака по типу нашумевшего на весь мир компьютерного червя Stuxnet стала бы просто невозможной.
Всё это было известно и раньше, но контролировать до настоящего момента эти атаки пытались разными программными методами, создавая «песочницы», применяя аналитику и прочее... Всё это худо-бедно работало, но медленно и ненадёжно. С другой стороны, все три вышеперечисленные атаки имеют однозначные характерные признаки на аппаратном уровне. Эти признаки можно контролировать непрерывно, а не только в критических точках, как делается с помощью программных методов контроля, и, что немаловажно, — без потери быстродействия.
Если использовать хотя бы перечисленные выше методы аппаратного контроля, то можно предотвращать хакерские атаки на этапе попытки внедрения в целевую систему, а не по факту функционирования уже внедрённого вируса. А это уже дорогого стоит...
Собственно, всё это было ясно и три, и пять лет тому назад — думаю, не только мне, но и любому грамотному специалисту. Кому-то удалось эти достаточно очевидные мысли пропихнуть в мозги бизнесменов, и те начали вкладывать во всё это деньги.
Можно было на этом успокоиться, но мысль оказаться впереди планеты всей прочно засела уже в моём мозгу. Я решил обогнать Intel и неспешно приступил к работе, зная, что цикл разработки у них — где-то год-полтора, а значит, у меня времени для этого было предостаточно. Сказано — сделано: к 2011 году я все эти методы контроля за вирусными атаками реализовал на практике. Понятно, что не в кремнии, а на виртуальном оборудовании, которое было создано с помощью средств виртуализации. Тогда же была написана соответствующая статья, к ней приложены демонстрационные программы, чтобы всё, что было в статье, можно было пощупать на практике. Статья «вылёживалась», пережидая мёртвый сезон длинных новогодних каникул. А в это время появилась новость, что сделка по покупке McAfee завершена, и я понял, что нахожусь на верном пути. Опубликовал статью и угомонился в ожидании дальнейших событий.
Ждать пришлось недолго: текущей осенью мои прогнозы начали сбываться. На конференции IDF2011 фирма Intel совместно с McAfee анонсировали технологию аппаратной антивирусной защиты DeepSAFE, которая будет реализована в новых моделях процессоров, разрабатываемых фирмой Intel. Пока это общие слова и невнятные картинки, но посмотрите на скриншот: там красным цветом выделена прослойка между процессором и операционной системой. Подписана она словом DeepSAFE. Это как раз то, что и требовалось, — независимый уровень контроля за активностью вирусных атак. Как он будет реализован, нам пока не объяснили. Вариантов несколько, но суть не в конкретном решении, а в самой концепции.
Кроме этого во время анонса новых 22нм процессоров Ivy Bridge была описана технология защиты от повышения уровня привилегий SMEP (Supervisory Mode Execute Protection).
Данная технология контролирует уровень привилегий исполняемого кода, размещённого в адресном пространстве, выделенном для работы программам (Applications).
Именно эту защиту я реализовал на виртуальном устройстве в конце прошлого года, то есть и здесь угадал. У Intel она работает приблизительно так же, как и NEX бит. Но имеет одну слабость, даже по сравнению с NEX битом: она отключается сбросом единственного бита в управляющем регистре CR4. Видимо, это промежуточное решение и вскоре, при внедрении прослойки DeepSAFE, этот фокус уже не пройдёт.
Хотя данная аппаратура представлена только сейчас, но в официальной документации фирмы Intel это архитектурное решение уже нашло отражение. В новой редакции документации (том 3А), датированной маем 2011 г., но опубликованной во время проведения конференции IDF2011, имеется полное описание работы данного оборудования.
Таким образом, на данный момент два из четырёх предположений подтвердились. Будем ждать последующих новостей и делать ставки. Я, кстати, свои ставки уже сделал. Когда я сказал, что написал статью и угомонился, то немного слукавил. На самом деле угомонился я после того, как все эти методы запатентовал (сделал свою ставку). Запатентовал в России, не бог весть что, но всё же патент. И вот на данный момент я вынужден констатировать: мои права патентообладателя скоро будут нарушены... Когда? Вопрос риторический, так как ответ очевиден: когда эти Ivy Bridge начнут ввозить в Россию (патент, увы, локальный).
Кстати, это только один из патентов, а их у меня, совместно с фирмой «ЛАН-ПРОЕКТ», не один, а целых три. Так что когда начнут ввозить продукты с технологией DeepSAFE, то опять, похоже, станут нарушать мои права. Ну что сказать на это в заключение? Лично я этого так не оставлю, буду жаловаться!.. Путину!