Опубликовано 26 марта 2013
С технологией 3D-печати и биопринтерами в медицине связано много разработок, кажущихся фантастическими. Быстрое заживление обширных ран, воссоздание сосудов, клапанов, суставных поверхностей и в перспективе – послойная печать целых органов. Что возможно уже сейчас, и какие направления актуальны в медицинской 3D-печати?
Согласно тезисам Международной конференции 3B’09, биопечатью называется использование автоматизированных процессов при сборке из биологических материалов определённой плоской или объёмной структуры для нужд регенеративной медицины, фармакологических и цитобиологических исследований.
Параллельно в русскоязычной печати прижился и другой термин (калька с английского) – биопринтинг. Процесс действительно напоминает струйную печать, в которой вместо пигментов используются живые клетки. Это может быть монокультура клеток с конечной функцией (например, клетки внутренней оболочки сосудов) или взвесь плюрипотентных стволовых клеток, способных сформировать любую ткань.
Послойная печать тканей и органов создаёт базу для развития трансплантологии. Это направление способно решить множество актуальных медицинских проблем. В первую очередь снимаются вопросы долгого ожидания донорских органов, риск их отторжения и осложнений в связи с подавлением иммунитета.
Идея использовать клеточные культуры вместо чернил и создавать биологические ткани методами модифицированной струйной печати зародилась в конце прошлого века. Одной из первых публикаций о её успешном освоении можно считать статью Владимира Миронова и соавторов, вышедшую в апреле 2003 года в журнале Trends in Biotechnology.
Приставка 3D была использована в ней скорее как указание на перспективы работы, поскольку на тот момент в самом исследовании удалось создать один слой эндотелиальных клеток и полученную структуру нельзя было назвать объёмной. Главным достижением проведённого исследования была демонстрация самой возможности прецизионно размещать живые клетки методами струйной печати с сохранением их жизнеспособности.
На протяжении последующих лет каждая группа исследователей использовала свой вариант биопринтера и различные вариации методики распределения клеток. Первый серийно выпускаемый биопринтер появился в конце 2009 года. Он был изготовлен австралийской компанией Invetech по заказу американской Organovo. Последняя фирма была основана в 2007 году и уже спустя пять лет упоминалась в обзоре MIT среди наиболее инновационных компаний. Взгляните на следующий ролик.
Недавно Organovo заключила контракт с Autodesk. В известных системах автоматизированного проектирования органы будут чертить примерно так же, как детали для автомобилей и роботов.
С этапом проектирования особых вопросов не возникает, однако сам процесс печати при этом имеет важное отличие. «Биологические чернила» состоят из нескольких компонентов, которые надо точно дозировать так, чтобы «печатающие головки» не мешали друг другу. Над развитием многокомпонентной печати активно работает компания AMTecH.
Сейчас технология печати живыми клетками сдерживается массой факторов. Наивно полагать, что через год-два начнут печатать органы, а службу по заготовке донорских образцов можно будет упразднить. Помимо специфических сложностей в самой процедуре 3D-печати разными клетками есть целый ряд общих проблем.
Например, каждый орган требует «подключения» к нервной системе и разветвлённой сети кровеносных сосудов. Если проблема реиннервации ещё как-то решается современной трансплантологией, то питающая сеть сосудов нужна уже на этапе формирования органа. Кровеносная система даже на отдельных участках буквально пронизана хитросплетениями. Собственные сосуды есть и во внешних оболочках артерий и вен, а порядок ветвлений внутри органа часто превышает десять уровней.
Напечатать кровеносный сосуд пока ещё сложно даже на уровне концепции. Это не эластичная трубка заданного диаметра, как представляется большинству людей с техническим образованием. У сосудов каждого типа есть важные особенности, которые необходимо уметь воспроизвести.
Артерии и вены состоят из слоёв разных клеток, которые образуют специфическую пространственную структуру. Она позволяет каждому сосуду взаимодействовать с другими и с организмом в целом. Даже диаметр пор в стенках и локальный тонус регулируются очень непросто.
Сейчас в рамках исследований уровня доказательства концепции удаётся напечатать лишь единичные мелкие сосуды и отдельные фрагменты крупных. Пока не решится проблема полноценной васкуляризации органов в процессе объёмной печати, пытаться создать их бесполезно.
Говоря о более реалистичных задачах, часто упоминают кожу. Иной раз её приводят как пример перспективного направления двумерной биопечати, но кожа кажется простой тканью только до тех пор, пока не попытаешься её воссоздать. Один только эпидермис состоит из пяти слоёв. Их структура разная, как и морфология кератиноцитов. Нельзя просто взять, напечатать и приживить лоскут кожи, хотя вы найдёте множество статей, описывающих «успешные эксперименты». Почему же так получается?
Одна из причин заключается в том, что клеточная культура в биопринтере смешивается с гидрогелем. В последнее время именно с гидрогелями связаны определённые успехи. Им научились придавать множество интересных свойств, в том числе физических, антибактериальных и фунгицидных.
Попадая на раневую поверхность, гидрогель выполняет ту же функцию, что и в клеточной культуре из биопринтера. Он создаёт объёмную пористую микроструктуру для миграции клеток и служит для них опорой. Регенерация происходит эффективнее, а рана внешне заживает гораздо быстрее и аккуратнее.
Если в наносимой смеси была ещё и какая-то часть размноженных клеток, возможно, они тоже сыграют некоторую положительную роль. Впрочем, на сегодня более вероятно, что они замедлят регенерацию и чистый гидрогель окажется предпочтительнее. Печать заплаток для раневых поверхностей – дело будущего, но пока ещё не настоящего.
Решать озвученные проблемы планируется в первую очередь за счёт использования свойства самоорганизации живой материи и усиления регенеративных возможностей. Гидрогель и другие соединения сейчас выполняют важную функцию опоры, но в будущем от этих костылей надо постепенно избавляться. Считается, что достаточно воссоздать базовую структуру органа, а более специфические детали в нём сформируются самостоятельно. Основной вопрос заключается в том, как заставить искусственный орган правильно «дозревать» вне организма.
Существующие достижения – это не просто задел на будущее. Помимо перспективной задачи изготовления органов, у биопечати есть и другие применения. Основное направление, уже дающее плоды сегодня, – токсикологические исследования различных веществ и новых фармацевтических препаратов без использования лабораторных животных.
Дело здесь не столько в этике, сколько в целесообразности. Токсикологические эксперименты на лабораторных животных характеризуются относительно низким показателем воспроизводимости результатов. Вдобавок они требуют эмпирических методов пересчёта для учёта отличий в строении человека.
Концептуально сходный исследовательский приём – моделирование патологических процессов с целью изучения ключевых механизмов их развития. На животных это делать непродуктивно, а идентичная ткань будет практически идеальной моделью. Упомянутая Organovo в 2013 году начала сотрудничать в этом направлении с Институтом проблем рака при университете штата Орегон.
В целом биопечать позволяет оценить многие аспекты влияния различных веществ и процессов непосредственно на тех клетках, которые являются основными мишенями для новых препаратов. Наиболее полноценно это можно сделать в рамках концепции «лаборатория-на-чипе», о которой «Компьютерра» уже писала.
Наибольший интерес проявляется к грантам на послойное создание из живых клеток работающей и пригодной для трансплантации почки. На втором месте стоит задача биопечати печени и поджелудочной железы. Эти тему в последние годы относительно щедро финансируют NASA, DARPA, другие крупные агентства и неправительственные организации. Однако сначала всё же попытаются создать простые полые органы, и только затем придёт очередь более сложных – паренхиматозных. В настоящее время исследователи отмечают, что при существующих темпах развития отрасли доли первых органов можно будет напечатать не ранее чем к 2030 году. Берегите себя! Менять запчасти по гарантии нам будут ещё не скоро.
Опубликовано 26 марта 2013
Если в середине 1990-х компьютерные игры с завышенными системными требованиями могли провалиться в продажах, то уже в начале 2000-х именно игры повышенной требовательности сделались основным локомотивом продаж нового компьютерного «железа». Исходя из той здравой, казалось бы, мысли, что далеко не все готовы покупать топ-модели, производители начали «диверсификацию» своей продукции, и вот сейчас на рынке — огромное количество похожих по заявленным характеристикам процессоров (обычных и графических), и надо иметь усердие зоолога или ботаника, чтобы разбираться, чем они отличаются друг от друга при практическом использовании. Производители игр тоже, мягко говоря, не в восторге от такой фрагментированности платформы PC: слишком много ресурсов уходит на то, чтобы обеспечивать совместимость со всеми разновидностями процессоров и графических карт. В результате и для разработчиков игр, и для геймеров, которые не могут себе позволить топовые игровые платформы, очень соблазнительной выглядит идея вывести все вычисления, связанные с графикой (и даже, возможно, с игровой логикой), за пределы пользовательской платформы. Например, на «облако».
Преимущества подобного подхода, казалось бы, налицо: на сервере можно рендерить всё что угодно, так что в теории становится возможным видеореализм, подлинная трассировка лучей в реальном времени, неограниченное количество полигонов и так далее. Но только в теории.
На пользовательское устройство передаётся уже только видеосигнал, а для его отображения гипермощного видеопроцессора не требуется. Для разработчиков и издателей плюсы тоже очевидны: поскольку на стороне пользователя будет только «тонкий клиент», а сам игровой контент останется на сервере, проблема пиратства либо снимается вовсе, либо её острота значительно снижается. Но слишком много появляется и проблем. Главная из них — это толщина канала связи и количество других факторов, влияющих на скорость соединения между пользовательским устройством и «облаком».
Тем не менее попытки реализовать что-то подобное предпринимались раньше и, вероятно, будут предприниматься и впредь.
Год назад в беседе с корреспондентом «Компьютерры» директор по продажам подразделения AMD Component Channel в регионе EMEA Бертран Кокар заметил, что лично для него следующая веха в ИТ-мире наступит, «когда весь рендеринг будет осуществляться на сервере, а не на вашем компьютере»:
- Всё упирается в алгоритмы сжатия информации. Не в 2012 году, но в последующие годы что-то подобное произойдёт непременно. Сегодня всё больше люди играют через интернет, а не индивидуально на своих десктопах.
Как ни странно, наступления этой «новой вехи» ждут уже более десятилетия: ещё в 2000 году компания G-Cluster представила на Е3 свою технологию, где весь рендеринг и расчёты проводились на сервере, после чего графика перебрасывалась на ручные консоли через беспроводные соединения. В конце февраля 2013 года G-Cluster и Konami объявили о заключении партнёрского соглашения, в рамках которого в игры Konami можно будет играть на любом телевизоре, подключённом к широкополосному каналу связи.
«G-Cluster превращает телевизор в эквивалент игровой консоли, при этом необходимость в приобретении дорогостоящего оборудования отсутствует», — указывается в пресс-релизе обеих компаний. Там же говорится, что первые «облачные» игры будут объявлены уже этой весной. Ждём-с.
В свою очередь, Crytek ещё в 2005 году начала изыскания в области «облачного гейминга» для игры Crysis, но в 2007 году приостановила разработки, сославшись на то, что существующая сетевая инфраструктура, мягко говоря, не совсем готова.
В 2010 и 2011 годах были запущены сразу несколько сервисов, предоставлявших (и предоставляющих) услуги облачного гейминга. Это, во-первых, Onlive, во-вторых, Jeuxvideo a la demande, базирующийся на технологии вышеупомянутых G-Cluster, в-третьих, Gaikai, в четвёртых, китайский сервис Cloud Union, который к июлю 2012 года набрал 300 тысяч пользователей. Впрочем, для Китая это капля в море.
В том же июле 2012 года Sony выкупила за 380 млн долларов сервис-провайдер Gaikai, к тому моменту уже крупнейший в мире. К моменту покупки сервис предлагал более 200 игровых наименований, а аудитория составляла порядка 50 млн человек.
Ну а в августе 2012 года стало известно, что OnLive уволил большую часть персонала, а в октябре был продан некоей венчурной фирме за вшивые, простите, 4,8 млн долларов, притом что даже тогда ещё капитализация сервиса оценивалась в несколько сотен миллионов долларов. В общем, печальная и вряд ли красивая история.
В 2012 году на выставке GPU Technology conference NVidia представила свою концепцию «виртуализации GPU», а также технологию, которая позволяет использовать графические процессоры в качестве основы для крупных дата-центров («облаков», собственно).
«Облачные GPU-технологии основываются на новой архитектуре Nvidia Kepler GPU Architecture, предназначенной для использования в крупномасштабных дата-центрах. Её виртуализационные возможности позволяют одновременно использовать одни и те же GPU сразу несколькими пользователями. Её сверхскоростная передача потоковых данных устраняет все задержки, так что складывается впечатление, будто удалённый дата-центр находится за соседней дверью. А её высочайшая энергоэффективность и плотность обработки данных снижают стоимость владения таким дата-центром», — говорится в пресс-релизе.
Реализация архитектуры Kepler сразу же пошла в двух направлениях — платформа VGX для виртуализации десктопов для корпоративного сектора и GeForce GRID для облачного гейминга.
Если говорить о технике, то основу системы Grid составляет, собственно, игровой сервер размером 2U, в котором располагаются 12 GPU Nvidia. Каждый из этих GPU способен обслуживать одновременно двух пользователей (таким образом, каждый сервер обслуживает до 24 человек одновременно). Если нужно больше пользователей, потребуется больше серверов. Серверный рэк с 20 серверами способен, соответственно, обслуживать 480 пользователей, потребляя при этом 800-900 Вт энергии в нагруженном состоянии.
Главной проблемой для всех подобных затей, однако, остаётся задержка в интерактивности. Особенно это касается шутеров, где доли секунды решают всё. Одна из причин провала OnLive заключается как раз в том, что они толком не смогли победить эту задержку. Да и невозможно её победить в настоящее время. Сказываются географическое расстояние от пользовательского устройства до физического размещения дата-центра, в котором располагается игровое «облако», количество сетей разных провайдеров, по которым идёт сигнал, состояние этих сетей и задержки в них. В общем, неизвестных очень много.
NVidia, конечно, делает всё, что может: в частности, собственные технологии кодирования видео позволяют «экономить» до 30 мс на стороне сервера (плюс ещё 10 мс на стороне пользователя, если у него самого установлены собственные графические процессоры NVidia). Но опять же, NVidia не в состоянии привести к нужному уровню качества сети провайдеров — по объективным причинам.
В целом предполагается, что «игровой» поток будет поставляться на любые устройства с разрешением от 720 p до 1080 p (HD или FullHD). Даже на смартфоны, если они такое разрешение поддерживают. Главное условие — наличие канала со скоростью передачи 6 Мбит/с.
Но при этом ни о какой суперграфике, которой можно было бы ожидать от «облачного» сервиса, речи не идёт: качество графики в играх не превосходит то, которое сегодня могут обеспечить игровые компьютеры среднего уровня. Как подсчитали в Ars Technica, на каждый рэк приходятся по 200 терафлопсов; это 240 GPU, по два пользователя на каждого. В результате на каждого конкретного пользователя приходятся по 417 гигафлопсов. Это примерно вдвое больше, чем даёт XBox 360, однако эта консоль уже давно не может считаться «референсом» производительности. 417 гигафлопсов примерно соответствуют мощности игровой карты GeForce GT 640, также далеко не топовой на сегодняшний день модели.
NVidia, в частности, по-прежнему хочет продавать свои топовые модели графических карт заядлым игрокам (и не только им), так что ожидать от них виртуализации лучших из лучших GPU было бы на данный момент опрометчиво.
Это касается, в принципе, далеко не только предложений NVidia. Достаточно посмотреть, какие именно игры сегодня предлагаются поставщиками «облачно-игровых услуг»: Gaikai предлагает Dead Space 2, Mass Effect 2, Sims 3 (Gaikai, PC).
Как «облачный» позиционируется сервис Core Online игрового издателя Square Enix. Он позволяет играть через браузер в Hitman: Blood Money, Lara Croft and the Guardian of Light, Mini Ninjas, Tomb Raider: Underworld. Однако, как выясняется, рендеринга на стороне сервера не осуществляется: просто, как и в случае, например, с QuakeLive, на компьютер закачивается часть игрового клиента.
А её не будет. Во всяком случае, до тех самых пор, пока на бытовой уровень не придёт производительность кластеров сегодняшних самых передовых графических ускорителей. То есть в ближайшие несколько лет ждать чего-то выдающегося не стоит, если только не случится какого-то радикального прорыва в области производительности. Потому что сейчас для того, чтобы получить такую «суперграфику», потребуется, чтобы один рэк с 20 серверами GRID обслуживал не 480 пользователей одновременно, а одного. Что совершенно нецелесообразно в экономическом плане.
Так что пока облачный или потоковый гейминг — это не более чем трансляция игр двух-, трёх-, четырёхлетней давности на любые устройства; со множеством ограничений и, как уже сказано, массой потенциальных проблем, связанных с качеством каналов. И никаких особых чудес.
Лет через десять, видимо, мы будем со смехом вспоминать, как сегодняшние провайдеры пытались впечатлить друг друга и потенциальных клиентов размерами своих мегабит-в-секунду, а производители графических карт и CPU — гигагерцами и количеством ядер. Но как к тому времени сложится судьба потокового гейминга? В настоящий момент не видно никаких особых предпосылок к тому, чтобы он грозил кому-то какой-либо революцией, особенно ввиду того, что в самом скором времени ожидается появление следующего поколения игровых консолей.
Кстати, в конце февраля Gaikai пообещал, что для Sony Playstation 4 будет представлен потоковый сервис с играми для Playstation, Playstation 2 и Playstation 3. Этот сервис позволит решить любые проблемы с обратной совместимостью: аппаратная будущей PS4 часть в игровом процессе будет задействована лишь постольку-поскольку. Собственно, это вот один из самых практичных, так сказать, способов применения «облачного гейминга» на сегодняшний день…
Опубликовано 25 марта 2013
Компьютерам, умеющим самостоятельно адаптироваться к изменяющейся ситуации, совсем не нужно быть разумными по-человечески. На Земле есть существа, которые, несмотря на свою примитивность, успешно решают сложнейшие проблемы — и делают это решительно не человеческими методами. Не стоит ли поучиться у них?
Вспомните муравьёв. Эти насекомые образуют поразительно сложные коллективы, для описания которых требуются слова, почти никогда не применяемые в отношении животных. Они используют разделение труда. Они воюют и обращают пленников в «рабство». У некоторых видов есть даже что-то вроде сельского хозяйства: они разводят съедобные грибы и пасут тлю, выделяющую сладкое вещество, которое муравьи употребляют в пищу.
При этом отдельные муравьи не отличаются умом даже по меркам насекомых. Мозг муравья состоит всего из 250 тысяч нейронов. По этому показателю они уступают не только пчёлам, но даже тараканам, у которых целый миллион нейронов (у человека, для сравнения, их 86 миллиардов). Об уровне интеллекта нельзя судить лишь по количеству нейронов, но в данном случае эту цифру подкрепляют и другие факты. Многие виды насекомых обладают более разнообразными поведенческими реакциями, чем муравьи.
Как может сочетаться такая сложность с такой простотой? Ответ на этот вопрос учёные выяснили не сразу. В 1953 году молодой энтомолог Эдвард О. Уилсон поставил перед собой задачу: разобраться, как муравьи-разведчики передают рабочим муравьям информацию о том, где находится найденная ими еда.
Очевидно, что они не могут объяснить это на словах — у муравьёв нет речи. И не только речи — они вообще не издают звуков, да и слух у них, как правило, так себе. Пчёлы кодируют навигационные сведения в замысловатых «танцах», но за муравьями не водится ничего подобного. Муравьи большинства видов не отличаются хорошим зрением, что закрывает для них такой метод общения. Если не зрение и не слух, то что же? Остаётся запах.
Правдоподобная догадка — это хорошо, но на одних догадках далеко не уедешь. Необходимо экспериментальное подтверждение (или, если не повезёт, опровержение). Уилсон обустраивает искусственный муравейник из оргстекла, населяет его огненными муравьями и начинает наблюдения.
Вскоре он замечает, что муравьи, возвращающиеся с добычей, волочат брюшко по земле — вероятно, выделяя при этом вещество, которое могут учуять другие. Это уже весомый довод в пользу предположения, что коммуникация происходит химическим путём, но довода этого по-прежнему мало.
Следующий шаг — определить, какое вещество выделяют эти насекомые. Уилсон начинает препарировать муравьёв, пытаясь найти источник того самого запаха. Это не так уж просто: в огненном муравье не больше трёх-четырёх миллиметров, а брюшко — и того меньше.
Учёный проверяет орган за органом, но муравьи никак не реагируют на их запах. Наконец, он обнаруживает крохотную железу непонятного назначения — и муравейник сходит с ума. Муравьи наперегонки бросаются к мазку вещества из этой железы. Уилсон пишет этим веществом своё имя, и через мгновенье сотни муравьёв заполняют проложенную дорожку, складываясь в латинские буквы.
Позже «сигнальные» вещества вроде того, которое нашёл Уилсон, назовут феромонами. Лексикон среднего муравья состоит из десятка-другого феромонных сигналов. Встречая их, он действует как конечный автомат: без вопросов и размышлений переходит к алгоритму, который соответствует сигналу, и отрабатывает его до тех пор, пока не произойдёт переход в другое состояние.
Вот прекрасный пример того, насколько жёстко запрограммированы реакции муравьёв. Когда муравей гибнет внутри муравейника, поначалу никто не обращает на него внимания, даже если он лежит на пути и мешает движению. Через пару дней его разложение приводит к образованию олеиновой кислоты. Запах олеиновой кислоты — это сигнал.
Первый же муравей, учуявший его, переходит в режим могильщика: он хватает источник запаха и тащит на свалку. Действительно ли это муравей и мёртв ли он — не играет роли. Если измазать в олеиновой кислоте здорового муравья, его так или иначе выкинут из муравейника. Сопротивление бесполезно: лишь когда запах выветрится, муравью позволят «вернуться в мир живых».
Окрестности каждого муравейника покрыты густой сетью невидимых химических записей. Эта сеть представляет собой своего рода внешнюю память колонии. Муравьи следуют записанным в ней инструкциям с беспрекословностью компьютеров, исполняющих программу, попутно дописывая, улучшая и отлаживая её.
Создание невидимой феромонной программы начинается с муравья, который сбился с готовой дорожки. Без неё он вынужден хаотично рыскать в окрестностях муравейника, разыскивая еду для колонии. Найдя что-то, заслуживающее внимания, муравей возвращается в гнездо, оставляя за собой пахучий след.
«Внешняя память» муравьёв не застрахована от ошибок. Если феромонный путь замкнётся, муравьи попадут в бесконечный цикл, из которого нет выхода. Каждый новый круг по замкнутому маршруту усиливает запах следа, привлекая всё новых и новых жертв. Так продолжается до тех пор, пока муравьи не погибнут от истощения.
Новые добытчики движутся уже по его следам, и каждый из них тоже отмечает пройденный путь феромонами. Чем больше муравьёв достигают хлебного места и возвращаются обратно, тем мощнее становится феромонный след.
И вот тут есть интересная подробность: муравьи далеко не сразу выстраиваются гуськом и идут друг за другом след в след. Пока запах слабый, они добираются до цели как придётся и часто отклоняются от траектории, по которой следовал разведчик и которая, скорее всего, далека от идеала.
Рано или поздно кому-то удаётся наткнуться на более короткий и быстрый маршрут. Пока другие добираются до цели окружной дорогой, этот муравей и его последователи успевают совершить три захода. В результате их феромонный след усиливается гораздо быстрее. Запах привлекает других муравьёв, и вскоре самый короткий путь превращается в главную магистраль. Менее удачные дорожки оказываются заброшены и постепенно утрачивают запах.
Что произошло? Муравьи нашли оптимальное решение довольно сложной задачи. Даже их ошибки и случайные блуждания в итоге принесли пользу: с их помощью колония изучила все возможные варианты, а затем сделала выбор в пользу лучшего.
Если найденную дорогу перегородит препятствие, процесс повторится: муравьи ринутся в обход, найдут несколько альтернативных вариантов, кратчайший путь быстрее накопит феромонные следы, победит более длинные и всё вернётся на круги своя. Нарушенная программа скорректируется.
Тут самое время перейти от компьютерных метафор к настоящим компьютерам. В 1991 году особенности поведения муравьёв привлекли внимание бельгийского математика Марко Дориго. Он заметил, что муравьи фактически занимаются решением задачи коммивояжёра и это у них неплохо получается.
Задачу коммивояжёра обычно формулируют следующим образом: проложите наиболее выгодный маршрут, по которому следует отправиться странствующему торговцу, если необходимо посетить такие-то города, а в финале вернуться в исходную точку. Множество практических задач, начиная с проектирования микропроцессоров и заканчивая секвенированием ДНК, сводится к той или иной вариации на эту тему.
Для человека поиск решения не составляет труда (достаточно одного взгляда на карту), а вот для компьютера задача коммивояжёра — это грандиозная проблема. Дело в том, что её нельзя решить «в лоб». Маршрутов оказывается невероятно много даже при относительно скромном количестве городов. Так много, что их невозможно перебрать и проанализировать по очереди. Приходится искать лазейки и хитрить.
Дориго предположил, что компьютерную модель поведения муравьёв можно использовать для поиска пути, проходящего через заданные вершины графа. Виртуальные муравьи, стартуя из исходной точки, будут тестировать различные маршруты, отмечая виртуальными феромонами вершины, где они побывали. Спустя несколько итераций оптимальный путь станет очевиден: вершины, через которые он проходит, накопят больше всего отметок.
Метод назвали алгоритмом муравьиной колонии. С одной стороны, он положил начало исследованиям в области так называемого «интеллекта роя» — области информатики, изучающей алгоритмы, основанные на тех же принципах, что и самоорганизация и спонтанный порядок в природе. С другой стороны, его хоть и осторожно, но начинают применять на практике.
Малоизвестный факт: персонажи игры Sims спроектированы по образу и подобию муравьёв. Уилл Райт, придумавший Sims, разрабатывал симулятор муравейника SimAnt, и результат настолько впечатлил его, что он решил воспроизвести удачный подход в новом проекте. Каждый предмет в игре распускает невидимые «феромоны» определённого типа: еда, энергия, гигиена, общение или развлечения. Когда у персонажа возникает какая-то потребность, он направляется по самой сильной феромонной дорожке соответствующего типа.
Один из пионеров в этой области — швейцарская компания AntOptima, в 2001 году отпочковавшаяся от располагающегося в Лугано Института Далле Молле по изучению искусственного интеллекта. За прошедшее с тех пор время она успела внедрить продукты, основанные на алгоритме муравьиной колонии, в несколько европейских компаний.
Один из крупнейших клиентов AntOptima — главная швейцарская сеть супермаркетов Migros. Муравьиный алгоритм используется для организации движения 1200 грузовиков, которые развозят товары по 600 магазинам, разбросанным по всей Швейцарии. Задача усложняется тем, что, во-первых, автопарк Migros неоднороден и состоит из трёх видов грузовиков разной вместительности и, во-вторых, часть магазинов не приспособлена для разгрузки некоторых типов грузовиков.
В AntOptima разработали замысловатую модификацию алгоритма муравьиной колонии, учитывающую все эти тонкости. Используется не один «муравейник», а два: один оптимизирует расстояние, а другой — сроки доставки. Чтобы учесть разнотипность транспорта, муравьям случайным образом присваивается один из типов грузовиков. Алгоритм запускают каждое утро, чтобы получить маршруты для каждого грузовика на весь день.
Схожая проблема стояла перед корпорацией Air Liquide, занимающейся производством сжиженных газов, используемых в промышленности и медицине. У корпорации около сотни заводов в Соединённых Штатах, ежедневно отправляющих продукцию в шесть тысяч пунктов, находящихся в разных частях континента. Для доставки применяются четыре сотни грузовиков, железная дорога и трубопроводы. Кроме того, для полноты картины нужно учитывать стоимость электроэнергии. Она не только везде своя, но ещё и постоянно меняется.
Систему, ежедневно планирующую эффективную доставку с учётом всех этих факторов, для Air Liquide написали в компании BiosGroup. Любопытный побочный эффект: идеальные маршруты оказались настолько противоестественными, что поначалу вызвали ропот у водителей. Алгоритм запросто мог отправить машину к дальнему заводу, пропустив завод, который находится рядом с клиентом. При ближайшем рассмотрении неизменно оказывалось, что прав он, а не люди: если учесть не только расстояние, но и все прочие факторы, сделать крюк бывает выгоднее.
Во France Telecom муравьиный алгоритм попытались применить для маршрутизации информации в сети. Проектом руководил эксперт в области сложных систем Эрик Бонобо. «Компьютерра» рассказывала об этом в 2004 году:
Бонобо разработал специальные программные агенты, которые могут пересылаться по сети от маршрутизатора к маршрутизатору как сообщения. Когда агент достигает маршрутизатора, он оставляет на нём особую пометку. Если там побывал не один агент, а несколько, их пометки скапливаются. Одним словом, всё как у муравьёв.
Как ни странно, этот подход сработал. И даже ошибки, которые неизбежно возникают поначалу, постепенно сами собой исчезли. «У общественных насекомых ошибки и случайное поведение не приводят к сбоям, — объясняет Бонобо. — Наоборот, делая ошибки, они добиваются успеха и отыскивают новые способы решения проблем в дополнение к старым».
Есть и другие примеры. Подражание муравьям неплохо помогает и в управлении группами автономных роботов (в этой области экспериментировал Виджай Кумар из университета Пенсильвании, сейчас более известный своими роящимися квадрокоптерами), и в борьбе с пробками на дорогах, и даже при решении некоторых задач в области искусственного интеллекта (впрочем, чему тут удивляться: специалисты подозревают, что между взаимодействиями нейронов в мозге и отдельных особей в рое есть много общего).
Впрочем, одна из интересных возможностей пока остаётся нераскрытой. Все описанные модели муравейника, как правило, просчитывались на единственном компьютере. А ведь у интеллекта муравейника есть редкое достоинство: его работа потрясающе распараллеливается, поскольку муравьи действуют хоть и с общей целью, но при этом совершенно независимо друг от друга. Ситуация, в которой это качество будет полезным, может возникнуть совсем скоро.
Если верны прогнозы, согласно которым вот-вот наступит время интернета вещей и повсеместного компьютинга, вскоре инженерам придётся думать, как наладить автоматическое взаимодействие десятков, а то и сотен независимых устройств. Возможно, ответ дадут как раз наблюдения за общественными насекомыми вроде муравьёв.
Опубликовано 29 марта 2013
Новости о том, что какая-то из крупных компаний потратила энную сумму денег, чтобы присоединить к себе очередной стартап, настолько привычны, что им редко придают особое внимание — в особенности если стартап занимался технологиями, а не потребительскими продуктами. Но если за чьими-то покупками и стоит следить, так это за Apple. Дело в том, что в Apple (в отличие от тех же Google и Microsoft) редко размениваются на что-то, чего нельзя будет воплотить в законченном виде, причём как можно скорее. Примеров этому множество: от iTunes до Siri. И то и другое было создано сторонними компаниями, а потом вовремя попалось на глаза руководству Apple.
Последнее приобретение Apple — небольшая калифорнийская компания WiFiSLAM, занимавшаяся разработками, связанными с картографией и определением местоположения по Wi-Fi. Прототип приложения WiFiSLAM работал на Android и какое-то время был доступен в магазине Google Play, однако после сделки с Apple приложение оттуда исчезло. О том, что конкретно изобрели в WiFiSLAM, теперь можно узнать лишь из презентации, загруженной на YouTube в сентябре 2012 года.
В WiFiSLAM изобрели способ использовать телефоны для автоматического составления карты помещения, в котором находится пользователь или пользователи. Основной принцип здесь очень похож на систему A-GPS (Assisted GPS), использующуюся во всех современных смартфонах: когда сигнал спутника геопозиционирования становится недоступным, телефон переключается на триангуляцию по ближайшим точкам Wi-Fi. Но в WiFiSLAM пошли дальше и научились вычислять отражения сигнала от стен с тем, чтобы определять местоположение перегородок. После того как накопится достаточно данных, программа сама составит карту здания.
Одного только сигнала Wi-Fi в данном случае недостаточно, и в WiFiSLAM используется множество других трюков. Благодаря показателям гироскопа определяются лестницы, а акселерометр подключается к делу в те моменты, когда пользователь ходит, держа телефон перед собой, и совершает повороты. Задействован даже магнитометр, но не только в качестве компаса: в зданиях достаточно магнитных полей, чтобы использовать их конфигурацию для определения местоположения.
Настоящее же волшебство происходит в тот момент, когда приложение WiFiSLAM складывает карту из всех полученных данных. Она не обязательно напоминает ровный план, начерченный строителями, но чем больше пользователей будет ходить туда-сюда, тем лучше она станет. WiFiSLAM накапливает данные на сервере, и каждый новый пользователь, во-первых, получает уже собранные данные, а во-вторых, непрерывно пополняет их.
Ещё одна интересная функция заключается в том, что карты, составленные по Wi-Fi, можно сопоставлять с обычными. Тогда на экране будет аккуратный план этажа, а определять координаты приложение будет по Wi-Fi. В старом демонстрационном видео показано, как это работает с планом, сфотографированным прямо на телефон.
По лёгкости внедрения такое решение многократно превосходит все нынешние разработки. К примеру, лучшее, что смогли придумать в Nokia, — это развешивать в публичных местах маячки, по которым могли бы ориентироваться телефоны. Нужно ли говорить, что развёртывать такую систему сложно и дорого?
Представьте теперь, что WiFiSLAM — это не тестовое приложение, созданное крошечным стартапом, а функция, встроенная в каждый iPhone, iPad и iPod touch. С какой скоростью их обладатели составят карты всех территорий на свете, покрытых сигналом Wi-Fi? Уже через год после того, как эту функцию встроят в новое поколение устройств, у Apple на руках окажутся детальные карты зданий во всех крупных городах.
Apple к тому же располагает куда большими возможностями, чем молодой стартап. Во-первых, приложение теперь сможет работать на системном уровне, а во-вторых, в Apple полностью контролируют не только программную, но и аппаратную часть платформы. Ради восхитительной новой функции фирма легко может установить в телефон новые датчики или иное оборудование.
Весной 2012 года компания Broadcom анонсировала чип BCM4752, который, тратя минимум ресурсов телефона, постоянно отслеживает перемещение пользователя в пространстве. Если скрестить это с картами WiFiSLAM, то можно улучшить результаты и снизить энергопотребление.
Какие перспективы нас ждут, когда Apple встроит WiFiSLAM в новые устройства? В первую очередь, в компании наверняка обратят внимание на карты публичных помещений вроде супермаркетов или офисных зданий. В Google Maps такие карты уже потихоньку добавляют, и они крайне полезны. В идеале телефон должен научиться показывать направление внутри зданий не хуже, чем автомобильный навигатор на дороге.
Но телефоны, знающие о существовании комнат, полезны не только для навигации, но и тогда, когда находишься в хорошо знакомом помещении — на работе или дома. Представьте, что Siri можно будет попросить всегда выключать звук звонка в конференц-зале или, например, в детской комнате. Будущее — за приложениями, учитывающими контекст, и с их помощью можно делать многие интересные вещи. Напоминания, срабатывающие при приближении к заданной точке, — это лишь самый простой из примеров. Такая функция в iOS уже доступна, и она сильно выиграет, если в качестве цели можно будет выбрать комнату, а не целый дом.
«А как же приватность?!» — спросит читатель, не любящий упускать из виду столь важные вопросы. Мы все не раз видели в кино, как злодеям (или, наоборот, героям, но в данном контексте это не важно) помогает одна только карта помещения, в которое предполагается проникнуть. Такая карта теперь будет у Apple!
К приватности в Apple обычно относятся по возможности строго, и операционная система iPhone при настройке пользовательской записи всегда спрашивает, можно ли включать геопозиционирование или анонимно отправлять на сервер статистику. Но сколько людей отвечают на эти вопросы, не читая их? Сколько вообще не подозревают о существовании этих пунктов, потому что поручили настроить телефон кому-то другому?
Можно сказать, что в таких случаях всё на совести самих пользователей. Но не в этот раз. Представим, что человек отлично осведомлён о том, что телефон может тихо рисовать карту его дома, и сознательно отключил эту функцию, не желая делиться с Apple планом своего жилища. Но вот к нему пришли друзья, у каждого из которых в кармане лежит по мобильному телефону. Если начать просить их немедленно прекратить сбор данных, то в ответ можно услышать обвинения в паранойе и прочие подтрунивания. Уж не спрятана ли где-нибудь тайная дверь в лабораторию по изготовлению метамфетамина?
Перед нами, похоже, всё острее встаёт выбор: без оглядки пользоваться новыми возможностями либо выбросить телефон, отключить Wi-Fi, экранировать стены и сидеть в шапочке из фольги. Уж тогда вопросов ни у кого точно не возникнет!
Опубликовано 29 марта 2013
О грядущем буме носимых компьютеров говорят давно. В многочисленных концептах доминируют очки дополненной реальности и модели, закрепляемые на запястье. Из-за неопределённости термина трудно провести чёткую грань между умными контроллерами и собственно компьютерами, с которыми пользователь будет практически неразлучен. Например, устройство профессора Стива Мэнна (Steve Mann), созданное в 1981 году для управления осветительным оборудованием, вряд ли сейчас назовут компьютером. В то же время недавно представленный контроллер MYO от Thalmic Labs многие воспринимают именно как носимый компьютер с оригинальным управлением.
Помимо ставших популярными ещё до начала продаж очков Google Glass, аналогичные разработки ведутся и другими научными коллективами. К примеру, более совершенный вариант ещё в прошлом году анонсировала лаборатория фотонных устройств Федеральной политехнической школы Лозанны.
В отличие от очков, модели для ношения на руке требуют гибкого подхода во всех смыслах. Гаджет WIMM One под управлением ОС Android появился в конце 2011 года. Он выделялся двухрежимным экраном. Интерфейс базовых программ был выполнен в оттенках серого и работал на экране в режиме пониженного энергопотребления. Отдельные приложения переключали его в полноцветный режим.
Чуть позже были представлены подобные «умные часы» Sony Xperia.
Однако это всё было разминкой для производителей. Сегодняшние прототипы носимых компьютеров на базе гибкой «электронной бумаги» компании Plastic Logic уже меньше напоминают навороченные часы. Их аппаратная платформа близка к таковой у смартфонов среднего класса.
Сравнимая хотя бы с планшетами функциональность наверняка потребует отдельного блока с ещё более мощной начинкой, так что в будущих серийных устройствах это может быть и частично автономный дисплей носимого компьютера. Интерес к ним проявляют Apple (iWatch), Samsung и LG (последовательность довольно традиционная).
В чём же проблема всех этих милых гаджетов, появления которых мы ждём с прошлого века? Понять негативную роль таких устройств довольно просто. Достаточно оглядеться вокруг и присмотреться к поведению людей, уже сейчас сильно зависящих от своих электронных помощников. Пока они ещё (пере)носимые, и это оставляет пространство для нормальных социальных взаимодействий, но скоро его станет гораздо меньше.
Речь пойдёт даже не о вождении автомобиля в очках Google Glass. Концептуально они как раз должны помогать водителю, показывая карту маршрута и вспомогательную информацию. Однако реально вполне могут отвлекать от управления, и прозрачность их здесь не оправдает. Одно дело — смотреть на дорогу, и совсем другое – воспринимать дорожную ситуацию. В целом проблема внимания гораздо шире.
Уже сейчас звонки и сообщения грубо прерывают беседу при личной встрече, мешают учёбе и работе. Если телефон ещё можно убрать или забыть, то носимый компьютер практически всегда будет с владельцем. Это уже не просто средство связи, а именно универсальный микрокомпьютер, с которым у современного человека будет связана большая часть работы и развлечений. Поэтому добровольно выключать его людям не захочется никогда.
Пока ищешь что-то в Сети, напишут в Google Talk или Skype о том, что давно ждут ответа на письмо и авторизацию в аське. Прилетит твит про новую запись в Facebook. Добавятся в друзья какие-то странные люди. Возникнет острое желание ответить на пару сотен комментариев (разумеется, их авторы кругом неправы и вообще давно не пили яда). За всей этой псевдоактивностью незаметно пройдут часы. Очнётся счастливый обладатель гаджета в пустом офисе или закрывающемся ресторане. Может быть, даже вспомнит, что приходил сюда не один.
В случае очков, подобных Google Glass, ситуация ещё хуже. Масса отвлекающей информации будет маячить буквально перед глазами.
Продолжая мысль о псевдоактивности, стоит отметить ещё один момент. Носимые компьютеры приведут к тому, что человек практически постоянно будет присутствовать в соцсетях.
Казалось бы, чего опасаться? Они появились далеко не вчера. Сегодня есть соответствующие приложения для iOS и Android. Иконки быстрого входа на Facebook, «ВКонтакте» и «Одноклассники» у многих расположены на главном экране.
Всё так, но пока ещё от постоянного сидения в этих убивалках времени спасают только занятые руки. Смартфон или планшет надо достать и разблокировать, а затем удерживать хотя бы одной рукой. Теперь же руки станут свободнее, а в очках дополненной реальности в них вообще не будет особой необходимости.
Сейчас различные чувства принято выражать эмотиконами. Паровоз плачущих смайликов в ответ на известие о смерти близкого человека уже никого не удивляет. Такая реакция статистически нормальна. Похоже, скоро роботы смогут имитировать эмоции и заинтересованность лучше, чем сейчас это делают многие из людей.
С появлением носимых компьютеров способность сопереживать собеседнику (или хотя бы просто ощущать его настроение) только ухудшится. Только представьте: человек смотрит на вас и приязненно улыбается. Вы слегка смущаетесь и думаете, чем привлекли его внимание, но на самом деле он не видит вас в упор. Просто его взгляд в Google Glass устремлён в вашем направлении, а улыбку вызывал ролик на Youtube.
Актуальным наблюдением на эту тему делится адъюнкт-профессор Темпльского университета Джон Титлоу (John Paul Titlow): «Однажды я ждал столик в переполненном ресторане и обратил внимание на сидящую поблизости семью. Они собрались вместе, но каждый достал смартфон и молча созерцал экран. В свою очередь, я заметил их только потому, что оторвал взгляд от своего». Наверное, это выглядело примерно так.
К чему бояться зомби-апокалипсиса, если он уже давно наступил? Погружённые в виртуальность люди встречаются на улицах повсюду. Когда они собираются группами, это иногда выглядит забавно, однако в целом явление вызывает серьёзные опасения.
С носимыми компьютерами ситуация станет ещё «веселее».
Если смотреть на общий вектор развития, то носимые компьютеры – лишь промежуточный этап на пути внедрения имплантируемых. Бескровная апробация другой давней концепции. Даже при взаимодействии со смартфоном или планшетом управление оказывается двусторонним: вы думаете, что пользуетесь им, но часто просто реагируете на его сообщения. Инициатива исходит не от вас. Это вами давно и постоянно управляют – через мнимых друзей, навязанные интересы, индуцированные желания, вымышленные страхи и проблемы, в поисках избавления от которых вы тратите реальные средства. Носимые компьютеры усугубят эту зависимость, а имплантируемые – сделают физической.
Это будут не столько бионические протезы, о которых «Компьютерра» уже писала, сколько средства для превращения вас в более послушную марионетку. Только у будущей куклы практически не останется шансов оборвать нити.
Упомянутый в начале статьи профессор Стив Мэнн как нельзя лучше иллюстрирует данную проблему. Этот человек известен всему миру как «первый киборг». На протяжении многих лет он разрабатывал и испытывал на себе различные модули носимых и имплантируемых компьютерных систем. Под его кожу были вшиты многочисленные датчики, тело опутано проводами, а на голове большую часть времени находился шлем виртуальной реальности или очки дополненной. Со всем этим оборудованием он не расставался и даже путешествовал по миру.
Неприятности случились в 2002 году в аэропорту города Ньюфаундленд. После событий 11 сентября 2001 года службы безопасности стали вести себя куда менее любезно. Стива задержали, проверяли трое суток, оборвали провода (что вызвало кровотечение) и повредили практически всё уникальное оборудование. Оставшись без него (а также столкнувшись с таким отношением), Мэнн испытал глубокий психологический шок. Когда его отпустили, он не смог ориентироваться в пространстве. Стив падал, терял сознание и был в итоге поднят на борт самолёта в инвалидном кресле.
Главная причина агитации против широкого распространения носимых компьютеров заключается в том, что общество просто не готово к ним. Большинство людей обладает слабыми навыками самоконтроля и не осознаёт ситуаций, в которых использование гаджетов с развитыми коммуникативными возможностями на самом деле мешает общению. Легче всего это заметить на примере детей, но и взрослые часто ведут себя не лучше.
Всматриваться в экран смартфона во время личной встречи неприлично, однако такой распространённый способ быть одному среди толпы очевиден для окружающих и уже стал привычным. Носимые компьютеры (особенно в форме очков) делают процесс менее заметным, а его эффект – более неприятным.
Технологии уже давно развиваются быстрее законов и норм этики. Каждая инновация всегда поначалу сопряжена с некоторыми социальными проблемами, но среди них нет принципиально нерешаемых. Главное, чтобы пользователь оставался хоть чуточку умнее своего компьютера и умел обходиться без него.
Опубликовано 29 марта 2013
Когда в январе Сеть прощалась с Аароном Шварцем, казалось, в истории информационных технологий начинается новая эра. Интернет-активист, засуженный по древнему закону за проступок, который большинство сочувствующих расценивают как полезный для общества (он без спросу раздавал извлечённые из платной цифровой библиотеки научные труды), Шварц наложил на себя руки и немедленно стал символом Сопротивления. С его именем на устах идут сегодня на баррикады все протестующие против неадекватной жестокости киберправосудия, вне зависимости от того, идёт ли речь об авторских правах и пиратстве, вторжении на чужие компьютеры или простой «перепрошивке» приставок и телефонов. Казалось, ещё неделя, ещё месяц — и по обе стороны Атлантики будут переписаны несправедливые законы и здравый смысл наконец возьмёт верх (см. «Вор в законе Аарон Шварц»).
Что ж, не хочу вас расстраивать, но чуда не произошло. Хуже того, на прошлой неделе в Соединённых Штатах был приговорён к тюремному заключению ещё один активист, Эндрю Арнхаймер. По тому же закону и в общем за очень похожий проступок, что и мученик Аарон. Хорошая новость в том, что, хотя очередной жертве правосудия явно придётся отправиться за решётку, случай Арнхаймера всё-таки вносит некоторое разнообразие в становящуюся скучной модель «украл — похвастался — в тюрьму». Отчасти потому, что Эндрю, в отличие от Шварца, жив и имеет ненулевые шансы таки переписать законы. Отчасти из-за оригинальной киберфилософской концепции, которую он исповедует и которая теперь наверняка привлечёт внимание широкой общественности. Впрочем, давайте по порядку.
Если вы никогда о нём не слышали, Эндрю Арнхаймер, он же weev, — это 27-летний бородатый американский дядька, известный по своим «работам» в составе хакерской группы Goatse Security, а также нетипичным, интернет-ориентированным, часто асоциальным увлечениям. Он, к примеру, считает себя интернет-троллем — и с удовольствием травит публику рискованной чушью, граничащей с расизмом. Противопоставляет себя богатеям, ратует за абсолютную свободу слова в Сети и т.д. А с коллегами по Goatse занимается поиском уязвимостей в популярных программах и ИТ-системах крупных компаний, балансируя на тонкой грани между белым и чёрным хакерством. Кто-то его хвалит (Microsoft, TechCrunch), другие подозревают в тёмных делишках и миллионных криминальных заработках, но так или иначе ничего особенно страшного, равно как и великого, за ними официально не числилось. Вплоть до лета 2010 года.
Тем летом Эндрю с ребятами отыскали на сайте корпорации AT&T забавную и в общем глупую «дыру». AT&T тогда была одним из немногих (если не единственным) операторов сотовой связи, полноценно обслуживавших недавно появившуюся планшетку iPad. При входе на корпоративный сайт от клиента требовалось ввести, в частности, адрес электронной почты, выданный ему во время регистрации. Однако, поскольку такие адреса формировались автоматически (из аппаратного идентификационного номера конкретного Айпада), AT&T решила облегчить клиентам жизнь: когда пользователь приходил на сайт, идентификатор его Айпада считывался, по нему восстанавливался почтовый адрес — и вписывался в соответствующее поле в браузере. Так что, просто меняя символы в строке URL, Арнхаймер и друзья извлекли из AT&T больше ста тысяч адресов, принадлежащих и простым смертным, и знаменитостям, и военным, и госчиновникам.
Добытые адреса и некоторые сопутствующие данные были переданы журналистам, после чего в известность была поставлена сама AT&T. Расставив события в такой последовательности, ребята предопределили свою судьбу. Расследование, начатое ФБР, привело на скамью подсудимых Арнхаймера и его товарища. Товарищ вину признал, Эндрю — нет. 18 марта сего года был вынесен приговор: 41 месяц тюрьмы, штраф в 73 тысячи долларов за возмещение понесённого AT&T ущерба, три года под надзором с контролируемым доступом в Сеть.
Так в чём же виновен weev? Центральный пункт обвинения и он же — главная нестыковка: несанкционированный доступ к чужому компьютеру. Чувствуете конфликт? AT&T не прятала свои данные, она разместила их на открытом сайте. Но раз информация была свободно доступна всем желающим, разве доступ к ней может считаться несанкционированным? Иначе говоря, как можно сажать кого-то в тюрьму за цитирование строчки текста, опубликованной в интернете? Увы, по крайней мере в США можно, и причиной тому — закон «О компьютерном мошенничестве и злоупотреблении» (Computer Fraud and Abuse Act).
Принятый ещё в 1984 году, CFAA стал к настоящему моменту фундаментом, на котором Америка строит законодательство, регулирующее жизнь в киберпространстве. Его многократно расширяли и продляли, и как раз сейчас предложена новая поправка, ужесточающая наказание за умышленное причинение ущерба. Проблема в том, что если для своего времени CFAA был необходим, сегодня он и морально, и технически устарел. Ведь принимали его ещё при Рейгане, в эпоху «Звёздных войн» (была такая стратегическая оборонная инициатива), надеясь предотвратить проникновение взломщиков в компьютерные системы, управляющие ракетным щитом США. Но если в те далёкие времена, например, термин «защищённый компьютер» означал только машины оборонного ведомства, сегодня под него подпадает практически любая персоналка. Та же проблема — с «(не)санкционированным доступом», который чётко не определён. В результате CFAA, по образному выражению специалистов, превратился в дубину, которой пытаются лечить болезни, требующие скальпеля, а может быть, и всего лишь таблетки.
Шварц и Арнхаймер — далеко не единственные, кого «залечили» этой дубиной, но в случае с Эндрю правозащитники усматривают реальную возможность повернуть инертную машину правосудия вспять. После вынесения приговора бесплатно помочь Арнхаймеру вызвались несколько авторитетов по киберправу (в том числе юристы EFF), прошение об апелляции уже подано. Как минимум адвокаты надеются скостить подзащитному срок: в Штатах принято начислять года в соответствии с причинённым ущербом, а AT&T фактического ущерба не понесла, а только лишь потратилась на информирование клиентов о выявленной бреши в безопасности, причём способ она выбирала сама. Как максимум же дело weev станет прецедентом, который поможет переписать устаревший закон. Для этого адвокатам «всего лишь» нужно доказать, что доступ Арнхаймера к сайту AT&T не может считаться «несанкционированным».
Что ж, пожелаем Эндрю и его адвокатам удачи. Но в этой истории есть ещё один любопытный и даже практически полезный момент. Он связан с оригинальной концепцией, сторонником которой Эндрю Арнхаймер был и, насколько мне известно, до сих пор остаётся. Её можно назвать философией антибезопасности (в оригинале: antisec). В основе её — простая, основанная на наблюдениях хакеров идея: если ты не желаешь причинить миру зла, никогда и ни с кем не делись полученной тобою уникальной информацией.
Представьте ситуацию: хакер находит в популярной программе новую уязвимость. Поделится ею с разработчиком программы — и будет считаться «белым» (добрый!). Продаст её на чёрном рынке — станет «чёрным» (злой!). Реальность, однако, такова, что вне зависимости от выбранного пути вскоре появляются эффективные инструменты эксплуатации обнаруженной «дыры», а конечный пользователь парадоксальным образом начинает чувствовать себя ещё менее защищённым. Почему? Со вторым случаем всё понятно, а вот в первом — возможно, разработчик программы оказался не слишком расторопным, возможно, вообще решил не патчить уязвимость (чтоб не сломать каких-то функций или не тратиться на апдейт). К тому же большинство пользователей не торопятся ставить заплатку, провоцируя эпидемии, а антивирусные вендоры и правительства умело используют это, нагнетая страху для достижения своих целей (новые законы, новые продажи). Короче говоря, в игру вступают обычные лень и эгоизм (корпоративный, государственный), а значит, как ни крути, раскрытие информации приведёт к новым проблемам.
Вывод? Хакер, для которого социальная справедливость — не пустой звук, должен держать рот на замке. Таким образом он не только улучшит ситуацию с безопасностью, но и выбьет табуретку из-под ног тех, кто манипулирует общественным мнением ради своей выгоды. Увы, Эндрю Арнхаймер, проповедующий antisec-истины со страниц популярных компьютерных журналов, сам им не следует.
Почему — это уже отдельный разговор. Но, полагаю, всё по той же древней причине: слава, слава…
В статье использованы иллюстрации Pinguino K, Bizinet
Опубликовано 28 марта 2013
Как сделать компьютер, который способен работать десятилетиями без техобслуживания и апгрейда? Это не праздный вопрос. Если в космическом аппарате, находящемся на другом краю Солнечной системы, сломается бортовой компьютер, то миссию, на которую потрачены сотни миллионов долларов и тысячи человеко-лет, придётся сворачивать, не доведя до конца. Разработка и поддержка вычислительных машин, которые требуют такой надёжности, — это мир, живущий по своим законам.
Ведущий специалист компании Wind River Systems по операционным системам Майк Делиман не раз вспоминал январь 2004 года, когда он получил срочный вызов из NASA. Его помощь потребовалась для того, чтобы разобраться в происходящем на Марсе.
На Марсе не происходило ничего хорошего. Вскоре после посадки марсоход Spirit прервал связь с центром управления полётами. Создатели аппарата сутками пытались его оживить, но без особого успеха. Он отказывался реагировать на команды с Земли. Данные телеметрии, описывающие его состояние, удалось скачать лишь на третий день, и они были безрадостными. Вместо того, чтобы перейти в режим сна, марсоход интенсивно расходовал заряд батареи. В NASA всерьёз опасались, что Spirit не удастся вернуть в строй.
Именно в этот момент к операции по спасению марсохода подключился Делиман. У него особый опыт в этой области: дело в том, что компания Wind River Systems разрабатывает операционную систему реального времени VxWorks, которую использует бортовой компьютер Spirit, а Делиман лично вносил в неё нужные NASA изменения. Лучше него в этой версии системы не разбирался никто.
Большинство пользователей, скорее всего, никогда не слышали об VxWorks. Эту систему не ставят на обычные компьютеры, однако в той области, где она используется, у неё не так уж много конкурентов. VxWorks предназначена для встраиваемых систем: бортовых компьютеров самолётов и автомобилей, систем управления промышленными роботами, контроллеров медицинского и телекоммуникационного оборудования — одним словом, устройств, ошибки которых обходятся куда дороже обычного.
К тому времени, когда Spirit отправили в космос, VxWorks успела стать главной системой американских межпланетных станций, но что ешё важнее, её использовал марсоход Sojourner, высадившийся на Марсе в 1997 году. Программное обеспечение Spirit и его двойника Opportunity представляло собой усовершенствованную версию софта Sojourner.
Операционные системы реального времени отличаются тем, что их реакция на внешние события предсказуема. Они гарантируют, что любое событие будет обработано в течение обещанного срока — как правило, речь идёт о десятой доле секунды. Не нужно объяснять, почему это качество делает VxWorks и другие системы реального времени предпочтительнее для использования в космических аппаратах, чем Windows или Linux.
Предсказуемость — это едва ли не главный принцип разработки встраиваемых систем. Всё, что они делают, даже ошибки, должно быть предсказуемым. Это оказывает огромное влияние на то, как разрабатываются космические приложения.
Взять хотя бы автоматическое управление памятью. Считается, что оно повышает надёжность программ, и это действительно так. Программисты — всего лишь люди, а людям свойственно допускать ошибки. Достаточно забыть освободить выделенную память в неподходящем месте, чтобы программа начала падать. Автоматическая «сборка мусора» исключает подобные ошибки.
Проблема в том, что попутно она делает работу компьютера непредсказуемой. Кто знает, когда системе вздумается почистить память? Вполне возможно, что именно в тот момент, когда контролируемому ей устройству каждая миллисекунда — на вес золота. Небольшая внезапная задержка — и пиши-пропало. Причём потом, при расследовании причин катастрофы, и концов не найдёшь: к запуску сборщика мусора могло привести такое сочетание условий, которое невозможно воспроизвести в лаборатории.
На первый взгляд, отказ от автоматического управления памятью — это не такая уж большая жертва. В конце концов, оно поддерживается не всеми языками программирования. В Си, главном языке, на котором сейчас программируют встраиваемые системы, сборщика мусора нет. Но это не должно успокаивать. У Си хватает других особенностей, которые плохо сказываются на надёжности.
Новый марсоход Curiosity столкнулся с первыми значительными неполадками в начале марта. По необъявленной пока причине основной бортовой компьютер аппарата вошёл в безопасный режим и отказался продолжать работу. Через пару дней в NASA решили не рисковать и перевели управление Curiosity на запасной бортовой компьютер, точно такой же, как первый, но исправный. Впрочем, проблема в итоге оказалась несерьёзной. Сейчас марсоход по-прежнему использует запасной компьютер, но при необходимости может переключиться обратно.
В NASA выработали внушительный свод правил, которого нужно придерживаться при разработке программного обеспечения, контролирующего работу космических аппаратов. На первый взгляд, он напоминает руководства для программистов, которые есть в любой крупной компании, но если присмотреться, быстро замечаешь странности. Правила NASA запрещают даже самые основные приёмы, используемые программистами на Си.
В частности, выясняется, что приложения NASA, которые отправятся в космос, никогда не выделяют память динамически по мере надобности. Вся необходимая для работы память должна быть выделена один раз — при запуске. После этого нужно использовать то, что есть, и не просить большего. Это правило одним махом устраняет проблемы, связанные и с утечками памяти, и с непредсказуемым влиянием выделения и освобождения памяти на производительность.
Под запретом оказалась и рекурсия. Во-первых, Си плохо приспособлен для рекурсивных программ (они могут привести к переполнению стека). Во-вторых, условия её завершения сложнее проверить при помощи специальных инструментов, чем условия выхода из цикла.
Использование препроцессора жёстко ограничено. При вычислении выражений необходимо избегать побочных эффектов. Запрещён оператор goto (хотя как раз встраиваемые системы — тот редкий случай, когда он мог бы быть полезен, поскольку с его помощью удобно реализовывать конечные автоматы). Ограничено использование ссылок на функции, зато правильность всех данных без исключения должна проверяться в обязательном порядке.
При таком количестве ограничений трудно сделать что-то интересное, но в этом как раз и заключается цель их авторов. Им не хочется, чтобы межпланетный зонд вдруг начал делать что-то «интересное». Они предпочитают, чтобы он работал просто, скучно и надёжно. Даже этого, несмотря на все усилия, не всегда получается добиться.
В том злополучном январе, когда сломался Spirit, Майк Делиман и его коллеги из NASA, находящиеся в нескольких часовых поясах, несколько недель круглые сутки не отходили от компьютеров, пытаясь привести марсоход в рабочее состояние. «Я работал без выходных, по три раза вставал ночью, чтобы переговорить с нужными людьми, и прерывался только для того, чтобы перекусить, поспать, сходить в душ и погулять с собаками», — рассказывал Делиман в интервью ACM Queue.
Причиной сбоя могло стать что угодно. Непосредственно перед тем, как всё пошло вразнос, инженеры NASA тестировали моторчик, который поворачивает зеркало, защищающее один из научных инструментов марсохода. Нельзя исключить, что всё началось именно с этого теста. Но если так, то почему?
Впрочем, если бы задача исчерпывалась поиском ответа на этот вопрос, она была бы куда проще. Тот моторчик мог и не иметь никакого отношения к делу. Есть тысяча причин, способных привести к сбою или же просто вывести компьютерное железо из строя (об этом варианте в NASA не хотели и думать).
Как определить, что именно произошло? Осмотреть сломанную машину нельзя, и с измерительными инструментами в неё не залезешь. Программу, которая на нём идёт, не запихнёшь в отладчик, чтобы узнать, в какой момент она отказывается продолжать работу. И даже когда такая возможность есть, экспериментировать с компьютером, который находится на другой планете, — слишком большой риск. В космосе нет команды «Отменить».
Главный способ ловли космических багов — работа с точной копией бортового компьютера, находящейся на Земле. Поскольку результаты выполнения каждой команды предопределены, приведя наземную копию в то же состояние, которое демонстрирует неисправный компьютер, находящийся на борту космического аппарата, можно понять, что привело к возникновению проблемы.
К рабочей станции Sun в кабинете Делимана была подключена одна из копий бортового компьютера Spirit и Opportunity. Внешне она напоминала потрёпанный чемоданчик, но в действительности стоила дороже любого другого оборудования, находившегося поблизости. Цена одного лишь процессора, использованного в Spirit, составляет 200-300 тысяч долларов. При этом его не назовёшь мощным. Он отставал от уровня 2004 года лет на пятнадцать, если не больше.
В марсоходах стоял 20-мегагерцевый процессор BAE RAD6000, имеющий архитектуру Power PC и напоминающий процессор рабочей станции IBM серии RS/6000, выпускавшейся в начале девяностых. Объём оперативной памяти Spirit и Opportunity составлял по 128 мегабайтов, а в качестве накопителя использовались 256 мегабайтов флэша. Кроме того, имелось трёхмегабайтное ПЗУ.
Высокая цена и видимая отсталость космического железа частично объясняются тем, что вся электроника, отправляемая в космос, должна быть защищена от радиации. Поскольку чем мельче элементы микросхемы, тем сильнее ущерб, который способны причинить ей заряженные частицы, в космосе прогресс микроэлектроники идёт вспять. Микросхемы с крупными транзисторами, широкими токопроводящими дорожками и большими промежутками между элементами легко побеждают многократно более быстрые и экономичные процессоры, перестающие работать на второй день.
Вторая причина отсталости заключается в том, что у строителей космических аппаратов совсем другие приоритеты, чем у разработчиков обычных компьютеров и мобильных устройств. Надёжность оказывается важнее всего прочего, и выбор всегда делается в пользу проверенного временем, а не более совершенного железа.
Злоключения Galileo на пути к ЮпитеруНесмотря на многочисленные поломки, аппарат добрался до Юпитера и сделал большую часть запланированной работы. А всё потому, что инженеры NASA сумели найти программное решение аппаратных проблем, которые казались непреодолимыми.
Дело в том, что между космическим аппаратом и очередным айфоном такая же разница, как между черепахой и бабочкой-однодневкой. Разработка межпланетного зонда продолжается не один год — и это мягко сказано. К примеру, Galileo, летавший к Юпитеру в конце девяностых, был задуман в середине шестидесятых. Работа над его бортовым компьютером началась в 1976 году — во времена, когда для записи тактовой частоты или объёма ОЗУ персональных компьютеров хватало одной цифры.
Планировалось, что Galileo стартует в 1982 году, но то по одной, то по другой причине его откладывались до 1989 года. Зонду потребовалось шесть лет для того, чтобы приблизиться к цели, а затем он ещё восемь лет передавал данные с Юпитера. На Земле менялись поколения электроники, а бортовой компьютер Galileo оставался неизменным и продолжал работу.
Смысл погони за новинками становится не совсем очевидным, когда срок работы устройства измеряется не месяцами или годами, а десятилетиями. Так или иначе, но через год после старта компьютер космического аппарата безнадёжно отстанет от прогресса, а через десять лет без апгрейда сама мысль о суете вокруг новизны будет казатся странной.
Смешно жаловаться на RAD6000 (который, кстати, до сих пор работает на Марсе, хотя прошло десять лет), когда специалистам из NASA до сих пор приходится поддерживать связь с «Вояджерами», запущенными в 1977 году, а спроектированными и того раньше. RAD6000 хотя бы имеет какие-то современные аналоги — скажем, процессор игровой приставки XBox 360. О бортовых компьютерах «Вояджеров» такого не скажешь.
Это гости из забытого времени, столкновение с которыми должно вызывать у современных программистов трепет. На каждом из них стоит по паре крайне маломощных компьютеров трёх совершенно разных типов и назначений, в которых сам чёрт ногу сломит: четыре восемнадцатиразрядных и два шестнадцатиразрядных процессора с тактовой частотой 250 килогерц, причём два из них имеют доступ лишь к ПЗУ объёмом 4096 восемнадцатиразрядных слов, ещё два — к двум банкам ОЗУ ёмкостью 8196 шестнадцатиразрядных слов, а остальные — к двум банкам ОЗУ ёмкостью 4096 восемнадцатиразрядных слов (в сумме набирается около 64 килобайтов).
И этот динозавр не просто продолжает работать уже без малого сорок лет — его по-прежнему приходится программировать, отлаживать и чинить. Это значит, что где-то в закромах американского аэрокосмического агентства содержится небольшой компьютерный парк Юрского периода: работоспособная копия бортовой вычислительной машины «Вояджеров». И кому-то приходится за ним ухаживать, помня и используя методы полувековой давности, на фоне которых все современные ограничения, которые налагают в NASA на программистов, кажутся нелепым баловством.
Удалённый ремонт понадобился одному из аппаратов относительно недавно: в 2010 году нарушилась связь c Voyager 2. Вместо телеметрии зонд передал с окраины Солнечной системы нечитаемый поток цифрового мусора. Инженеры три недели определяли причину: оказалось, что одна из ячеек памяти вышла из строя и поменяла своё значение на противоположное. Программное обеспечение Voyager 2 пропатчили, чтобы он обходил испорченную область памяти стороной.
И причина неисправности Voyager 2, и способ её исправления некомфортабельно близка к железу. Современные программисты почти никогда не опускаются до уровня отдельных ячеек, регистров и портов. Обычно работа происходит на много уровней абстракции выше, и ошибки почти никогда не имеют отношения к тому, что происходит в реальном мире. В космосе же (да и вообще во встраиваемых применениях) реальный мир трудно игнорировать.
Та проблема марсохода Spirit, над решением которой бился Делиман в 2004 году, вполне могла корениться не в программной, а в аппаратной ошибке, вызванной внешним воздействием. Подумайте сами: действие происходит на другой планете. Spirit стартовал с Земли и пережил существенные нагрузки, а затем совершил автоматическую посадку — и не факт, что достаточно мягкую. Во время старта или посадки он запросто мог получить механические повреждения. После того, как аппарат покинул радиационный пояс Земли, его непрерывно обстреливали заряженные частицы. Шальная частица способна повлиять на работу электроники, а при особом невезении — даже полностью сжечь одну из микросхем. Наконец, бортовой компьютер мог перегреться или пострадать от перепада напряжении.
Майку Делиману потребовалось несколько дней, чтобы установить причину сбоя. По иронии судьбы, марсоход споткнулся на одной из предосторожностей, которую его разработчики предусмотрели специально для того, чтобы избежать неполадок и увеличить надёжность системы.
В Spirit и Opportunity имеется плата, которая перезапускает бортовой компьютер, когда он подвисает. Пока компьютер работает исправно, специальный процесс следит, чтобы перезапуска не произошло. Когда он замолкает, плата понимает, что произошёл сбой, и выполняет сброс.
Проблемы начались, когда компьютер Spirit по какой-то причине повис. Плата выполнила сброс, система перезагрузилась и принялась инициализировать файловую систему. Файловая система хранит данные на флэш-накопителе, но использует и кэш в ОЗУ. После сброса количество файлов, которые подлежат загрузке в кэш, оказалось больше, чем умещается в памяти. При переполнении памяти бортовой компьютер сбросился второй раз — так по кругу.
Сброс происходил снова и снова. Именно поэтому из Spirit никак не удавалось вытянуть телеметрию или перевести его в спящий режим. После шестидесяти перезагрузок батарея истощилась настолько, что марсоход перешёл в режим сохранения энергии, при котором не требовалась полная реинициализация файловой системы. Это его и спасло. Решение проблемы оказалось совсем простым: лишние файлы удалили, а чтобы история не повторилась, конфигурацию некоторых модулей слегка изменили.
Байки о космических багах (а их за полвека освоения космоса накопилось огромное множество) интересны не только сами по себе. Вполне возможно, что те же проблемы и решения, которые пока знакомы преимущественно инженерам NASA, скоро станут определять развитие новой ветви компьютерной техники по эту сторону околоземной орбиты.
Очертания компьютеров, которые мы используем, напрямую связаны с их техническими ограничениями. Главным ограничением персональных компьютеров долгое время была их недостаточная мощность. Когда несколько лет назад начался бурный рост популярности мобильных устройств, ограничения стали совсем другими. Теперь всех волнует не производительность процессора, а энергопотребление и ёмкость батарей. И посмотрите, к чему это привело: мобильные платформы, завоевывавшие мир последние пять лет, устроены совсем иначе, чем операционные системы, которые были распространены на ПК.
Что дальше? Аналитики предсказывают распространение самоуправляемых автомобилей, беспилотных летательных аппаратов и даже мобильных роботов. Их прогнозы, как правило, нужно делить на два, но тем не менее: разработчиков таких устройств будут беспокоиться совсем о других вещах, чем создатели Android или Windows. Надёжность и долголетие станет важнее и производительности, и энергопотребления. Тут-то и пригодятся уроки космоса.
Опубликовано 27 марта 2013
Атака с помощью вируса Stuxnet против иранского ядерного предприятия представляла собой «акт применения силы» и, возможно, противоречила международному законодательству и уставу НАТО, говорится в массивном документе, подготовленном группой экспертов по международному праву по заказу Совместного центра НАТО по обмену передовым опытом в сфере киберзащиты (Co-operative Cyber Defence Centre of Excellence, CCDCOE). Этот центр располагается в столице Эстонии Таллинне, поэтому и данная работа носит название «Таллиннское руководство по международному законодательству, относящемуся к сфере киберобороны».
«Таллиннское руководство» представляет собой трёхсотстраничный документ, над составлением которого работали гражданские и военные юристы из стран НАТО, а также аналитики компаний, занимающихся вопросами кибербезопасности. Интересно, что для консультации привлекали даже Международный комитет Красного Креста.
Ведущий автор «Руководства» Майкл Шмитт, профессор международного права в Военно-морском колледже ВМФ США в Род-Айленде, заявил: «Мы написали эту работу в помощь юридическим советникам правительств и военных, это почти что учебник. Написанием законов занимаются государства, а не академики. Мы хотели создать нечто, что поможет государствам определяться со своей позицией в подобных случаях».
В целом позиция Шмитта сводится к следующему: если кибератаки осуществляются до того, как начнутся открытые военные действия, «это преступление», то есть действие, остающееся в рамках криминального права. Но если кибератака сопровождает «обычные» военные действия, то организаторы этих атак могут рассматриваться как комбатанты — со всеми вытекающими из международного права последствиями, вплоть до пленения или физического уничтожения киберзлоумышленников как солдат враждебной армии.
С такой позицией, впрочем, далеко не все согласны.
Двадцать экспертов, участвовавших в разработке документа, единогласно признали, что история со Stuxnet — это акт применения силы. Однако они оказались далеко не столь единодушны в отношении того, можно ли считать этот случай киберсаботажа «вооружённым нападением». Признать его таковым значит признать за Ираном право на ответные действия с применением оружия. То есть на начало полномасштабных военных действий. С кем? С теми, кто спонсировал создание и использование этого червя, очевидно.
Газета Washington Times приводит мнение Джеймса Льюиса, представителя Центра стратегических и международных исследований (Center for Strategic and International Studies), который говорит, что в таких случаях юристов не следует спускать с поводка и что к настоящему времени конфликтов в киберпространстве набралось не так много, чтобы государства могли разрабатывать нормы и правила интерпретации международного законодательства в приложении к сфере кибербезопасности. Авторов «Таллиннского руководства» Льюис назвал «опережающими события»:
- Кибератака обычно не будет рассматриваться как акт применения силы. По этой причине, например, Эстония не стала применять Статью V в 2007 году.
Речь идёт о ключевой статье Североатлантического договора — документа, на основании которого существует блок НАТО:
Договаривающиеся стороны соглашаются с тем, что вооружённое нападение на одну или нескольких из них в Европе или Северной Америке будет рассматриваться как нападение на них в целом, и, следовательно, соглашаются с тем, что в случае, если подобное вооружённое нападение будет иметь место, каждая из них, в порядке осуществления права на индивидуальную или коллективную самооборону, признаваемого Статьёй 51-й Устава Организации Объединённых Наций, окажет помощь Договаривающейся стороне, подвергшейся или Договаривающимся сторонам, подвергшимся подобному нападению, путём немедленного осуществления такого индивидуального или совместного действия, которое сочтёт необходимым, включая применение вооружённой силы с целью восстановления и последующего сохранения безопасности Североатлантического региона.
Атаки 11 сентября 2001 года — единственный раз, когда блок НАТО действительно отреагировал в соответствии с этой статьёй.
Что же касается 2007 года, то речь идёт о скандале в связи с переносом Бронзового солдата — Монумента павшим во Второй мировой войне из центра Таллинна на военное кладбище. Киберпространство Эстонии подверглось многочисленным DDoS-атакам, источники части которых находились в России. Естественно, ходили слухи, что эти атаки были организованы чуть ли не российскими властями или особо патриотично настроенными хакерами (как минимум призывы атаковать сайт правительства Эстонии действительно имели место быть на разных форумах — [1], [2]).
Эстония лишь потребовала расследовать эти кибератаки, но, как уже сказано, к Статье V прибегать не стала. К счастью. Тем более что доказать, что за спиной хакеров, долбивших чей-либо правительственный сайт, стояло недружественное государство, крайне трудно. Если вообще возможно.
С 2011 года США занимаются разработкой доктрины о кибербезопасности, общий смысл которой сводится ко фразе «Если вы отключите нам энергосеть, то мы можем заткнуть вам ракетой дымоход». Иными словами, если хакерская атака наносит ущерб, сопоставимый с ущербом от прямого военного вмешательства, то ответом на неё может стать ответное военное вмешательство — настоящее. Позиция, изложенная в «Таллиннском руководстве», выглядит как расширение этого подхода: если имеет место полномасштабная война, мы будем рассматривать организаторов крупномасштабных кибератак как участников боевых действий, членов вражеских вооружённых сил.
Как известно, знаем, «Цифровым Перл-Харбором» США пугают себя и других далеко не первый год, однако пока ничего подобного не происходило — никаких серьёзных атак на жизненно важную инфраструктуру, ничего похожего на содержание фильма «Крепкий орешек-4″. Разве что атаки на ресурсы, принадлежащие крупным американским СМИ, которые вроде как проводило и проводит киберподразделение Народно-освободительной армии КНР.
А вот Stuxnet был. И нанёс вполне ощутимый ущерб иранской военной программе под условным названием «Мирный атом». И как ни относись к планам Ирана, Stuxnet, по существу, является кибератакой против государственного предприятия суверенной державы.
В прошлом году в США вышла книга Дэвида Сэнгера «Конфронтация и сокрытие: Тайные войны Обамы и удивительное использование американской мощи», в которой — со ссылкой на осведомлённые источники — прямо говорится об американо-израильском происхождении червя Stuxnet, оставившего завод по обогащению Урана в Натанце без работоспособных центрифуг (подробнее см. в статье Бёрда Киви «Боевой червь Stuxnet»).
В разработке вируса, по данным Дэвида Сэнгера, вследствие ошибки израильских программистов о существовании Stuxnet стало известно широкой публике. Согласно изначальному плану Stuxnet должен был остаться в Натанце, однако из-за проблем в коде он распространился и за пределы предприятия. И только потому, что он попался в итоге компании Symantec и подвергся препарированию, о его существовании вообще стало известно.
«Таллиннское руководство» отчасти является последствием этой утечки. Хотя более важным, пожалуй, представляется тот факт, что данный документ является попыткой сформулировать общую точку зрения НАТО на то, в каком соотношении находятся между собой конфликты в киберпространстве и «традиционные» военные действия с юридической точки зрения. Потому что одно дело — угрозы «заткнуть дымоход» и другое — вполне однозначная (в теории) перспектива применения Статьи V в ответ на атаку a la Stuxnet, но только против члена Североатлантического альянса.
Важно подчеркнуть следующее: вопреки поверхностному впечатлению, «Таллиннское руководство» не создаёт оснований для физической ликвидации хакеров военными силами НАТО. Как пишет Кевин Джон Хеллер, доцент Мельбурнской школы права, из текста «Таллиннского руководства» следует, что право государства на физическое устранение хакеров регулируется целиком и полностью лишь международным гуманитарным правом. Те правила ведения кибервойны, которые прописаны в «Руководстве», вступают в действие только при условии реальных военных действий.
«Попросту говоря: правила «Руководства», допускающие применение смертоносной силы, не распространяются на кибератаки, совершённые в мирное время», — пишет Хеллер.
То есть «Таллиннское руководство» не даёт санкций ни на ракету в дымоход, ни на пулю промеж глаз организатору крупной DDoS-атаки против, например, Пентагона, если этот организатор не проживает на территории государства, объявившего войну США.
P.S. Интересно, однако, что даже в документе, подготовленном по заказу учреждения внутри НАТО, законность использования Stuxnet ставится под сомнение. В связи с этим возникает вопрос: не является ли этот документ свидетельством трений между США и остальными участниками Североатлантического альянса или между США и Израилем? Отношения между союзниками переживают не самые лучшие времена, и в конце прошлого года слышались прогнозы и слухи о том, что Израиль и Штаты могут вот-вот рассориться. А это может иметь самые плачевные последствия для всего Ближнего Востока.
И тогда получится, что глупая ошибка программистов, из-за которой Stuxnet недостаточно хорошо замаскировался, будет иметь «эффект бабочки». Хотя по большому счёту уже имеет.
Другой взгляд на проблему читайте в колонке Михаила Ваннаха «Юридический флёр кибернетической войны: НАТО выработало 95 правил для сражений в информационном пространстве».
Опубликовано 27 марта 2013
Если я скажу вам, что в подвале Московского института стали и сплавов есть секретная лаборатория и происходящее в ней изменит наше будущее, вы, наверное, не захотите верить мне на слово. И правильно, но неправда здесь лишь одна: лаборатория эта совершенно не секретная, и её руководитель с готовностью откликнулся на мою просьбу провести небольшую экскурсию. Называется это примечательное место Fab Lab, и если это звучит знакомо, то, скорее всего, не благодаря МИСиС, а в связи с Массачусетским технологическим институтом.
«Мы приближаемся к моменту, когда станут возможны машины, способные изготовить любые другие машины», — говорит Гершенфельд.
Речь идёт о репликаторах — трёхмерных принтерах, способных печатать другие трёхмерные принтеры. Ближе всего к этой цели подошли создатели фабрикатора RepRap, значительную часть деталей которого можно напечатать на нём самом.
Основал Fab Lab профессор МТИ Нил Гершенфельд. В конце девяностых годов он работал над перспективными проектами в области интернета вещей и физических вычислителей и в процессе понял, что нуждается в собственной мастерской, где можно было бы быстро изготовить прототип любого устройства. Так родился проект «Центра битов и атомов».
Были закуплены фрезерные станки с программным управлением, лазерные резаки и прочие недешёвые средства автоматического производства. Но с настоящей проблемой Гершенфельду пришлось столкнуться, когда лаборатория заработала: со всего МТИ к нему потянулись студенты самых разных специальностей и просили изготовить им вещи, необходимые для их проектов, либо помочь научиться обращению с оборудованием. От желающих просто не было отбоя!
Поняв, что мастерская становится ничуть не менее важной, чем те проекты, над которыми в ней предполагалось работать, Гершенфельд решил развивать это направление. С тех пор прошло десять лет, и теперь мы видим, что идея была правильной: по всему миру сейчас открыто более сотни Fab Lab. В своём выступлении на конференции TED в 2012 году Гершенфельд с гордостью перечислял успешные студенческие проекты: «земледельческие инструменты в Индии, паровые турбины для конверсии энергии в Африке, антенны и тонкие клиенты…» В Fab Lab, по сути, можно изготовить всё, что угодно: от роботов до футуристичного дома.
«Фаблаб», открытый в МИСиС, — первый в России, если не считать «уменьшенной версии» — Fablab@School, работавший с 2009 года в лицее №1502 при МЭИ. Как объяснил Владимир Кузнецов, встретивший меня у проходной МИСиС, чтобы провести экскурсию по своей лаборатории, её идея появилась раньше, чем мысль создать российский «Фаблаб». Но официальный статус даёт некоторые преимущества.
Спустившись на подземный этаж и пройдя коридор, мы заходим в лабораторию. Первый её зал полон машинерии самого разного, в том числе и очень внушительного вида.
Вторая комната, отделённая стеклянной перегородкой, куда просторнее. Большую её часть занимает фрезерный станок, вокруг него разложены результаты работы: крупные детали из дерева.
Вторую половину комнаты занимает стол с несколькими стульями, а сверху висит телевизор с прицепленной к нему веб-камерой. Это место для совещаний и видеоконференций.
Следующая комната куда меньше, но занята намного плотнее. Здесь напротив двери стоит внушительный фабрикатор, на столах — компьютеры, на экранах которых видны программы с чертежами деталей.
Свободных горизонтальных поверхностей почти нет: всё завалено инструментами, деталями техники и готовой продукцией, отпечатанной на 3D-принтерах.
Куда ни глянь, везде видны признаки того, что здесь способны изготовить практически любую вещь и активно пользуются этой возможностью. Вот, например, самодельный деревянный стул, спрятавшийся между своими фабричными собратьями.
Или подставка под iPhone.
Перед нами — фактически доказательство того, что, получив доступ к средствам производства, люди начинают изобретать для себя те вещи, которые им нужны. Но, к сожалению, посмотреть на действительно диковинные изобретения не получилось. Кузнецов пояснил, что изобретатели чаще всего предпочитают забирать прототипы и готовые изделия домой. На сайте «Фаблаба» можно найти примечательные примеры. Внимания, в частности, заслуживает студенческий проект эргономичной клавиатуры.
Какие конкретно средства производства используются? На сайте «Фаблаба» в МИСиС перечислены: профессиональный 3D-принтер Dimension Elite, 3D-принтер MakerBot Replicator, фрезерный станок, прецизионный станок, режущий плоттер и лазерный раскройщик. Но это далеко не весь список доступного оборудования: 3D-принтеров, например, в общей сложности пять, и нельзя не заметить токарного станка с ЧПУ и двух металлообрабатывающих — токарного и фрезерного, занимающих половину комнаты. Выходит, лаборатория в МИСиС значительно превосходит минимальные требования к Fab Lab.
Однако Fab Lab — это не только мастерская, но и место для обучения. Хотя лаборатория работает непрерывно, каждая среда здесь считается днём занятий, и я застал как раз такой день.
Нил Гершенфельд проводит удалённые уроки сразу с несколькими лабораториями: собравшись за столом, студенты слушают его, после чего могут задать вопросы. Но на традиционный семинар это походит мало. Смотреть на экран практически бесполезно: нос, щека, очки и шевелюра преподавателя, которые видны в крохотном окошке, не способны надолго приковать к себе внимание. Когда на экране появился азиатского вида студент и начал на плохом английском задавать какой-то длинный вопрос, местная аудитория оказалась и подавно не заинтересованной и переключилась на общение между собой.
Здесь, наверное, могли бы проводить занятия преподаватели из МИСиСа, но, хотя планы по встраиванию «Фаблаба» в учебный процесс существуют, пока что этого не произошло. Владимир Кузнецов сам работает со студентами (наша экскурсия несколько раз прерывалась, когда нужно было ответить на срочные вопросы), а те могут делиться опытом друг с другом. Кстати, слово «студент» здесь не совсем уместно — описание своего проекта в «Фаблаб» может отправить кто угодно, и, если заявка окажется интересной, последует приглашение.
Прямой финансовой связи с институтом тоже нет: он предоставляет помещение и в обмен получает возможность использовать лабораторию для своих исследований, но деньги на развитие «Фаблаб» зарабатывает самостоятельно. Здесь могут выполняться и заказы других институтов (недавно, к примеру, были подготовлены детали для выставочного стенда ОАО «РВК»), и коммерческих организаций. Когда я попросил привести пример такой работы, Кузнецов отыскал заказанную кем-то ручку тренажёрного аппарата. По его словам, изготовить деталь таких размеров и такой точности будет стоить восемь тысяч рублей, и это считается очень конкурентной ценой.
По словам Кузнецова, многие российские институты тоже задумываются о том, чтобы обзавестись своей лабораторией, а кое-где подобные мастерские уже существуют, хоть и не имеют официального статуса Fab Lab. Летом 2012 года прошла интересная новость о том, что «Минэкономразвития» профинансирует открытие двадцати российских лабораторий, и каждой из них на первый год работы будет выделено до десяти миллионов рублей. В МИСиС подготовили рекомендации со списком требуемого оборудования, и проект был принят. «Может быть, откроют двадцать лабораторий, а может быть, и сто, но наверняка пока что никто ничего не знает», — пояснил Кузнецов.
В чём может быть проблема, если план обустройства лабораторий уже утверждён и деньги обещаны? Очевидно, что между обещанием и делом есть немалая разница, но проблема не только в финансах, нужных для закупки оборудования. Занятия должен кто-то вести, а учителей, способных разобраться с высокотехнологичным оборудованием, пока, мягко говоря, немного, особенно в российской глубинке.
Именно поэтому так важен успешный год работы первого «Фаблаба». Всегда нужно с чего-то начинать, и чем больше учеников получат необходимые навыки, тем больше шанс, что кто-то из них потом сможет передать свой опыт другим.
Как сказал Гершенфельд в своём выступлении, «Fab Lab — это не просто технологии для народа, это создание технологий народом». Наш не чуждый наколенному изобретательству народ должен быть особенно чутким к таким прекрасным лозунгам.
Опубликовано 27 марта 2013
Честно сказать, я не поклонник сериалов. И когда супруга попыталась «подсадить» меня на доктора Лайтмана (помните «Обмани меня»?), поначалу не поддался. Тогда она взяла хитростью. Как-то раз за ужином мне было поведано, что в основе этого многомногосерийного фильма — реальный учёный, создавший теорию так называемых микровыражений лица: хотим мы того или нет, мельчайшие нюансы мимики выдают нас с головой, якобы позволяя судить о том, говорим мы правду или лжём.
Устоять против такого аргумента я, понятно, не мог (женщины!), но в общем не жалею. Потому что хоть истина, как водится, оказалась посередине (учёный и правда был, и даже не один, вот только лицо не детектор лжи и в лучшем случае предоставляет лишь косвенные улики, отражая эмоциональное состояние), сегодня мне есть на что опереться, приступая к рассказу о компании RealEyes. Той самой, которая называет себя «Гуглом эмоций», меряет настроение человека по его лицу — и только что приняла от венчурных инвесторов три миллиона с копейками, доведя общую вложенную в неё сумму почти до пяти миллионов долларов.
У доктора Лайтмана и американской RealEyes — общие корни. Они опираются на работы американских психологов второй половины XX века, в том числе труды Пола Экмана. Несколько упрощая, можно сказать, что центральная идея там очень проста: если замедлить ход времени и следить за лицом человека, окажется, что оно постоянно меняет своё выражение. Краткосрочные, длительностью в десятые доли секунды «гримасы» появляются непроизвольно и отражают основные эмоции, переживаемые нами (злость, страх, удивление и пр.). Экман, консультировавший создателей «Обмани меня», расширил список, сумев распознать гордость, вину, возбуждение и некоторые другие. Но одно дело — кино, где суперталантливый герой ловит микровыражения чуть ли не на глаз и распознаёт их интуитивно, и совсем другое — настоящая жизнь, где для поимки и анализа экспрессий на лице пришлось строить точную цифровую механику.
RealEyes, у истоков которой, кстати, стоял Микел Ятма, в определённом смысле наш соотечественник (эстонец), начинала во второй половине нулевых с мониторинга движений глаз и постепенно освоила всю гамму непроизвольной мимики. Ничего особенно хитрого в плане аппаратного обеспечения (сгодится любая персоналка с хорошей веб-камерой), зато нетривиальная программная часть. Скажем, взять радость. Распознать её не так сложно, достаточно диагностировать известные изменения двух групп лицевых мышц (над и под глазами, в уголках губ). Но можно ли измерить её степень? Человек сделает это интуитивно, без труда, а вот машине приходится туго. В RealEyes научились измерять амплитуду эмоций — и очень этим гордятся. Кстати, можете прямо сейчас опробовать их метод на себе: если у вас на компьютере установлена камера, на официальном сайте компании есть соответствующее веб-приложение.
Но Ятма с коллегами сделали ещё один важный шаг. Эмоции рождаются в подсознании и выплёскиваются на лицо без участия, ведома и против воли человека. И там же, в подсознании, как результат эмоций или параллельно им рождаются почти все наши решения. Так это на самом деле или нет, я утверждать не возьмусь, но в RealEyes в это верят — и это даёт им возможность продолжить логическую цепочку: квантование эмоций может и должно использоваться для оценки истинного отношения человека к той или иной проблеме, истинных его намерений.
Как принято оценивать потенциальную эффективность рекламных кампаний? Бета-версию рекламного ролика демонстрируют группе добровольцев, после чего заставляют их описать свои ощущения на бумаге. Вот она, конфликтная точка: совсем не факт, что, вымучивая из себя слова, подопытный индивид сможет правильно оценить свою реакцию. Настоящие решения рождаются подсознательно, а значит, и ловить их нужно иначе, нежели вручая человеку ручку. Измерение эмоций по лицу способно дать правдивую картину. Неубедительно? Несмешно? Неудачно? Пугающе (вспомните, почему провалились «Лемминги» Apple)? По лицу можно прочесть всё это раньше, точней, да ещё и быстрей и дешевле, нежели классическими методами.
RealEyes владеет сетью «пунктов сбора информации» в больших магазинах Европы и США: по заказу они отслеживают реакцию настоящих посетителей на товары, рекламу, стенды и пр. Но, вообще говоря, область применения технологии ничем не ограничена. Раз наблюдать за лицом можно даже на персоналке, почему не сделать интерактивную веб-рекламу, оценивающую реакцию сетян прямо на домашней или офисной PC (а в обмен за участие можно предложить скидку)? Или корректировать политические кампании, наблюдая за микрореакциями небольших групп избирателей на тот или иной слоган, политическую идею, законопроект? А бескрайнее море мобильных устройств — кто вообще сможет предсказать, как квантование эмоций может быть использовано там?
Конечно, RealEyes работает в этом направлении не одна. Тем же заняты Affectiva (вышедшая из MIT), Sensory Logic, если поискать, наверняка отыщутся и другие игроки. Некоторая сомнительность концепции с лихвой компенсируется перспективами и списком клиентов, среди которых — натуральные гиганты мирового пищепрома, бытовой химии, электроники, маркетинга. Услугами RealEyes и её коллег по цеху не стесняются пользоваться Coca-Cola, eBay, Unilever, Sony, солидные офф- и онлайновые СМИ, известные исследовательские конторы (ранга Nielsen Media Research). Квантование эмоций часто даёт результаты, противоречащие полученным классическими методами, — но тем хуже для «классики», явно доживающей свой век.
Для RealEyes же и прочих всё только начинается. Прогресс, правда, идёт чуть медленней, чем предполагалось: два года назад геймеры бредили идеей игр, учитывающих эмоции игрока, но на прилавке их по-прежнему нет. Зато обозначилась голубая мечта сторонников автоматического анализа лицевых экспрессий: социальные сети! Там раскинулись необъятные поля для анализа и выводов. Туда лежит их путь.