Технологии

ATLAS, HUBO и другие роботы-спасатели, созданные для конкурса DARPA Андрей Васильков

Опубликовано 12 июля 2013

Агентство перспективных оборонных научно-исследовательских разработок США подведёт итоги конкурса по созданию роботов-спасателей в декабре этого года в Майами. Однако ряд участников уже готов показать предварительные результаты. Среди них создатели двухметрового робота ATLAS (Boston Dynamics) и Корейский институт науки и технологий (KAIST) с новой версией робота HUBO. По замыслу эти роботы будут действовать в опасных условиях, устранять последствия аварий, преодолевать сложные препятствия, разбирать завалы и делать другую неблагодарную работу.

Используемые в реальных условиях роботы всегда были мало похожи на людей. Лучшей конструкцией в робототехнике признавалась не самая гуманоидная, а способная выполнить задачу ценой минимальных затрат. За исключением Baxter, о котором «Компьютерра» писала ранее, все промышленные роботы — это мощные и точные автоматы самых разных форм. Роботы-сапёры больше похожи на радиоуправляемые машинки с манипуляторами, но это не мешает им эффективно выполнять задачи по разминированию. Аналогичная ситуация наблюдается и в других областях, включая освоение морских глубин и других планет.

По какой-то причине в Министерстве обороны США сочли, что перспективному роботу-спасателю всё-таки лучше быть именно гуманоидным. Конкурс на его создание был объявлен в октябре 2012 года. Бороться за Гран-при стоимостью 2 млн долларов стали как хорошо известные фирмы с большим опытом, так и молодые исследовательские коллективы. В финал прошли шесть компаний, пять из которых представляют человекоподобные модели. Однако не все они готовы показать свои прототипы сейчас.

http://www.youtube.com/watch?v=hpeZGCzUmNY

Единственный негуманоидный образец — RoboSimian — пока висит на опорах и упражняется в гибкости. T.H.O.R. ещё не способен держать молот, поскольку его нижняя часть сейчас испытывается отдельно от верхней. Создаваемый в NASA робот Valkyrie существует в виде компьютерной модели и отдельных компонентов. SCHAFT едва научился ходить на полусогнутых ногах и держать равновесие. Недавно ему доверили дрель, после чего поток новостей от разработчиков прекратился.

Центр робототехники при Университете Карнеги — Меллона (Пенсильвания) разрабатывает робота-спасателя CHIMP (CMU Highly Intelligent Mobile Platform) с повышенной устойчивостью. На его ногах и руках мы видим хорошо знакомое решение для улучшения проходимости – гусеницы.


Робот-спасатель CHIMP — CMU Highly Intelligent Mobile Platform (изображение: Tartan Rescue / Carnegie Mellon University).

Он преодолевает сложные препятствия, карабкается по приставной и пожарной лестницам, цепляясь за перекладины крюками. Развиваемый манипуляторами крутящий момент достаточно высок, чтобы робот смог самостоятельно закрыть вентиль, не поддающийся усилиям одного человека.

Другой человекоподобный робот с открытой платформой, HUBO, разрабатывается совместными усилиями нескольких групп. Помимо KAIST, в его создании принимают участие многочисленные коллективы исследователей из США. Свой вклад внесли частный Университет Дрекселя, общественный Университет Пердью, Технологический институт Джорджии, университеты штатов Делавэр, Огайо, Индиана и Колумбийский университет. Общая концепция применения HUBO в ближайшем будущем выглядит чрезвычайно смело.

http://www.youtube.com/watch?v=FZD8365q05E

В деморолике указывается 2020 год. За оставшиеся семь лет участники проекта HUBO намерены научить своё творение пользоваться тяжёлой техникой, подручными инструментами и оценивать обстановку. Без последнего не обойтись, так как, прежде чем ловко убрать с пути упавшую балку, требуется оценить, что она держит. С учётом того, что сегодняшняя версия робота едва способна преодолевать искусственную полосу препятствий, названные сроки и умения кажутся слишком оптимистичными.

Создаваемая для конкурса модель получила ожидаемую приставку в названии — DRC (DARPA Robotics Challenge). Для повышения устойчивости робот может временно отказаться от прямоходящего режима и перейди на ходьбу на четвереньках. Для этого тыльная сторона дистальной части манипулятора сделана широкой и пружинящей.

Робот быстро реагирует на изменения обстановки и появление угрозы, обходясь при этом без множества специализированных датчиков. Представьте ситуацию, в которой DRC-HUBO поднимается по лестнице. Если на него в это время будет падать камень, робот попытается отклонить корпус так, чтобы пропустить его, но не упасть при этом самому. Если же удар неизбежен, то манипуляторы вцепятся в перекладины, а ноги попытаются частично погасить энергию падающего объекта за счёт амортизации.

Ещё одной отличительной чертой HUBO является способ управления. Он точно копирует любые движения, выполняемые оператором на другом аналогичном роботе. Принцип напоминает ритуалы Вуду и других анимистических культов, но очень удобен в сложных ситуациях.

http://www.youtube.com/watch?v=f7djSOg7fjM

Ещё семь команд получат шанс в дополнительном соревновании. От них потребуется написать собственные управляющие алгоритмы для главного претендента на победу — робота ATLAS. Ранее участникам предоставлялась возможность опробовать их в виртуальной модели. Теперь осталось выяснить, какой программный код оказался наиболее работоспособным в реальных условиях.

Компания Boston Dymanics уже демонстрировала других впечатляющих роботов — Petman и AlphaDog. В их новом гуманоидном творении, ATLAS, сочетаются сильные стороны предшественников — превосходный баланс и динамическая устойчивость. Робот массой 132 кг и ростом под два метра выглядит стальным атлетом и уже способен на многое. Краткая история его создания представлена в следующем видео.

http://www.youtube.com/watch?v=zkBnFPBV3f0

Современная модель ATLAS учитывает препятствия на дороге и успешно преодолевает их, поднимается по ступеням, сохраняет равновесие при боковых ударах, совершает сложные и плавные движения в соответствии с автоматически выбранной подпрограммой. Технически это усовершенствованная версия робота Petman на том же шасси. Теперь в нём используются двадцать восемь гидравлических приводов, лидар, стереоскопические датчики, продвинутые алгоритмы восприятия и коррекции движений. На запястье могут устанавливаться модули сторонних разработчиков.

Если через несколько лет вы увидите одного из этих роботов — не пугайтесь. Его специально сделали похожим на человека, чтобы вам было проще привыкнуть и довериться такому спасателю.


К оглавлению

В глаза смотреть! Как и для чего рекламный щит научили видеть Евгений Золотов

Опубликовано 12 июля 2013

Рекламная индустрия не даёт нам скучать — и это, пожалуй, единственный её плюс: со всем остальным справится и просто молва. Вместе с тем последние лет двадцать в мире офлайновой рекламы выдались скучными: пока в виртуальном пространстве крушили друг друга тектонические плиты новых принципов и парадигм адвертайзинга, офлайн разве что перешёл на использование электронных экранов вместо традиционной бумаги. Но зашевелился и офлайн. Вслед за бытовой электроникой, взявшей курс на «умные» устройства, уличные рекламодатели занялись экспериментами с «умными» рекламными точками. Последний пример — инициатива европейской конторы Amscreen, собравшейся в течение следующих месяцев научить все свои наружные экраны буквально распознавать, кто стоит перед ними, и даже, возможно, реагировать на зрителя.

Фантасты эту тему давно отработали: вспомните хоть «Особое мнение», где баннеры кличут главного героя по имени. Но то кино, а вот сработает ли подобное в реальности? В Amscreen уже год ведут бета-тестирование и уверены, что сработает. Amscreen, вдохновителем и председателем совета директоров которой стал британский барон Алан Шугар (основатель легендарной Amstrad), эксплуатирует одну из крупнейших европейских сетей электронной наружной рекламы. Попросту у неё свыше шести тысяч дисплеев, установленных в самых разных местах, от банальных торговых центров и автозаправок до стадионов и госпиталей, еженедельно охватывающих около 50 миллионов человек. И в ближайшее время каждый её экран будет оснащён технологией OptimEyes (видеокамера плюс специальное программное обеспечение), что позволит установить полную обратную связь: зритель будет наслаждаться рекламой на экране, а экран — зрителем.


Магазины особенно привлекательны для рекламодателей по простой причине: посетитель интуитивно ждёт здесь помощи, а потому девять из десяти человек (статистика Amscreen) обращают внимание на рекламу.

С помощью OptimEyes экран «читает» лица: анализирует пропорции лица каждого человека, оказавшегося в непосредственной близости, и определяет его пол, прикидывает возраст, фиксирует, устремлён ли взгляд на экран или человек просто прошёл мимо, даже оценивает степень интереса к демонстрируемому в данный момент контенту. Зная точные время и место действия, представьте, какие перспективы это открывает для рекламодателей!

Прежде всего становится возможной точная оценка аудитории: как много народу, когда и насколько внимательно просмотрело то или иное объявление. Далее, с привлечением новых функций можно организовать невероятно точный для офлайновой рекламы таргетинг: выбрать час или минуту, когда в толпе преобладают люди нужного типа (например, молодые мамы), даже «целиться» в конкретных индивидов — скажем, запоминая прохожих и их интересы, привычки. Можно заняться оптимизацией — оценивая реакцию клиентопотока на разные варианты одного объявления, чтобы выбрать в конце концов версию, привлекающую больше внимания. Наконец, то, что прохожий, поглощающий рекламу с экрана, не понимает и не ожидает, что в этот же самый момент экран изучает его самого, тоже является ценным свойством: человека застали врасплох, можно изучать его естественную реакцию.


Как нескромно утверждают в Amscreen, её умная офлайновая рекламная сеть будет крупнейшей в своём роде, и это похоже на правду. Но вообще идея уже какое-то время носится в воздухе. Скажем, «умные» телевизоры в принципе способны понимать, что происходит по эту сторону экрана — а значит, могут, скажем, выбрать рекламный ролик, соответствующий моменту: кондитерских изделий, если семья собралась ужинать, или резинотехнических, если на диване зафиксирован поцелуй (см. «Горе от ума»). Но такой телевизор ещё предстоит построить (точнее, написать приложения). А вот манекены Almax Italy, демонстрируя свежие наряды, одновременно с помощью встроенных видеокамер уже следят за посетителями в магазинах Европы, собирая, в общем, ту же информацию, что и «умный» экран Amscreen (пол, возраст, раса, порция внимания). Вскоре производитель обещает научить их распознавать речь, выделяя из подслушанных разговоров ключевые слова.

К сожалению, картины, нарисованной в «Особом мнении», в реальности, конечно же, не получится. (А было бы весело, согласитесь!) Не будет идентификации прохожих, потому что живём мы не кинофантазии, где применимость идеи определяется исключительно её технической осуществимостью. В обычном мире даже гиганты электронного бизнеса шарахаются от формулы «распознавание лиц» как от огня. Вспомните: Facebook чуть было не заставили отказаться от функции автоматического узнавания друзей на фотографиях (только друзей, на большее алгоритм не способен; см. «Для чего Фейсбуку знать вас в лицо»), а Google недавно — даже зная наверняка, что запрет чисто символический и обойти его ничего не будет стоить, — объявила, что не потерпит приложений, распознающих лица, для очков Glass. Так что едва ли Amscreen станет рисковать в одиночку.


Манекены EyeSee от Almax Italy (около $5 000 за штуку). Это с их помощью было выяснено, что по крайней мере в первые дни распродаж в магазинах преобладает сильный пол.

Впрочем, и отказ от узнавания людей в лицо ещё не гарантирует приверженцам «умной» офлайновой рекламы спокойной жизни. Дело в том, что информация о прохожих собирается без их, прохожих, ведома и согласия. И пусть она даже обезличена, но собирают её с чётким намерением извлечь выгоду. Следовательно, предупреждают эксперты по праву, рано или поздно такая практика приведёт рекламщиков в суд. В той же Amscreen это явно понимают, потому что не ленятся уточнять: мол, мы не распознаём лица, а всего лишь анализируем отдельные черты и формы, и законов, таким образом, не нарушаем. Аргумент наивный, но пока не припекло, сгодится и он.

А завтра… Завтра не удивляйтесь, если, забежав в какой-нибудь прогрессивный бутик вроде «Бенеттона» или H&M (а может быть, даже и на входе в торговый центр типа «Меги») вы получите листок с набранным мелким шрифтом пользовательским соглашением. Знаете, вроде того, какое предлагают подмахнуть при регистрации на крупных сайтах. Чтоб не было претензий позже, когда вы поймёте, что за вами наблюдают.


К оглавлению

Мозговые протезы и прочие аргументы против «Человек из мяса — это звучит гордо» Анатолий Левенчук

Опубликовано 12 июля 2013

Недавно мне задавали вопросы про электронные мозговые протезы — насколько это может быть реально? Вот несколько пруфлинков:

— главная статья с подробным описанием эксперимента на приматах — — веб-сайт — тема тут (результаты мая 2012-го);тамошней тусовки (безнадёжно устарел: самый свежий материал там — от 2008 годв);Brain-computer Interfaces and Neural Prostheses в ключевых словах конференции 2013 года по нейронным информационным системам.

А для повёрнутых на «интеллектуальном витализме» человеческого творчества рекомендую алгоритм, который более или менее распознаёт период сочинения мелодии (эпохи барокко, классики, романтизма, XX века), беря всего три последовательных ноты из любого её места. Почему я это привожу следующим абзацем к материалу по «мозговым протезам для приматов»? А вы почитайте последние абзацы в тексте по ссылке:

We could perform this study because of the available data – the “big data” of music. This same approach could identify other patterns in other sounds, namely our speech. Computer algorithms can already identify speech patterns in the early stages of Parkinson’s disease through a recorded phone interview.

Doctors know that the vocal chords are affected early on in the onset of Parkinson’s. We want to push the ability to identify the combination of sounds – like the three notes in our Western music study – to make an even earlier diagnosis.

With more-comprehensive speech data, we could uncover patterns in other diseases. We’re now using our tool to study past individual cases to tease out features and patterns in the way people with a particular psychiatric disorder speak or even “hum” music. From this, we could come up with models to explain the behavior.

Perhaps in the future, other disorders can be identified through simple, non-invasive verbal tests.

Для меня это «возможно в будущем» сведётся к простенькой программке-монитору в какой-нибудь пятой версии Google Glass (и связанным с этой программкой неизбежным дебатам о том, можно ли опираться на результаты работы таких программ при приёме на работу — или это «несправедливая дискриминация на основе мозговых различий, ещё более несправедливая, чем дискриминация по полу и возрасту»). Это «возможно в будущем» может случиться уже через пяток лет, ойкнуть не успеете.

Планшеты как класс устройств появились 4 апреля 2010-го: вышел первый iPad. Прошло всего три года — и эти планшеты есть у всех, и отнюдь не только эппловские. Конечно, будут и очки не только гугловские. В любом случае поглядите на графики: они дают какое-то представление о том, что начинает происходить на рынке с носимой компьютерной аппаратурой (и обязательно делайте поправки на то, что торговых марок этой аппаратуры будет сильно побольше, чем одна–две).


Чем всё это отличается от смартфонов? Последние нужно включить и поглядеть на экран, пару раз перед этим в сей экран ткнув. Поэтому не все утруждаются включать смартфоны и глядеть на дисплеи. Очки-компьютеры просто убирают этот барьер: не нужно шевелить пальцем для включения экрана, шевельнуть нужно всего лишь глазом, что легче. С другой стороны, неважно, что программа планирования ремонта по состоянию будет работать на корпоративном мейнфрейме и иметь интерфейс на планшете, помещаться в облаке и иметь интерфейс на очках или же находиться в импланте с интерфейсом прямо к нейронам мозга. Это непринципиально с точки зрения того, что делает эта программа: важно лишь снижение барьеров доступа к ней и интеграция результатов её работы в привычное «думание».

Конечно, не только с интерфейсами и (или) клиентскими устройствами будет много чего происходить в ближайшее время, но и с серверами. Обратите внимание: знаменитый в «deep learning-кругах» Andrew Ng за счёт задействования GPU упаковал ту же задачу, что решалась на аппаратном комплексе за $1 млн, в аппаратуре за $20 тыс., но опять-таки последний абзац там уточняет: унаследованное от эпохи моды на видеоигры аппаратное решение GPGPU архитектурно неадекватно для всех этих deep learning и big data, и требуются какие-то иные решения. То, что Ng заинтересовался аппаратурой, — это только начало длинного (аж в несколько лет) пути. Эти новые аппаратные решения обязательно появятся, и очень скоро. Предложений по хардверу при сегодняшних технологиях его создания может случиться не меньше, чем года три назад стало прибывать по языкам программирования при современных технологиях создания компиляторов и понимании теоретических проблем языкостроения.

Вот так и будет: новое адекватное железо, новые алгоритмы феноменологического поиска закономерностей и извлечённые из изобильных данных новые закономерности. Следующий прорыв будет в алгоритмах построения формальных теорий (создания системы идеальных объектов, в терминах которых можно строить легко понимаемые компактные объяснения-описания — все эти «аксиоматические теории» вместо «массивов весовых функций»).

Но логицизм — он логицизм и есть, даже в сегодняшнем обличье массивов весовых функций deep learning, ещё до нормального софта построения аксиоматических теорий. Никакой «мистики творчества». Я придерживаюсь мнения, что «интеллектуальным» или «творческим» называется сегодня только то, что непонятно как устроено. А когда понятно, когда имеется компьютерная модель задачи — это не по линии интеллекта или творческой гениальности, а по линии цирка. Через десяток лет на композиторских программах можно будет найти слайдер вышибания слезы с двумя крайними положениями — от печали или от радости. Другое дело, что такие программы никому не нужны: это самое «творчество» в его классических изводах оказывается предельно дешёвым товаром, автоматизация которого нерентабельна. Это не значит, что автоматизации не будет. Будет, просто дело пойдёт не слишком быстро — и в порядке хобби, в отличие от вполне рыночной автоматизации «нетворческой» деятельности типа погрузочно-разгрузочных работ с помощью роботов или автоматического вождения автомобилей: каждая такая «нетворческая» деятельность будет затрагивать миллионы людей, а не десятки тысяч «интеллектуалов». Но и до последних дело дойдёт — когда оно будет упираться в сложность.

Меня спросили на тьюториале, что я считаю «сложным». Сложным я считаю такое дело, которое не влезает в человечий мозг, чтобы его делать без автоматизации. Так, если у вас пять миллиардов транзисторов на чипе, то без автоматизации такой чип ни «сдизайнить» (то есть продумать), ни произвести невозможно. Вот такой простой критерий. Так что всё это «композиторство» и «писательство» (и даже «конструкторство») для меня — несложные задачи, несмотря на то что в народных легендах они намертво ассоциируются с «творчеством». А вот ежели нужно сделать оптимальный по весу и прочности корпус для какого-нибудь редуктора — это задача сложная (и простая, если оптимальности по весу и прочности не требуется). Переход к решению сложных задач — вот настоящее творчество. В этой связи даже распознавание дорожных знаков с точностью лучше, чем у не вооружённого компьютером человека, — задача сложная, творческая. И я счастлив, что в решении таких задач как раз сейчас происходит качественный скачок: жизнь не просто меняется, жизнь меняется ВНЕЗАПНО.


К оглавлению

FIDO — носимые компьютеры для собак и другие необычные концепты Андрей Васильков

Опубликовано 11 июля 2013

Интерес к носимым компьютерам в последнее время резко возрастает. Вслед за Google glass, умными часами Pebble, браслетом Up! и другими интеллектуальными устройствами появляются всё новые. Разработчикам уже мало заинтересовать человека в том, чтобы надеть на себя очередной гаджет. На очереди – носимые компьютеры для собак, польза от которых может оказаться гораздо больше.


Проект FIDO (фото: gatech.edu)

Служебные собаки давно помогают людям. Они играют роль поводырей для слепых, ищут людей под завалами, обнаруживают раненых, участвуют в их эвакуации и психологической реабилитации.

В охранной службе и полиции востребованы боевые качества собак, а из-за феноменального нюха их используют для поиска наркотических и взрывчатых веществ. При этом за многолетнюю историю характер взаимодействия людей и собак не изменился. По-прежнему четвероногие помощники гораздо лучше понимают нас, чем мы — их.

Исследователи из Технологического института штата Джорджия (США) решили компенсировать этот недостаток, добавив носимый компьютер для собак в качестве посредника в общении. Над ним работают создатель прообраза Google Glass Тэд Старнер (Thad Starner), доцент Мелоди Джексон (Melody Jackson) и ассистент Клинт Зиглер (Clint Zeagler).

Их инициатива называется FIDO, но не имеет ничего общего с легендарной сетью и переводится как «упрощение взаимодействия со служебными собаками». Перспективы она открывает действительно заманчивые.


«Обнаружение бомбы» — постановочное фото (Scoutdogs Chris / flickr.com).

К примеру, служебные собаки занимаются поиском взрывчатых веществ и часто рискуют жизнью. Если на таможне и в небольшом помещении они непосредственно взаимодействуют с кинологом, не отходя от него ни на шаг, то на большой территории вынуждены бегать самостоятельно.

Они ложатся рядом с обнаруженным взрывным устройством и привлекают внимание специалистов лаем до тех пор, пока не подойдёт команда сапёров.

Всё это время собака не только подвергает риску себя, но и может спровоцировать взрыв обнаруженной бомбы.

С носимым компьютером, оснащённым GPS и камерой, сценарий поиска становится куда более безопасным. Кинолог может сидеть с оперативной группой в бронированном автомобиле и сразу увидеть на дисплее, где и что именно обнаружила служебная собака. После чего он отдаёт ей дистанционную команду вернуться или продолжить поиск, не покидая машины.

Аналогично обстоит дело и с использованием собак для охраны. С системой FIDO они превращаются в стремительные зубастые камеры, обмануть которые или незаметно нейтрализовать нарушителю уже вряд ли удастся. Если сигнал с камеры исчезнет на мониторе, то всегда можно узнать последнее местонахождение верного пса и проверить, жив ли он, по датчику пульса. Решается и проблема со слишком ретивым несением службы. Отозвать свору от перепуганного соседа также можно не выходя из дома, дистанционно подав условный сигнал на вибромоторчик в ошейнике или слабый импульс на электроды.

Мелоди Джексон занималась дрессировкой служебных собак на протяжении восемнадцати лет и высоко оценивает перспективы системы FIDO. На данном этапе трёх собак научили отдавать через носимый компьютер всего несколько команд. Они могут сжимать блок сенсоров в оболочке зубами, дёргать его или постоянно держать в пасти в зависимости от того, что хотя сообщить хозяину. Пока это совсем простые послания вроде «Хочу есть», «Хочу пить» и «Пора выгуливать». Главное достижение — в том, что все три участницы эксперимента хорошо восприняли носимый компьютер и научились игнорировать его, не хватая сенсор ради забавы.


Проект FIDO: носимые компьютеры для собак (фото: ipat.gatech.edu).

В этом плане людям есть чему поучиться у братьев меньших. Пока гаджеты чаще используются для развлечения, чем приносят реальную пользу. Большинство разработчиков по-прежнему делают ставку на привычные способы крепления своих устройств — браслеты на запястье и наголовные дисплеи. Однако этими простыми вариантами визуализации область применения носимых компьютеров вовсе не ограничивается.

Молодая компания Atheer Labs, чья штаб-квартира расположена рядом с офисом Google в Калифорнии, уже предлагает не только увидеть, но и потрогать виртуальные предметы, манипулируя ими как обычными и дополняя реальное окружение цифровыми образами. Это находит применение в наглядном обучении сложным манипуляциям, для освоения которых изготавливать физические тренировочные макеты было бы слишком затратно.

Основатель Atheer Labs Сулейман Итани (Suleiman Itani) отмечает, что наиболее лёгкий способ для человека получить информацию — увидеть или услышать её. Поэтому и популярны такие разработки, как умные очки, линзы и гарнитуры. Одежда со встроенной электроникой не вызывает столь большого внимания.

С ним не соглашается Кристоф Ван Лэрховен (Kristof Van Laerhoven) — генеральный председатель Международного симпозиума по носимым компьютерам и руководитель направления встроенных сенсорных систем в Дармштадтском техническом университете (Германия). В своих последних публикация он пишет, что сейчас многие рассматривают и совершенно иные варианты применения носимых технологий и приложений. Более подробно они будут обсуждаться в сентябре на ежегодной конференции ISWC в Цюрихе. Речь, в частности, пойдёт о спецодежде с вшитыми газосигнализаторами для рабочих на потенциально опасных производствах, спортивной одежде с постоянным мониторингом физиологических параметров и других необычных идеях.

По оценкам аналитической компании Juniper Research, до конца года будет реализовано около 15 млн интеллектуальных носимых устройств, среди которых преимущественно очки дополненной реальности и фитнес-мониторы. Их общая сумма составит около 800 млн долларов. Если тенденция сохранится, то в 2017 году будет продано уже примерно 70 млн носимых компьютеров в самых разных формфакторах.

Даже при таких объёмах остаётся огромное поле для экспериментов. Многие интересные проекты годами не покидали исследовательских лабораторий и не были анонсированы. Ведутся разработки интеллектуальных устройств, вшиваемых в одежду, и даже имплантируемых вариантов. Например, рассматривается анализатор пищи в формате искусственного зуба или его части (коронки). Часть этих удивительных разработок будет представлена уже в следующем году.


К оглавлению

Электронный след в катастрофе Asiana 214: виноват человек — или машина? Евгений Золотов

Опубликовано 11 июля 2013

После того как в субботу, 6 июля, в аэропорту Сан-Франциско разбился «Боинг-777», публике — и без того страдающей от аэрофобии — можно было ухватиться всего за два обнадёживающих обстоятельства. Во-первых, несмотря на потенциально катастрофический расклад, из 307 человек на борту погибли лишь двое. Во-вторых, крушение скорее всего стало следствием ошибки пилота, а не техники: капитан, управлявший авиалайнером в то роковое утро, имел налёт свыше 10 тысяч часов, однако конкретно на «777-м» имел лишь считанные вылеты и как раз работал в паре с пилотом-тренером. Однако вчера была внесена важная поправка. Появились данные, позволяющие утверждать, что виноват всё-таки был не человек, а электроника. Действие или, точнее, бездействие которой и вывело самолёт на опасный курс.

Рейс Boeing 777-200ER (ER означает «extended range» — модификация для дальних перелётов) авиакомпании Asiana Airlines за номером 214 начался в Сеуле и длился более 10 часов. К западному побережью Соединённых Штатов авиалайнер прибыл в одиннадцать часов местного времени с минутами и, не считая получасовой задержки на старте, до того момента полёт проходил в штатном режиме. Дальнейшее вы видели: спуск, неожиданно большая потеря скорости и высоты, удар шасси и хвостовой части о волнолом, потеря управления. Лишь за полторы секунды до контакта с землёй экипаж принял решение отменить посадку и пойти на второй заход, но времени на манёвр не хватило. Самолёт протащило ещё полкилометра, развернуло кругом и приложило о землю. Утекшее топливо спровоцировало взрывы и пожар.


Как минимум двух человек прижало и травмировало сработавшими нештатно надувными трапами в салоне. Сдуть их можно, просто ткнув шилом, но у пассажиров ничего острого не оказалось: запрещено! Так что пришлось рубить пожарным топором.

То, что погибли всего два человека (из которых один, возможно, был в спешке задавлен пожарными, прибывшими на место уже спустя две минуты), конечно, чудо — но благодарить за это следует не столько судьбу, сколько инженеров, проектировавших «777-й». Статистика аварийности у него одна из лучших в гражданской авиации. С момента начала эксплуатации в 1995 году разбились только два таких самолёта (включая Asiana 214), и лишь в одном случае (опять-таки рейс 214) были жертвы на борту. Впрочем, нельзя забывать и о пассажирах, и о членах экипажа, проявивших настоящий героизм. Они выводили людей, выносили пострадавших на руках до последнего человека, даже когда фюзеляж уже был объят огнём. Тем хуже, что первое же подозрение пало на пилотов.

Отличная погода, никаких отклонений в работе бортового оборудования — всё говорит в пользу того, что Ли Кан Кук (непосредственно занимавшийся посадкой) по неопытности, а трое его коллег по невнимательности или отсутствию на месте (на борту четверо пилотов, и всем полагается контролировать спуск) прозевали падение скорости ниже допустимой отметки.

Версия эта появилась во многом благодаря Агентству по транспортной безопасности США (NTSB), необычно активно взявшемуся освещать ход расследования. Однако вчера, после допроса пилотов, её пришлось переписать. Из пилотской кабины ситуация выглядела следующим образом. Примерно за полторы минуты до удара о землю, на высоте 500 метров, командир корабля отключает автопилот и берёт управление в свои руки. Когда до земли остаётся полторы сотни метров, он замечает, что идёт медленней и ниже необходимого, а также со смещением от центра взлётно-посадочной полосы. Кан Кук включает так называемый автомат тяги, задача которого — привести горизонтальную скорость к норме (254 км/ч), а сам в это время пробует выровняться относительно ВПП.


Внутри «Боинга-777». Кресла из негорючих материалов выдерживают страшные перегрузки. Кстати, на рейсе 214 кресла и правда выдержали, не выдержали же пассажиры: чуть ли не самая распространённая травма у выживших — перелом позвоночника.

В этот момент катастрофы ещё можно избежать, но… По какой-то причине автомат тяги не срабатывает или работает не так, как требуется. Пилоты понимают это, только когда включается сигнализация, предупреждающая об угрозе срыва в штопор, — на высоте ниже 50 метров, за восемь секунд до контакта с землёй. Слишком поздно, чтобы что-то исправить. Командир даёт полную тягу, но инерция огромна и скорость начинает расти лишь на последней секунде снижения. Земли «Боинг» касается на скорости 196 км/ч.

Мог ли автомат тяги не сработать? Мог, официальные лица (NTSB) этого не исключают. Управление двигателями на современных авиалайнерах реализовано посредством цифровых электронных систем, так что могла проявиться и ошибка в программном обеспечении, и неполадка аппаратного свойства. Вопрос в том, почему пилоты не заметили отказа сразу же. Тому есть несколько возможных объяснений. Во-первых, в момент включения автомата тяги ситуация ещё не была критической, да и скорость скорректироваться мгновенно не могла. Во-вторых, вместо посадки «по приборам», то есть по обычным сегодня радиомаякам (системе ILS, позволяющей садиться, вообще не видя земли; на полосе 28L она в тот день была на ремонте) командир Asiana 214 садился, ориентируясь на значительно менее точную систему PAPI (четыре цветных прожектора на ВПП: два красных и два белых — норма, три красных и один белый — идёте ниже нормального; естественно, требуется визуальный контакт).

Надеясь прояснить ситуацию, я посоветовался с парой человек, в прошлом связанных с авиацией, — и первое, на что они обратили внимание, это бездействие диспетчера. Наземные службы должны были следить и, конечно, следили за снижением «Азианы», но тревогу не подняли. Следовательно, как и пилотам, траектория спуска не казалась им опасной вплоть до последних секунд.

Но гарантирует ли это невиновность экипажа? Увы, нет. Есть ещё как минимум одна версия, возлагающая равную вину на проектировщиков самолёта и пилотов: возможно, ошибку человека спровоцировала сложность оборудования. Дело в том, что рычаг автомата тяги имеет не два положения, а три: выключен, включён и активирован («armed»: включается автоматически, если скорость падает ниже заданной). Но есть тонкость: он не включится, если выключен командный пилотажный прибор, подсказывающий пилоту правильные углы тангажа (наклон носа) и крена. Так вот, командир упавшего «777-го» поставил автомат тяги именно в положение «armed», тогда как командный пилотажный прибор у него был выключен. Вот почему автомат не сработал. Впрочем, принимайте эту версию с осторожностью. Её сейчас активно обсуждает западная пресса, но внятно объяснить взаимозависимость ключевых механизмов «Боинга-777» никто не в состоянии — и даже на специализированных форумах по этому вопросу царит неразбериха. Буду признателен, если специалисты среди читателей КТ поделятся мнением в комментариях.


Недолёт теперь чрезвычайно редок — спасибо электронике! В Соединённых Штатах за последние 40 лет зафиксировано только 20 случаев (на сотни миллионов вылетов), когда гражданский самолёт не дотянул до ВПП. И почти все стали следствием ошибок пилотов.

Вообще хочу попросить всех, кто решит поучаствовать в обсуждении, держаться спокойного, аргументированного диалога. Пресса, обыватели и профессионалы от авиации и без нашей помощи находятся в состоянии вечной войны. Авиаторы презирают журналистов за поспешность, необразованность и нежелание постигать специальные знания. Журналисты морщатся от авиаторов за чрезмерную любовь последних к терминологии и гробовое молчание до конца официального расследования — тогда как публика после катастроф, подобных сегодняшней, жаждет любой информации. Пусть уж лучше официальные лица будут утолять информационный голод мелкими, частыми сообщениями, чем это сделает жёлтая пресса. Вот, кстати, почему NTSB так спешит — невзирая на критику: Агентство пытается не допустить паники среди пассажиров, которая негативно отразится на финансовом состоянии авиаперевозчиков в горячий сезон отпусков.

Для Asiana Airlines, конечно, выгодней, если расследование подтвердит, что причиной катастрофы стал сбой в работе оборудования: компенсации жертвам в таком случае будут значительно меньше. Но возложат ли вину на электронику или на человека — авиакомпания уже извинилась перед своими клиентами. В обычном азиатском стиле. Её президент лично стоял в зале аэропорта со склонённой головой, атакуемый журналистами, обозлёнными родственниками пассажиров рейса 214 и самими пассажирами. Право, нам есть чему поучиться у корейцев: мыслимо ли, чтобы тот же гендиректор «Аэрофлота» после катастрофы под Пермью 2008 года стоял вот так, один на один, перед семьями погибших?

В статье использованы иллюстрации Roger Schultz, VSrivera, Bloomberg.


К оглавлению

История Dropcam – от кустарной слежки до облачного сервиса видеонаблюдения Андрей Васильков

Опубликовано 10 июля 2013

Порой отличная идея рождается из наблюдений за бытом людей и попыток решить наболевшие проблемы. Проект Dropcam начинался как слежка подручными средствами за беспардонными соседскими собаками, а затем быстро вырос до облачного сервиса интеллектуального видеонаблюдения.

Будущий сооснователь компании Грег Даффи (Greg Duffy) как-то решил выяснить, какой пёс оставляет на его газоне ежедневные «подарки». Он расставил вокруг дома множество камер и подключил их к компьютеру. Однако драйверы и программная оболочка содержали огромное количество ошибок, что вызывало отказ самодельной системы видеонаблюдения в самый неподходящий момент. Его отец, инженер-программист, также не смог заставить эту самоделку работать стабильно.

«Впечатления от программного обеспечения были действительно ужасными, — сообщает Даффи в интервью изданию Wired. — Даже у нас, привыкших к «пляскам с бубном» техников и программистов, тогда не хватило терпения».

Грег поделился историей с калифорнийским инженером Амиром Вирани. Вскоре родилась идея объединить усилия и не просто сделать свой софт для камер, но и вывести на рынок универсальное целостное решение.


Основатели Dropcam Грег Даффи и Амир Вирани (изображение: dropcam.com).

Когда зашла речь о поиске инвесторов, направление полностью оправдалось. Вкладывать деньги в перспективный софт и веб-сервис были готовы куда охотнее, чем в очередную типовую аппаратную платформу. Поэтому команда приняла решение не тратиться на разработку своих камер наблюдения и изготовление десятков прототипов. Вместо этого они выбрали наиболее подходящий тип серийно выпускаемых HD-камер, провели реверс-инжиниринг и заставили работать их электронные мозги иначе.

Прошивка для IP-камер, роутеров и другого сетевого оборудования — это модифицированная ОС Linux. С аппаратной точки зрения данные устройства представляют собой полноценные микрокомпьютеры с ARM-процессором, оперативной и постоянной памятью, проводными и беспроводными сетевыми интерфейсами, а также USB-портом. Широкий простор для воплощения фантазий гиков.

Из дешёвых роутеров с помощью кастомных прошивок давно делают веб- и FTP-серверы. К ним подключают камеры и превращают в видеорегистраторы. Так почему же не проделать аналогичный трюк с самой IP-камерой и не объединить её с другими такими же в удобный сервис? Так появилась концепция системы удаленного видеонаблюдения Dropcam.


Камера для удалённого видеонаблюдения «из облака» (изображение: dropcam.com).

Для своего проекта Даффи и Вирани выбрали камеры шведской компании AXIS. Они дают хорошее качество изображения и чистый звук, к тому же выполнены в металлизированном корпусе и устанавливаются на прочную подставку. Производителем не предполагалось пользовательское обновление прошивки, поэтому заменить её своей было нетривиальной задачей.

Помимо более чувствительной автоматической записи при определении движения, был добавлен и свой алгоритм сжатия видео. Расчёт делался на то, что клиент может захотеть подключить несколько камер. Без оптимизации суммарный видеопоток не получилось бы передать через один типовой интернет-канал.

На этом этапе возникли трения с компанией AXIS. Её представители хотели подать иск против Даффи и Вирани за несогласованную модификацию прошивки их продукта и замену логотипа. На это сооснователи Dropcam заявили, что легально приобрели партию камер на Amazon, отныне это их собственность, и они вправе делать с ней всё, что захотят и смогут. В том числе перепродавать, изменив прошивку.

Спорный вопрос затрагивает ту область права, в которой уже немало копий сломали представители Фонда электронных рубежей и другие сторонники свободного программного обеспечения. Производители часто настаивают на том, что их устройства и сопутствующий софт передаются покупателю не в собственность, а с правом ограниченного использования. На этот раз представители двух компаний смогли найти компромисс и заключили партнёрское соглашение.


Камеры AXIS серии M10 — аппаратная основа первых Dropcam (изображение: seccom.ru).

В первый же год после подписания договора Dropcam продала больше камер, чем другие партнёры AXIS. Затем в компании захотели выпустить усовершенствованный продукт по более низкой цене. К примеру, многие просили сделать режим ночного видения.

«Часто на Kickstarter можно увидеть проекты интересных устройств, стоимость финансирования которых оценивается создателями до ста тысяч долларов, — рассказывает Даффи. — На самом деле это очень наивные расчёты, учитывающие только затраты на изготовление пары прототипов». Запуск серийного производства, говорит сооснователь компании, обойдётся гораздо дороже. «Нас тогда было семь человек, — вспоминает Даффи. — Мы сами возились с каждой камерой и мечтали сделать полностью свой продукт. К счастью, нашёлся инвестор, которого эти планы не испугали. Наоборот: он понял, что свой софт, сервис и железо — это три мощных козыря в долгосрочной перспективе».

Многие другие компании предлагают оборудование для видеонаблюдения, в том числе и удалённого с трансляцией через VPN. Однако всё это половинчатые решения. Пользователю требуется либо изначально высокая квалификация, либо услуги специалистов по настройке и сопровождению, либо масса дополнительных затрат. «Мы выяснили, что многие люди, купившие Dropcam, не приобрели бы простую IP-камеру, — пишет Даффи. — Клиенты не хотят покупать продукт, готовый для выполнения их задач на 70%. Им нужны только стопроцентные решения».


Наблюдение в кафе с помощью одной камеры Dropcam (изображение: baconery.com).

Нашим соотечественникам, помнящим эпоху СССР, не привыкать «дорабатывать напильником» любые устройства. Проблему видеонаблюдения в отдельно взятом лифте четыре года назад оригинально решил российский писатель-фантаст Леонид Каганов. Из-за особенностей схемы питания тогда пришлось использовать камеру с аналоговым сигналом, подключать её через плату видеоввода к BSD-серверу и заморачиваться с автоматизацией процесса архивирования записей.

Такие экзотические условия практически не встречаются в привычном окружении дома и на работе. Сегодня Dropcam — это полностью готовое устройство, работающее «из коробки». Вам не понадобятся отдельный видеорегистратор, источники бесперебойного питания и терабайтные жёсткие диски. Вы просто устанавливаете одну или несколько камер в желаемом месте, обеспечиваете им доступ в интернет по Wi-Fi, активируете аккаунт и получаете удалённую видеотрансляцию со звуком. В камере даже предусмотрен динамик для двусторонней связи.

http://www.youtube.com/watch?v=GLdSqDIYhQg

С целью первичной настройки камеры Dropcam подключаются по USB к Mac или PC. Далее по Wi-Fi видео передаётся на домашний роутер, а затем – на серверы компании, где хранится в облаке определённое время. Первые две недели пользователь получает бесплатно в тестовом режиме базовые функции. Место для хранения видеоматериала на этот период не предоставляется. Доступен только режим наблюдения в реальном времени. Этого вполне достаточно для знакомства с продуктом, внесения коррективов в расположение камер и их тонкой подстройки.

Самое интересное, что потом продаются не гигабайты места, а время хранения. За десять долларов в месяц ролики будут удаляться через неделю, а за тридцать долларов их можно будет посмотреть в течение всего месяца. Платный вариант выбирают 40% покупателей, и сегодня серверы Dropcam уже получают больше входящего трафика видео, чем YouTube.

Клиентская часть доступна через веб-интерфейс, а также в виде приложений для Android и iOS. Поэтому удалённый мониторинг с трансляцией в реальном времени легко выполняется практически на любые смартфоны и планшеты. Благодаря мобильнету и Wi-Fi пользователь всегда может увидеть на экране мобильного устройства изображение с камеры в доме или офисе. Вопрос «Как там дела?» отпадает после нажатия одной кнопки.


Клиентская часть Dropcam на мобильных устройствах (изображение: mashable.com).

Камера пишет видео в HD-качестве (720p), оснащена ИК-подсветкой для ночного режима, может включать и выключать запись по расписанию или на основании данных о вашем текущем местоположении. Настраиваются оповещения о событиях (детектировании движения) по e-mail. Доступ к изображению с камеры можно выборочно предоставить нескольким пользователям. Анализируя представленные на выставке CES 2013 технологии, журнал Forbes назвал Dropcam одним из главных достижений года в мире «интернета вещей».

Это не только удобный способ охраны помещения или видеозвонок, но также средство наблюдения за оставшимися дома детьми, пожилыми родственниками и домашними животными. Всегда можно посмотреть на любимых сотрудников в офисе или узнать, от чего сработала сигнализация у припаркованного во дворе автомобиля.

За четыре года два программиста из Сан-Франциско создали сплочённую команду из тридцати человек. Даффи планирует вчетверо увеличить число сотрудников через год.

Dropcam вошла в десятку крупнейших компаний, предлагающих камеры наблюдения с беспроводным подключением. Объём вложений со стороны Accel Partners, Menlo Ventures и других инвесторов превысил 18 млн долларов, но сейчас они быстро окупаются за счёт увеличения продаж камер и платной подписки.

По данным Business Insider, прибыль Dropcam за последний год выросла в пять раз. Уникальный сервис оценили фирмы, специализирующиеся на безопасности. Поскольку все данные хранятся в облаке, нарушители не смогут уничтожить видеозаписи своего преступления. Находит массу неожиданных применений и функция обратной связи. Сестра Марка Цукерберга Рэнди поёт своему ребёнку колыбельную через Dropcam, когда её нет рядом.

Есть у сервиса и очевидная обратная сторона. Получив удобное видеонаблюдение, вы добровольно лишаете себя изрядной доли приватности. Хотя представители Dropcam и обещают не передавать доступ к видеоматериалам третьим лицам, технически это сделать проще простого. Да и смартфон с настроенным клиентским приложением запросто могут украсть.


К оглавлению

Встречайте Младшего Брата: Google Glass и прелести тотального гражданского контроля Евгений Золотов

Опубликовано 09 июля 2013

После того как минувшей весной очки Google Glass оказались в руках простых пользователей, Сеть ожидаемо наполнилась отчётами о «первых шагах» (см. «Первые впечатления, первые вопросы»). По большей части то были безопасные домашние эксперименты, но рано или поздно «очкарики» должны были вторгнуться в сумеречную зону нравственности и права — совершив нечто такое, что будет оценено обществом неоднозначно. Нет, речь не о помывке в душе с включёнными Очками и не о хирургической операции, опять-таки уже заснятой на Очки. Речь, к примеру, о том, чтобы с включёнными Очками стать свидетелем эпизода физического насилия или действий правоохранительных органов. 4 июля, когда Соединённые Штаты отмечали главный национальный праздник, такой инцидент и приключился.

В тот вечер в народных гуляниях на курорте под Нью-Йорком участвовал некто Крис Баррет — один из тысячи счастливчиков, получивших бета-версию Google Glass. Планируя заснять фейерверк, он шагал сквозь толпу с включёнными Очками, привлекая совсем не много внимания (что, впрочем, неудивительно: смеркалось, публика была уже пьяненькая, народу много и т. п.). В какой-то момент услышал возгласы «Драка!» и, движимый скорее любопытством, нежели научным интересом, протолкался к месту событий. По пути его чуть не сшиб с ног полуобнажённый юнец — а секундами позже Крис стал свидетелем ареста того же молодого человека. В общей сложности в наручниках сцену покинули двое, плюс имел место разговор участников происшествия с полицейскими на повышенных тонах. Саму драку Крис, увы, не застал, но получившийся пятиминутный ролик (Очки всё это время работали на запись) выложил в YouTube, сопроводив комментарием: «Первая драка и первый арест, запечатлённые на Google Glass!» Едва ли он предполагал, что за этим последует.


Ролик Баррета быстро попал в список самых обсуждаемых новостей на западных технофорумах и в СМИ. Комментаторы разглядели в нём живую демонстрацию трёх ключевых преимуществ, предоставляемых Очками, — преимуществ, давно сформулированных теоретически, но только сейчас, разом, невольно подтверждённых. Итак, во-первых, это более высокие шансы зафиксировать «на плёнке» неожиданное происшествие: Очки включены постоянно — и поймать с их помощью интересный момент легче, чем с мобильным телефоном или даже фотоаппаратом (профессиональные фотографы твердят об этом уже несколько месяцев).

Во-вторых, публика не осознаёт, что находится перед объективом. Посмотрите ролик Криса: ни арестованные, ни полиция, ни случайные прохожие не понимали, что их снимает камера. Рук «очкарики» не поднимают, никаких кнопок не жмут, резкость не наводят — просто глазеют, как и все вокруг.

И это даёт преимущество номер три: объём запечатлённых с помощью Очков деталей оказывается неожиданно большим. Публика снимать не мешает, так что «очкарик» может подобраться к месту действия вплотную. Что Баррет и проделал, зафиксировав в мелочах процесс ареста, диалоги между участниками, лица и прочее.


Крис Баррет. По собственному признанию, Очки надевает не так уж часто. Во-первых, по-прежнему не может привыкнуть: отвлекают. Во-вторых, на улице не дают проходу любопытные.

Как полагает Крис — повторяя, впрочем, давно сформулированную идею, — киберочки навсегда изменят так называемую гражданскую журналистику. Получив мобильный телефон, обыватель превратился в журналиста — но благодаря Очкам он сможет запечатлеть мир в немыслимых ранее подробностях: нас ждут свидетельства из первых рук из эпицентра самых разных происшествий! Незаметные, не упускающие ничего соглядатаи в электронных моноклях пропитают общество, и укрыться от их всевидящего ока будет негде. Кто-то дал этому феномену удачное название — Младший Брат. И вот вопрос: пойдёт ли появление Младшего нам на пользу — или навредит?

Не обязательно именно киберочки лишат общество остатков приватности; просто так уж сложилось, что именно Google Glass сейчас являются претендентом номер один на роль массового устройства, способного снимать людей без их ведома. Вероятные главные положительные эффекты в любом случае одинаковы — и, к сожалению, невелики числом: удар по преступности, заслон на пути произвола правоохранительных органов… и всё? Естественно, выиграет жёлтая пресса: таблоиды и так уже регистрируют каждый шаг знаменитостей, а Очки позволят, простите, заглядывать в рот, когда они сидят в ресторане. Но это едва ли большой плюс.


В процессе таких вот «полевых испытаний» выясняются ценные преимущества Очков. Например, тряска при съёмке «с головы» заметно меньше, чем когда снимаешь мобильником с рук.

Зато побочных эффектов хоть отбавляй. Ребятки, которых Крис заснял Очками, и без его помощи уже стали звёздами «Ютьюба»: много кто из очевидцев снимал драку на телефон. Но что если, шагая к месту событий и крутя головой, благодаря непримечательности своей видеокамеры Крис Баррет запечатлел нечто такое, что не было поймано на смартфоны, да и не должно было попасть в кадр? Кто-то, устав от выпитого за день, прилюдно матерился — и завтра, когда его случайно опознает начальник (ролик-то вирусный, сотни тысяч просмотров), потеряет работу. Кто-то, может быть, изменял жене, и — спасибо Крису! — ещё одна ячейка общества теперь распадётся. К тому же в записи могут проявиться какие-то не подлежащие разглашению тонкости работы полиции, которая не воспрепятствовала съёмке только потому, что киберочки на голове Баррета были сочтены всего лишь элементом декора.

Короче говоря, нюансов масса — и не случайно, скажем, та же Google, будучи не в силах устранить все всплывающие спорные моменты, отказалась или ограничила очень похожую функцию Street View в своих картах в Германии и Индии. Но кто или что заставит Баррета и его последователей ограничить видеосъёмку в общественных местах? Строгое предупреждение в руководстве пользователя?

Впрочем, управа, конечно же, найдётся. Пройдёт ещё год или два, Google Glass и аналогичные продукты от других производителей появятся на прилавках. И в один прекрасный день прохожий, которому не по душе идея тотального «гражданского контроля», повинуясь интуитивному сигналу тревоги от направленного на него электронного ока, даст Крису Баррету или другому пионеру, простите, в морду. После этого будут, конечно, суды и пересуды, но, что важнее, у счастливых обладателей киберочков появится первый серьёзный повод задуматься: а стоит ли провоцировать окружающих, испытывать их терпение?

Правда, и на этом история не закончится. В отличие от снимающих на камеры и телефоны, у «очкариков» руки свободны, а отснятый материал уходит прямиком в облако. Так что они могут и будут защищаться, а видеосвидетельства случившегося позже станут аргументом в их пользу.


К оглавлению

Полцарства за метаданные: почему спецслужбы собирают только метаинформацию — и что это вообще такое? Евгений Золотов

Опубликовано 08 июля 2013

Когда бывший директор АНБ и ЦРУ Майкл Гайден советовал европейцам поинтересоваться, чем занимаются их собственные спецслужбы (вместо того чтобы хаять американские: см. «Спасение утопающего»), он явно знал, о чём говорит. Не прошло и двух недель, как во Франции вскрылась система электронного шпионажа за гражданами, едва ли уступающая PRISM по функционалу и наглости. Известно о ней стало отчасти опять же благодаря Эдварду Сноудену, вялая реакция на которого французских официальных лиц заставила журналистов внимательней присмотреться к происходящему в родных пенатах. Плюс к тому — нет худа без добра! — продолжающийся поток разоблачений обратил внимание уже всей западной общественности на то, какого типа сведения собирают спецслужбы. Потому что и в Штатах, и в Европе соглядатаям не так, кажется, нужно содержимое самих телефонных переговоров или электронных писем, как какие-то «метаданные».

О том, что Франция эксплуатирует собственную гигантскую систему электронной слежки, стало известно в результате расследования, проведённого сотрудниками газеты Le Monde. В центре скандала — Служба внешней разведки (DGSE), установившая в своей штаб-квартире «один из мощнейших в Европе» суперкомпьютеров и собирающая с его помощью информацию о телефонных звонках, электронной переписке и прочей интернет-активности французских граждан. Под прицелом всё и вся, и журналисты даже сравнивают построенную систему с гигантским пылесосом. Естественно, целью её работы называется борьба с терроризмом; естественно, законных оснований нет, и хотя даже не все члены правительства в курсе происходящего, отечественные спецслужбы и полиция имеют доступ к собранным сведениям (им позволено делать запросы на интересующих лиц).


По состоянию на утро понедельника Эдварда Сноудена таки согласились приютить Венесуэла, Боливия и Никарагуа. Прежде, правда, ему ещё предстоит выбраться из Москвы — и если та же Куба не против пересадки на своей территории, то европейские страны даже через своё воздушное пространство господина Сноудена не пропустят.

Что ж, с момента начала сноуденовских разоблачений минул месяц — и картина рисуется замечательная. С одной стороны, Европа продолжает накручивать сама себя и в последние дни дошла до организации полномасштабного расследования вскрывшейся слежки США за европейскими гражданами, а также предложений отказаться от пользования американскими интернет-ресурсами и даже прекращения, если понадобится, воздушного сообщения между США и ЕС. С другой, как выяснилось, следят за простыми людьми не только США, но и Франция, и Англия (совместно с АНБ тихо врезавшаяся в трансатлантический оптоволоконный бэкбон). А Германия и «большинство других западных стран» (по Сноудену) если и не имеют собственных систем слежки, то сотрудничают с АНБ ради получения информации из той самой базы данных, существование которой так разозлило их политиков.

Таким образом, разбор отдельных инцидентов теряет смысл: как и предполагалось, рыльце в пушку у всех. На первый план выходит аспект, месяц назад недооценённый. АНБ, ФБР, DGSE, MI-5 и MI-6, а с ними, вероятно, и другие спецслужбы интересуются прежде всего метаинформацией. Когда Сноуден только начинал публикацию секретных материалов, официальные лица в США, если помните, пытались смягчить социальный резонанс, обращая внимание публики именно на тот факт, что часто речь идёт о сборе «всего лишь метаданных». Однако при ближайшем рассмотрении выясняется, что именно они наиболее ценны. Но что же это за данные такие?

Википедия определяет метаданные как «информацию об информации». Попросту говоря, применительно к нашему случаю это любые косвенные сведения о состоявшемся контакте двух лиц: кем и с кем был установлен контакт, когда, где, сколько длился, какой была тема и тому подобное. Формально метакатегория дробится как минимум на структурную метаинформацию (описывающую строение данных) и описательную (собственно о данных). А при желании выделяются и более мелкие части. Но для нас сейчас важнее не теория, а практика: чем такие сведения могут быть полезны практически?


Как много можно узнать о человеке из его электронной почты, не читая собственно писем? Работает Immersion (см. далее).

Лично мне памятны примеры Второй мировой войны, когда, пожалуй, впервые анализу метаинформации стали уделять такое же внимание, как и непосредственно информации о противнике. Знание времени, места отправления, автора шифрованных радиопередач позволяло предположить как минимум смысл и частичное содержание текста. А это, например, компенсировало жёсткую нехватку вычислительных мощностей при расшифровке сообщений, пропущенных через знаменитую Энигму (в замечательной «Книге кодов» Саймона Сингха история описывается в мельчайших деталях). И даже если вскрыть шифровку не удавалось, учёт метаинформации всё равно приносил пользу, раскрывая направление движения частей противника, схему их взаимодействия и т. п.

Сегодня, когда «жить громко» — нормальное и даже ожидаемое для среднестатистического индивида поведение, а сбор и обработка информации легки и дёшевы как никогда, игнорировать метаданные просто грех. Увидеть, какие вкусности извлекаются таким «непрямым» путём, можно, воспользовавшись веб-сервисом Immersion, построенным сотрудниками MIT. Этот сервис работает в паре с Gmail: вы предоставляете доступ к своей переписке, Immersion собирает и анализирует метаинформацию о ваших письмах, не читая собственно текста, после чего генерирует наглядный социальный граф. Не имея понятия, о чём именно вы переписывались с вашими друзьями и знакомыми, Immersion легко рассортирует письма по важности для вас, найдёт пересечения ваших контактов и таким образом сделает видимыми сообщества, в которых вы (возможно, сами того не подозревая) участвуете. И в целом даст пищу для размышлений на тему того, с кем вы общаетесь, почему, каково качество этих связей, стоят ли они того, чтобы их активизировать, и прочее, и прочее.

И это только электронная почта плюс рудиментарный метаанализ! АНБ же и другие спецслужбы можно представить в виде почтальона, подробно описывающего каждую проходящую через его руки посылку (а таковой может быть любая контент-единица, вплоть до отдельных IP-пакетов) и владеющего уникальным арсеналом средств для анализа собранных сведений. Кроме того, спецслужбы имеют доступ к материалам, которые простому человеку никогда доступны не будут, — вроде информации о тех же телефонных звонках. Собрав гигантскую базу данных из разнородных метаединиц, можно искать в ней зависимости (скажем, в виде пересекающихся социальных графов), строить цепочки, выявлять шаблоны. После чего применять против интересующих субъектов более грубые методы вроде слежки, прослушки и пр.


Один день из жизни Мальте Шпитца.

Насколько детальной может быть нарисованная таким образом картина, легко понять опять-таки по примеру из жизни. Год назад германский политик Мальте Шпитц сумел отсудить у оператора T-Mobile собранную на него за полгода метаинформацию (десятки тысяч записей), после чего обратился к сотрудникам еженедельника Die Zeit, которые помогли сопоставить метаданные с информацией о Шпитце из открытых источников (соцсети, блоги, СМИ и т. п.). И получили подробнейшее — поминутное, пошаговое — описание шести месяцев жизни одного человека. Смонтированный журналистами интерактивный ролик размещён на сайте газеты и стоит того, чтобы с ним поиграть: видно, например, как легко идентифицировать информаторов вроде Сноудена, если таковые однажды на Шпитца выходили.

Так почему, если метаинформация столь важна, даже параноидальные во всём, что касается гражданских прав, американцы её так сильно недооценили? Результат ещё одного заговора? Увы, всё проще. Авторы проекта Immersion считают, что виноват тут сам обыватель. Для науки и государства ценность метаданных о гражданах была очевидной ещё десять лет назад. Но среднестатистическому индивиду уже сама идея «информации об информации» кажется слишком сложной, в детали он вникать не желает. И только сейчас и не по своей воле мы учим этот урок.

Immersion хорош наличием кнопки REMOVE. Поскольку правительства демократических стран, уличённые в слежке за гражданами, функцию удаления метаинформации пока не предоставляют, вероятно, именно этот вопрос будет следующим, по крайней мере в Европе и Соединённых Штатах.

Что насчёт России?


К оглавлению

Загрузка...