Технологии

Прощание с мистером X: почему Canonical отказывается от X Window и как это повлияет на Linux?Евгений Золотов

Опубликовано 13 марта 2013

Когда несколько дней назад компания Canonical — вотчина популярнейшего Linux-дистрибутива Ubuntu — известила о намерении заменить систему X Window на продукт собственной разработки под названием Mir, мало кто из журналистов и блоггеров обратил на это внимание. Линукс давно уже превратилась в подобие пылесоса или стиральной машины: ею так же пользуются миллионы и точно так же никто не лазит «под крышку» (хоть в данном случае любопытство и приветствуется). Так что тех немногих обозревателей, кто всё-таки не поленился упомянуть инициативу Canonical, стоит похвалить уже даже если они написали «X Window» без ошибки (пальцы просятся, но писать надо без буквы S на конце).

А ведь на наших глазах творятся странные и страшные вещи. Демонстрируя презрение к общественному мнению и намереваясь списать в утиль архитектуру, верой и правдой служившую не только Линукс-, а и всему UNIX-сообществу аж с начала 80-х годов, Canonical без преувеличения посягает на устои. В меру способностей я постараюсь объяснить суть и важность происходящего. А вы попробуйте не смеяться, потому что начинать придётся с азов. Так что же случилось на прошлой неделе?

X Window System — это, говоря упрощённо, программа, отвечающая за вывод информации на компьютерный дисплей в особой форме: в прямоугольных, изолированных друг от друга областях, называемых «окнами». Разработали «Иксы» почти тридцать лет назад сотрудники Массачусетского технологического института (MIT), опиравшиеся, в свою очередь, на ещё более древние наработки (W Window System и далее). Нам, впрочем, сейчас важно уяснить, что X Window — не только программа, рисующая на экране, но и одноимённый сетевой протокол, посредством которого рядовые приложения с Иксами «общаются». Такое разделение очень ценно. Скажем, благодаря ему можно строить «тонкие клиенты»: запускать X Window на маломощном персональном компьютере, оснащённом только дисплеем, клавиатурой и мышью, а вычисления производить на сервере, обслуживающем сразу несколько рабочих мест. Кроме того, таким образом гарантируется, что с экраном в любой операционной системе, на любом процессоре и любой видеокарте можно «говорить» на одном языке, то есть без модификации программ, Иксами пользующихся.


Это Unity — рабочий стол дистрибутива Ubuntu. Забегая вперёд: отказ от X в пользу Wayland или Mir не изменит ничего в смысле размещения иконок или панелей, но добавит подвижности (то, что англоязычные пользователи называют fast’n'fluid)

Совместимость, абстрагированность от конкретного железа, гибкость сделали X Window очень популярным инструментом, особенно в мире UNIX. История компьютерной техники знает всего несколько успешных UNIX-отпрысков, обошедшихся без Иксов (Mac OS X и iOS, Android). Во всех остальных случаях (и уж точно на подавляющем большинстве Linux-машин) вы обнаружите тот или иной вариант X Window: вплоть до начала нулевых самым популярным был Xfree86, а десять лет назад его потеснил более шустрый и прогрессивный X.org. Откуда взялась конкуренция? Дело в том, что с ростом производительности персоналок у Иксов обозначились острые углы. Вся эта строгая официальность X-протокола, когда с собственным экраном приходится общаться через сеть, словно с другим компьютером, здорово сказывается на быстродействии приложений, активно использующих графику. Грубо говоря, сделать плавный, быстрый графический пользовательский интерфейс (GUI) с помощью Иксов невозможно.

Так что спецификации X Window начали обрастать дополнениями, смело воплощавший их X.org стал фаворитом, а лет пять назад несколько разработчиков X.org решились и на совсем уж отчаянный поступок. Они предложили отказаться от X Window вовсе. И зачали Wayland.

Опять же упрощая, Wayland — это плагин, подключаемый к X-серверу (к той же X.org, например) и позволяющий приложениям обращаться к видеокарте напрямую, минуя сложности X-протокола, через набор стандартизованных простых, очень быстрых инструментов. В перспективе Wayland способен превратиться из «довеска» в главного посредника между прикладными программами и дисплеем. Иксы же будут цепляться уже как плагин к Wayland, обеспечивая совместимость для старых приложений. Идея радикальная, но необходимость её диктует сама жизнь: устаревшие, медленные Иксы мёртвым грузом повисли на шее современных Linux-приложений. Только избавившись от X Window, можно надеяться построить в Линуксе рабочий стол, использующий весь потенциал современного железа и технологий (процессоров, видеокарт, коммуникационных механизмов и пр.).

Что ж, знакомая вам Canonical стала первым большим игроком, который официально одобрил идею отказа от X Window. Основатель и руководитель компании Марк Шаттлворф вообще любит смелые решения. Его инициативы не всегда находят понимание в глазах линуксоидов, это правда, но в конце концов именно благодаря его агрессивной политике Ubuntu и стал самым популярным дистрибутивом на десктопах. Так что три года назад Canonical начала планировать переезд на Wayland, но подготовка затянулась — и вот на днях история получила неожиданное продолжение. Теперь вместо Wayland Шаттлворф с коллегами намерены переезжать уже на продукт собственной разработки, названный Mir.

С точки зрения функционала Wayland и Mir — близнецы-братья, разве что первый уже более-менее отлажен, а второй пока существует только в форме демонстрационного прототипа. Так что и аргументы в пользу того и другого одинаковые: они заменят Иксы, упростив и ускорив процесс общения прикладных программ с экраном. Canonical нуждается в этом чуть ли не больше любого другого Linux-вендора, ведь она планирует экспансию Ubuntu на мобильные устройства и умные телевизоры, где вопросы производительности и энергоэкономичности обладают наивысшим приоритетом.


А это один из демонстрационных скриншотов Wayland. Mir будет не хуже, можете быть уверены

С Wayland не сложилось, но разработку Mir Canonical контролирует единолично, а потому может строить планы. Осенью Mir будет работать на смартфонах, а следующей весной станет обязательным элементом Ubuntu Linux. После чего имеет все шансы проникнуть и в другие дистрибутивы: уж очень значителен социальный вес Ubuntu. Linux станет красивей, быстрее, удобней. Так чего же боятся критики — которых было немало уже три года назад, а сегодня ещё больше? А боятся они, что из гибкой, взвешенной UNIX-подобной конструкции Linux превратится в обособленное нечто, направлять которое сможет один отдельно взятый разработчик.

Для рядовых пользователей, равно как и разработчиков классических (X-ориентированных) приложений, ничего не изменится: X Window будет работать фоном, пристёгнутая к Mir или Wayland. Но в стратегическом смысле произойдёт очень важная перемена. Если X Window следовала общей UNIX-философии (гибкость, переносимость, совместимость и т.п.), Mir и Wayland — это уже чисто линуксовые программы, опирающиеся на специфические свойства конкретной операционной системы (собственно Linux). Вряд ли они будут так же переносимы, так же гибки, как X. А вместе с ними гибкость потеряют и приложения, на них ориентированные: чем шире распространится Mir, на котором, благодаря поддержке Canonical, наверняка и будет сосредоточено внимание Linux-сообщества, тем дальше мы уйдём от привычных взвешенности и гибкости.

Впрочем, Linux и без того давно уже превратилась в де-факто главный UNIX планеты. Больше критиков пугают диктаторские замашки Марка Шаттлворфа. Ведь Canonical так и не смогла убедительно объяснить, почему она предпочла отказаться от Wayland в пользу собственного Mir. Предполагают, что таким образом Шаттлворф просто пытается получить ещё один рычаг влияния на Linux и Linux-сообщество. Формально Mir — свободный проект, подключиться к которому может каждый желающий. Фактически же, как и для всей Ubuntu с недавних пор, направление развития выбирает Canonical, в значительной степени закрывшая процесс разработки своих продуктов от посторонних (якобы для того, чтобы брожение умов не тормозило прогресс дистрибутива).

Canonical — не самый активный Linux-разработчик. Но ей принадлежит самый модный, самый популярный среди рядовых пользователей дистрибутив. И её вес может качнуть лодку в ту сторону, в которую сочтёт нужным Марк. Так вот не перевернуться бы. X Window развивали всем миром. Mir — вопреки названию — детище одной компании.


К оглавлению

Пути развития телевидения в цифровую эпоху: как, что и зачем Антон Никитин, интернет-предприниматель

Опубликовано 12 марта 2013

Я вижу несколько больших направлений, в которых сейчас существует непонимание того, как будет развиваться телевидение и как оно сомкнётся с Сетью.

Штекер

Начнём с простого. Первая неопределённость – это carrier. То есть, по сути дела, провайдер.

К нам в квартиру заходит провод, и в этом проводе что-то есть. Прежде чем обсуждать, что внутри провода, предлагаю обсудить, чей это провод. Не играет особой роли, витая ли это пара, оптический канал, антенный коаксиал или провод кабельного провайдера. Важно другое: основа бизнеса оператора, который дотащил до нас этот провод, — развитие физической инфраструктуры. Он вряд ли представляет, что именно я буду получать по проложенному им каналу.

Да, кабельные телевизионные провайдеры тянут ко мне провод с некоторым набором традиционных телеканалов, но их задача в конечном итоге – держать палец на кнопке, чтобы отключить меня в тот момент, когда я перестану платить за доступ к штекеру. А пока я плачу за доступ, они обеспечивают мне его в режиме 24 на 7, и точка.


Здесь я вижу несколько поводов для размышлений о том, что же будет дальше. Во-первых, обязателен ли, собственно говоря, сам провод? Или здесь есть место для 4G, 5G и тому подобных историй? Во-вторых, кто этот осреднённый оператор доступа?

На самом деле, от ответа на оба вопроса меняется очень немногое. Бизнес-модель провайдера всё равно базируется на перепродаже услуг инфраструктуры. Операторы могут сколько угодно играть в различные контентные модели, но сама суть их бизнеса будет некоторым образом «отвлекать» их. Их задача в том, чтобы найти как можно больше абонентов на имеющуюся инфраструктуру и лишь затем пытаться получить с них максимальный доход.

Конечно же, операторы доступа предпринимают очень большие усилия для того, чтобы увеличить прибыль с одного абонента, и, конечно же, они пытаются дойти до правообладателей или их представителей с тем, чтобы каким-то образом легализовать контент в своих сетях. Только правообладатели с огромной осторожностью смотрят в сторону инфраструктурных операторов. Дело в том, что для них технологическая сторона вопроса вообще не прозрачна, их бизнес – показать (продать) свою продукцию как можно большему количеству людей. Поэтому правообладатели, прежде всего, смотрят на количество абонентов у оператора, а потом затевают совершенно бессмысленные разговоры на тему «а давайте вы будете показывать только нас». Разговор этот не имеет смысла, поскольку в такой формулировке он не даёт оператору доступа никакого конкурентного преимущества. Оператор доступа обеспечивает ДОСТУП, доступ ко всему; практически, выступать в качестве перепродавца контента – это совершенно не его роль. Как минимум потому, что у контента есть сегментированная целевая аудитория, а целевая аудитория оператора доступа – это все люди на определённой территории, и у него нет навыка их сегментировать. Ему незачем.

Именно поэтому кажется, что будущее совсем не за операторами доступа. Более того, возможно, операторам доступа как таковым придётся некоторым образом перепрофилироваться, поскольку доступ становится общеупотребительным продуктом, отсутствие которого ведёт к потере клиента. На самом проводе в условиях высокой конкуренции особо не заработаешь (приходится снижать цену), тогда как сервисы – вещь вполне себе масштабируемая, и провайдерам сервисов абсолютно всё равно, какой канал связывает их с пользователем. Нетрудно представить ситуацию, при которой сервис-провайдер с успешной бизнес-моделью в какой-то момент задумается, не купить ли ему оператора доступа — пусть с низкой маржей, но зато гарантирующего определённый охват.

На этот вопрос можно взглянуть и с другой стороны. Провайдеры всегда рассматривают собственную кампанию при продаже как актив. Это можно считать фундаментальным способом их взаимодействия с окружающим миром. Они не продают сервис как таковой (как ни странно это звучит), они продают именно что актив, выраженный в тех или иных капитальных затратах на строительство. Провайдер даёт набор инструментов, которыми пользователь обустраивает свою собственную вселенную. В этом смысле YouTube — провайдер сервиса публикации и просмотра роликов. Но стоит вам попытаться начать модерировать контент на видеохостинге, создавать искусственные надстройки типа «выбор редакции» и т.п., как аудитория встанет и уйдёт. Провайдер не должен быть озабочен содержимым, провайдер – это среда для пользовательского контента. Среда самонастраивающаяся.

Прибор

После того как мы определились с подключением, возникает следующий вопрос: что подключать? В данный момент проработанность этого вопроса можно кратко охарактеризовать так: «Да всё!» Действительно, пользователи стремительно обрастают «экранами». Если ещё в 2000 году массовую аудиторию интернет-пользователей можно было охарактеризовать как «офисный работник за компьютером», то сейчас это не так – мобильное использование растёт огромными темпами, домашний интернет стал общим местом.

Именно эти тенденции, вкупе с модностью темы про «облачное хранение», дают почву для бесчисленных разговоров о многоэкранной среде, в которой пользователь продолжает смотреть на телефоне то, что он не успел досмотреть на телевизоре. Правда, на данный момент не существует ни одной мало-мальски законченной реализации многоэкранного сервиса, но все только об этом и говорят. Быстрый рост мобильного интернета порождает панический страх этот рост «прозевать». Надо сказать, что мотив страха «пропустить феномен» достаточно характерен для отрасли. Как только намечается мало-мальский сдвиг в той или иной технологии, как все сломя голову бегут столбить полянку, не замечая, что никаких бизнес-моделей за этими сдвигами зачастую и не стоит.

Кроме мобильных устройств мы, естественно, рассматриваем компьютер, Сonnected TV и всевозможные медиаплееры в формате Set Top Box (игровые приставки можно занести в эту же категорию). Несмотря на то что сегмент Smart TV уверенно растёт, говорить об окончательной смерти рынка приставок мне представляется преждевременным. Это связано с целым рядом проблем, стоящих перед телевизорами, обладающими возможностью подключения к интернету.


Во-первых, каждый производитель пытается отстроить свою платформу распространения приложений. Понятно, что такая ситуация не может продолжаться долго, но текущее состояние рынка усложняет разработку приложений.

Во-вторых, статистика показывает, что до подключения купленного ТВ добирается от силы 10 процентов покупателей. Тут справедливо, конечно, соображение, что провайдеры подключения в конечном итоге будут способствовать увеличению этой доли, но пока что этого не происходит.

Третьим фактором, сдерживающим триумфальное шествие Smart TV, является то, что практически все наработки по интерфейсам управления ТВ возникли в эпоху, когда на домашнем телевизоре было от силы пять каналов. И пульты управления, и сами пользовательские интерфейсы внутри телевизоров не могут пока что преодолеть проблем, возникших с появлением двухсот каналов. Огромный список не помещается в один экран, пролистывание каналов и их организация в группы реализовывается без учёта того, что пользователь ограничен возможностями телевизионного пульта, и так далее. На самом деле, уже при 20-30 каналах можно наблюдать, что при подборе программы для просмотра подавляющее большинство зрителей гарантированно найдут себе что-то для просмотра на первых пяти-семи кнопках.

Всё сказанное в некоторой степени можно отнести и к приставкам, но у приставок есть одно фундаментальное преимущество: их покупают для того, чтобы подключать к Сети, в то время как телевизор покупают для того, чтобы смотреть. И смотреть преимущественно традиционным способом.

Здесь мы немножко забегаем вперёд, начиная обсуждать не столько сами приборы, сколько способы потребления контента, относительно которых сам способ отображения как таковой вторичен. Вопрос в том, что именно отображать.

И здесь мы попадаем в очередную ловушку, которую редко замечают. Что отображать? «Да всё!» Где отображать? «Да везде!» Почему-то после такого диалога, который можно услышать на массе тематических конференций, никто не задаёт вопроса: «А зачем?» Ну или: «С какой именно целью?» Очевидно, что смотреть фильм со смартфона в метро и смотреть его же в онлайне на компьютере — это разные вещи и совсем не то же самое, что просмотр на большом телевизоре в гостиной комнате вместе с семьёй.

При такой постановке вопроса инструмент, который позволяет реализовать нашу потребность, важен. Для приставок таким инструментом является, конечно, торрент-клиент, позволяющий получить практически любой контент, пусть и с нарушением прав. Телевизоры по понятной причине не играют на этой территории (многие телевизоры предполагают подключение внешнего носителя, но поддерживают весьма специфический набор форматов кодирования, а в продвижении приучают пользователя, что этот носитель – это их фотографии или домашнее видео, не более того). Компьютеры и мобильные устройства активно пытаются работать в онлайновых трансляциях и/или платных сервисах раздачи видео по запросу.

Основной проблемой здесь мне представляется то, что ни одна гипотеза о работающих бизнес-моделях пока что не оправдала себя в этом сегменте. И речь не только о российском рынке. Рекламная модель, похоже, работает только в своём контекстном смысле, на YouTube, где рекламного инвентаря настолько чудовищно много, что его можно продавать и продавать. Легальные онлайновые кинотеатры, кажется, зашли в логический тупик (речь не только о России, у Hulu и Netflix финансовая отчётность тоже не в лучшем состоянии). Причина этого тупика достаточно проста: стоимость рекламного контакта в таких сервисах и так высока (и её не удастся повысить, для рекламодателя это теряет смысл), и при масштабировании модели оказывается, что затраты на поддержание инфраструктуры и возобновление прав на каталог контента – непосильная задача. Проще говоря, вы будете тратить на видеотрафик денег больше, чем сумеете привлечь от рекламодателей.

Что касается подписной модели, то у неё есть определённые ограничители (мы здесь не говорим даже о России, где традиции подписаться на что-то уже, считайте, нет вовсе).

Продолжение


К оглавлению

Мрачные итоги Pwn2Own: почему браузеры так легко взломать и почему линуксоидам можно волноваться меньше?Евгений Золотов

Опубликовано 11 марта 2013

В английском айтишном жаргоне есть словечко «pwned», перевести которое на русский можно таким же коротким «поимели». Грубо, согласен, некорректно, непечатно, да вот только именно этот короткий вариант точнее всего передаёт суть. Когда программу, над которой тысячи разработчиков корпят годами, уделяя особое внимание защищённости, так вот когда такую программу за полчаса превращают в «парадный вход», на ум не приходит ничего другого. И именно так всё произошло на конкурсе Pwn2Own — традиционно сопровождающем конференцию по «прикладной безопасности» CanSecWest, состоявшуюся на прошлой неделе в канадском Ванкувере.

Конкурсантам предлагалось взломать один или несколько популярных веб-браузеров, получив через них полный доступ к компьютерам под управлением MS Windows и Mac OS X. И задача была решена на все сто процентов: ни один из атакованных браузеров не устоял. Результат не просто удручающий: страшный! Ведь никакие самые распоследние защитные механизмы не смогли обеспечить неприступность.


Внимание, проявляемое к Pwn2Own, как и далеко идущие выводы, делаемые на основе его результатов, объясняются тремя причинами. Во-первых, у конкурса очень щедрые спонсоры: призовой фонд, наполняемый HP и Google, нынче превышал полмиллиона долларов. При этом самый мелкий приз составлял 20 тысяч, а за один только взлом Internet Explorer 10 на Windows 8 давали сразу сто. Отсюда и причина номер два: участники — профессионалы высшего класса, живущие консультациями по вопросам компьютерной безопасности, а то и продажей собственноручно найденных уязвимостей «нулевого дня» (ZDV). Вроде французской Vupen Security, завсегдатая конкурса, продающей ZDV корпорациям и спецслужбам, и в этот раз опять унёсшей призовых денег больше всех. Или германской MWR Labs, имя которой то и дело всплывает в связи с очередной интересной, нестандартной брешью в защитах самых разных цифровых устройств.

А всё вместе это приводит к третьей причине: уязвимости, найденные участниками Pwn2Own, могли бы превратиться в смертоносное оружие, если бы просочились наружу до того, как их успеют «залатать» разработчики собственно взломанных программ. Никому неизвестная «дыра» в браузере, дающая полный доступ к операционной системе, способна породить как минимум глобальную эпидемию.

По сравнению с прошлым годом (см. «Как ломали Google Chrome»), нынче список атакуемых приложений был расширен — к браузерам, в роли которых выступали Internet Explorer 10, Firefox 19, Chrome 25, добавили плагины Adobe Flash, Adobe Reader, Java. Все они поочерёдно «легли» под атаками белых хакеров. Не помогли ни модные нынче «песочницы» (когда потенциально опасный код исполняют в изолированном от других приложений и данных пространстве), ни рандомизация адресов при загрузке кода, ни разделение кода исполняемого и данных.

Свежие, пропатченные по последним требованиям безопасности программы одна за другой сдались на милость победителей. Повезло только Safari — который в этот раз не взломали, потому что не пытались. Никто из конкурсантов не пожелал тратить на него время: призы за браузер Apple мелковаты, а продемонстрированная уязвимость должна быть использована в первый и единственный раз, так что, видимо, памятуя, что в прошлые годы Safari сдавался одним из первых, нынче его обошли вниманием.


Взлом внешне прост: пытаясь открыть нужную веб-страничку, браузер совершает ошибку, спрятанный на странице машинный код преодолевает защитные механизмы браузера и операционной системы — и без дополнительной помощи пользователя берёт компьютер под свой контроль. На самом деле, конечно, механика нетривиальна: атакующим приходится каждый раз изыскивать новые способы проникновения и подъёма привилегий, оставаясь на шаг впереди разработчиков атакуемого софта (так Vupen нынче нашла и воспользовалась новым обходным путём от загрузки кода в случайную область памяти). «Хорошая» новость в том, что фантазия хакеров вряд ли истощится в обозримом будущем — уж очень серьёзные её питают деньги. И речь отнюдь не только о конкурсных призовых. Которые хоть за последние годы и сильно выросли, по-прежнему остаются сравнимы разве что с нижней границей того, что могут выручить авторы оригинальных эксплоитов так сказать в частном порядке — продавая свои решения корпорациям и государствам.

Существование чёрного рынка уязвимостей нулевого дня — печальный факт, с которым ничего не поделаешь (см. «Знание — сила»). Не все согласны ждать, пока уязвимость будет обнаружена злоумышленниками, использована против кого-нибудь, о ней узнает разработчик программы и выпустит заплатку. Есть немало покупателей с толстым кошельком, готовых заплатить за очередную ZDV, чтобы получить её раньше других. Получить не с целью усиления только лишь «защитной безопасности» (defensive security), но и чтобы — как политкорректно формулирует это та же Vupen — усилить безопасность наступательную (offensive security). Знаете, насолить конкурентам, влезть на компьютеры к террористам, а то и самому устроить теракт на вражеской территории, что случилось не так давно в Натанзе.

Теоретически, если бы бизнес мог предложить хакерам хорошую — сравнимую с чёрнорыночной — цену, то и проблема уязвимостей нулевого дня в значительной степени осталась бы в прошлом. Однако предлагаемые легально суммы постоянно растут, а потолка не видно. Параллельно с Pwn2Own, там же на CanSecWest, Google проводит собственный конкурс Pwnium, целью для участников которого нынче была операционная система Chrome OS (фактически браузер Chrome, играющий роль GUI-надстройки над ядром Linux). Так вот призовой фонд здесь достигал уже 3.14 млн. долларов. И мало кто сомневается, что в следующем году мы увидим ещё большие суммы, а паритет с чёрным рынком всё равно останется мечтой: всегда найдётся тот, кто будет готов заплатить больше, только бы быть на шаг впереди.


Единственное светлое пятно в этой мрачной картине — результаты Pwnium, дающие некоторую надежду небольшой (даже — незначительной) части компьютерных пользователей. Так вот Chrome OS нынче «сломать» не удалось. Отчасти это заслуга Google, которая активно латает свою платформу. Но просматривается и более интересная причина. Один из важных пунктов в правилах Pwn2Own и Pwnium — стандартная комплектация машины-мишени. Так организаторы упрощают задачу и вместе с тем стараются сделать конкурс больше похожим на реальную жизнь. Браузеры ведь у большинства пользователей работают в одинаковых конфигурациях, с одним набором плагинов и т.д. Тонкость в том, что, взломав браузер, атакующий сталкивается ещё и с операционной системой. А здесь платформы MS Windows и Mac OS X принципиально отличаются от Linux.

Продукты Microsoft и Apple — это именно продукты: одинаковые для всех, с общим набором системных файлов, настроек, структурой каталогов, устройством рабочего стола и прочим, и прочим. А вот Linux была и остаётся скорее конструктором для сборки. Одних только популярных дистрибутивов насчитывается дюжина — а ведь каждый из них ещё и оптимизируется под конкретную машину, конкретный процессор, настраивается в соответствии с нуждами пользователя, обновляется чуть ли не каждый день. В результате Линуксы — чрезвычайно пёстрая семья, в которой братьев порой с лица и не узнаешь. Это разнообразие и есть спасительное свойство, позволяющее линуксоидам меньше волноваться за безопасность своей машины, своего браузера.

Chrome OS, правда, это преимущество уже подрастеряла. Она сделала широкий шаг в направлении Продукта — и на тот же шаг отдалилась от хаотичного, своевольного, но такого приятного линуксового разнообразия.

В статье использованы иллюстрации Kevan Davis, the Fl0yd, Destination Knowlton.


К оглавлению

Почему Google уничтожает свой Reader — и почему это хорошо?Евгений Золотов

Опубликовано 15 марта 2013

Когда в среду руководители Google ставили точку в истории одного из своих многочисленных веб-сервисов, едва ли они могли вообразить, какая реакция за этим последует. Согласно плану, 1 июля перестанет существовать RSS-читалка Google Reader — а волна недовольства уже сегодня буквально перехлёстывает через край: вслед за критическими публикациями в блогах и сетевых СМИ, появились сразу несколько петиций протеста — и под ними на сегодняшнее утро поставлены суммарно свыше ста тысяч подписей! Более чем странно, если учесть, что даже сама аббревиатура RSS нынче мало кому знакома. Но тем интересней попробовать добраться до причин — как раздражения публики, так и останова собственно сервиса.

Google Reader появился на свет в 2005 году и быстро стал стандартом де-факто в сегменте RSS-читалок. Хотите, называйте их агрегаторами, хотите фид-ридерами, сути это не меняет: когда вам нужно отслеживать состояние множества веб-ресурсов, такие программы оказываются чрезвычайно полезными. На каждом уважающем себя сайте есть файл в формате RSS, содержащий информацию о последних обновлениях, новых сообщениях на форуме и т.п. Агрегатор обходит любимые сайты пользователя, собирает RSS-файлы и превращает их в единый поток. Поглощать информацию в таком концентрированном виде выгодней по многим причинам, но в общем и целом можно сказать, что так просто быстрей: не мешает реклама, нет нужды шариться по сайтам в браузере, события легко рассортировать по темам.


Google Reader казался проектом на века, но продержался всего восемь лет. Как теперь мрачно шутят его поклонники, гугловскими продуктами не стоит увлекаться: скажем, легендарный Google Car тоже ведь могут остановить прямо на полном ходу.

Главная проблема RSS в том, что технология эта абсолютно чужда массам. Читателям Компьютерры поверить в это будет, пожалуй, трудно, но не верите — проверьте сами. Возьмите человека с улицы и попробуйте втолковать ему принцип действия и выгоды от применения RSS. В лучшем случае вы наткнётесь на непонимание, в худшем на три латинских буквы вам ответят тремя русскими.

Заставлять обывателя пользоваться RSS — всё равно что заставлять его же учиться скорочтению: забавно, да, но убивает удовольствие от потребления контента. Обывателю чужды страдания Роба Мальды (он же CmdrTaco, он же сооснователь Slashdot), среагировавшего на приговор GReader так: теперь каждую неделю Google будет недополучать как минимум десять часов моего времени! Обывателю лень, да и нет нужды стараться поглотить как можно больше килобайт за ограниченный отрезок времени. Когда же возникает потребность следить за интересностями, он «френдит» друзей и группы в любимой социальной сети. Ему невдомёк, что хаос в новостной ленте Фейсбука, В Контакте, да даже Google+ имеет очень мало общего со строго упорядоченным потоком информации, производимым любым RSS-ридером.

А ведь GReader был не любым! Спасибо ребятам из Google, это был мощный и очень гибкий продукт. Его облачный функционал (вся вычислительная работа и все данные выполнялись и хранились на серверах самой Google) делал лёгким слежение за сотнями источников с любого цифрового устройства, позволял хранить контент годами, превращая его в ценный архив. А открытый программный интерфейс, когда необходимо, превращал GReader в сервис-посредник для снабжения переваренным RSS-контентом других программ и сервисов. Всё это сформировало вокруг него большую лояльную аудиторию. Пользователи GReader тратили годы на сбор и настройку своих RSS-коллекций. Чего ж удивляться, что известие о скором закрытии их так расстроило?

Но и для Google, конечно, это не просто каприз. Во-первых, GReader был одним из ранних экспериментов компании в новой для неё теме социальных сетей. Сейчас уже мало кто помнит, но в GReader были функции, роднящие его с соцсетями: возможность отметить запись как понравившуюся или поделиться ею с друзьями. Со временем — и по причине моды на социальные сети, и по причине вышеназванной малопонятности RSS для обывателя — внимание Google переключилось на Google+. Популярность GReader поослабла — и разработчики решили закрыть проект. Потому что — и это причина номер два — Google хоть и любит агрессивно экспериментировать, неудавшиеся начинания прикрывает по возможности быстро (см. «Как выигрывать реже, но больше»).


Одновременно стало известно, что Энди Рубин, «отец» платформы Android и бессменный Главный по «зелёным человечкам», уходит — к счастью не из Google, а только на другую должность. Предположительно, он переводится в Google X: сверхсекретное подразделение компании, подконтрольное Сергею Брину. Там работают над самыми сумасшедшими и самыми перспективными проектами, вроде робота-автомобиля.

Как хорошо пошутили коллеги, если из трубы гугловской штаб-квартиры валит чёрный дым, значит, компания убивает очередной неудавшийся проект — а дым, получается, вьётся почти без перерывов вот уже два года, с того момента как кресло CEO занял Ларри Пейдж (см. «Точка G глобальной сети»). Сменив Эрика Шмидта, Пейдж начал затягивать пояса и, в частности, приступил к жёсткой «прополке» экспериментальных начинаний. Как известно, сотрудники Google обязаны тратить пятую часть своего рабочего времени на собственные проекты. Теперь, однако, их фантазию ограничивают начальники — решающие, насколько та или иная задумка перспективна и совпадает с общей корпоративной стратегией. Всё лишнее безжалостно уничтожается. GReader очевидно пересекается функционалом с социальными сетями, а потому тоже идёт под нож — и вместе с ним ещё полдюжины других веб-сервисов. А всего с весны 2011 года (по собственным подсчётам Google) таким образом были репрессированы уже семьдесят сервисов и приложений.

Но неужели GReader требовал от компании больших расходов? Его и обновляли-то раз в два года! Разве великая Google не может позволить себе оставить на балансе хотя бы некоторые — наиболее полюбившиеся публике — проекты? Увы, ответ — нет. Пейдж с единомышленниками объясняют это так. Мы живём в эпоху великих перемен, вызванных появлением мобильных цифровых устройств. Ничего подобного по масштабам мир не видел уже лет сорок, с рождения персонального компьютера. И Google, естественно, старается не пропустить ничего, успеть везде, на каждом направлении. Однако даже у Google ресурсы не бесконечны, а потому здравый смысл требует концентрировать усилия лишь на нескольких самых перспективных идеях. Компания умеет это делать, достаточно вспомнить, что именно так, в результате широкого поиска и следующей за ним узкой концентрации, появились Gmail и Docs, News и Goggles, множество других сервисов. Нужно только поверить, что, отсеивая «неудачников», она всё ещё руководствуется принципом «don’t be evil». Не навредить.

Что ж, принесёт закрытие GReader больше вреда или пользы, вопрос спорный. Пока ничего кроме критики в адрес Google не слышно. Но авторы критических постов, статей, петиций упрямо не желают замечать, что с окончанием жизненного пути GReader для её конкурентов начнётся поистине новая жизнь. Feedly, NewsBlur и десятки менее известных агрегаторов, вынужденных сегодня существовать в тени гугловского RSS-гиганта (удобного, но такого инертного!), после исчезновения последнего расцветут. Им станет легче зарабатывать деньги, им будет интересней работать над новыми функциями. Так стоит ли жалеть?

В статье использованы иллюстрации Orin Zebest, Tetradtx, Joi Ito


К оглавлению

Без Google Reader: чем заменить незаменимый сервис Google, что теперь делать и кто в этом виноват Олег Парамонов

Опубликовано 15 марта 2013

Компания Google объявила, что планирует закрыть RSS-агрегатор Google Reader. Это катастрофа, и не только для тех, кто пользовался сервисом Google. Несмотря на то что существуют альтернативы Google Reader, в том числе весьма достойные (и сейчас я их перечислю), они никого не спасут.

Кого волнует Google Reader

Проблема заключается в том, что Google Reader — это не просто агрегатор RSS, распространённый, но в конечном итоге лишь один из многих. Нет, он давно превратился в нечто большее.

В 2013 году Google Reader — это фактически и есть RSS. Популярность сервиса настолько высока, что в той или иной форме, напрямую или косвенно, его использует подавляющее большинство тех, кому нужен RSS.

У меня нет под рукой глобальной статистики, но наши собственные данные в данном случае достаточно показательны. Самая большая долька на этой диаграмме — это и есть Google Reader. Все остальные приложения и сервисы для чтения RSS делят считанные проценты.


У одних сайтов доля пользователей Google Reader выше, у других ниже, но она так или иначе огромна. Загляните в Google Feedburner и убедитесь сами (и лучше не тяните с этим: уж если в Google решили закрыть Reader, то Feedburner точно не жилец).

Ситуация усугубилась после распространения мобильных устройств, основанных на платформах iOS и Android. Агрегаторы для планшетов и телефонов, как правило, не скачивают RSS самостоятельно, как это делали их предшественники несколько лет назад. Вместо этого они запрашивают данные из Google Reader. Так работает, в частности, популярнейшее приложение Reeder для iOS и OS X и Press для Android.

Кто виноват

Люди шутят, что все проблемы начались со Стива Джобса: это он посоветовал основателям Google не распылять усилия, а сосредоточиться на самом важном. С тех пор как Ларри Пейдж стал гендиректором, каждую весну Google объявляет о закрытии сервисов, существование которых не вписывается в дальнейшие планы компании. Google Reader — самая заметная, но далеко не единственная жертва новых порядков.

То, что Google Reader перестал вписываться в планы компании, не должно вызывать удивления. RSS, несмотря на своё удобство и относительную распространённость, — это технология, которая не оправдала возлагавшихся на неё ожиданий и была заменена другими.

Англоязычная блогосфера десятилетней давности, для обслуживания которой в своё время был создан Google Reader, фактически представляла собой распределённую социальную сеть. Она не имела общего хозяина и состояла из сотен тысяч серверов, принадлежащих разным людям. В единое целое их объединял именно RSS. Он позволял читать все подписки, где бы они ни находились физически, в общей ленте.

Централизованные сервисы вроде Facebook, Twitter или Tumblr без труда обошли RSS и независимые блоги, использовать и настраивать которые — слишком трудная задача для обычного человека. В ситуации, когда любая крупная социальная сеть имеет сотни тысяч активных пользователей, сложнее строить иллюзии насчёт большого будущего RSS. И в Google, наконец, перестали это делать.

Как спасти свои данные

Впрочем, у тех, кто пользуется Google Reader или приложениями, которые полностью полагаются на него, есть более актуальные проблемы, чем искать ответ на вопрос «кто виноват». Им осталось чуть больше ста дней для того, чтобы придумать, как обходиться без этого сервиса.

Сохранить свои данные — первое, что должен сделать каждый пользователь Google Reader. Для этого служит малоизвестный, но очень ценный сервис Google Takeout.

Данные Google Reader можно скачать, перейдя по этой ссылке и нажав на оранжевую кнопку Create Archive. Спустя несколько мгновений в браузере появится быстро заполняющий прогресс-бар, а затем — кнопка Download («Скачать»).


Архив формата ZIP с информацией Google Reader содержит несколько файлов с расширением JSON, хранящих сведения о подписчиках, «лайках», заметках и поставленных «звёздочках». Готовых приложений, способных импортировать эти файлы, пока не существует.

Единственный по-настоящему важный файл в этом архиве называется subscriptions.xml. В нём находится полный список всех RSS-каналов, на которые подписан ваш аккаунт Google Reader. Его можно загрузить почти в каждый агрегатор RSS. Как правило, соответствующая опция называется «Импорт OPML».

Где взять хороший агрегатор RSS, работающий в браузере

Вот некоторые онлайновые агрегаторы, на которые стоит обратить внимание тем, для кого Google Reader был в первую очередь веб-приложением для ПК. Учтите, что многие из них сейчас перегружены (беженцы с Google Reader запрудили каждый приличный сервис, который сумели найти), но это временная ситуация.


Newsblur

Интерфейс Newsblur использует традиционный для почтовых клиентов и классических агрегаторов RSS трёхпанельный интерфейс: боковая панель со списком каналов находится слева, а центр экрана делят между собой контент и список постов, находящихся в канале. Немного неожиданно, правда, что список постов находится снизу, а не сверху, но это детали.

Приложение позволяет переключаться между несколькими форматами просмотра и даже открывать в том же фрейме оригинальную страницу. Кроме того, оно позволяет настроить автоматический фильтр неинтересных постов, работающий по принципу спамоловок в почтовых клиентах. Полезность этого фильтра — отдельный и спорный вопрос.

Главный недостаток Newsblur заключается в том, что все его возможности доступны лишь за деньги. Очень небольшие деньги — всего доллар в месяц, но тем не менее. Бесплатным пользователям придётся терпеть ограничения.


Feedly

Переключить схему отображения можно с помощью иконки в виде шестерёнки, находящейся в правом верхнем углу экрана. Наиболее перспективные варианты с точки зрения пользователя Google Reader — это список заголовков (клик по заголовку распахивает полный текст поста без перехода на другой сайт) и полнотекстовый (почти то же самое, но содержание всех постов отображается сразу).

Для полного счастья недостаёт лишь сайд-бара со списком каналов. Он есть, но лишь в виде выпадающего меню. Чтобы увидеть список каналов, нужно воспользоваться кнопкой-бутербродом из трёх горизонтальных линий, находящейся в левом верхнем углу экрана.

Интерфейс Feedly, пожалуй, привлекательнее, чем интерфейс Google Reader и большинства альтернативных агрегаторов. Кроме того, у Feedly есть мобильные приложения — это огромный плюс.


Old Reader


Яндекс.Лента


Skimr

Что станет с Reeder, Press и другими приложениями

1 июля, когда Google Reader окончательно закроется, многочисленные приложения, которые используют программный интерфейс агрегатора Google, выйдут из строя.

Сейчас у их пользователей есть два выхода. С одной стороны, можно найти замену, которая не нуждается в Google Reader, а загружает все RSS самостоятельно. С другой стороны, можно ничего не предпринимать, а подождать, не решатся ли все проблемы сами собой.


Первый вариант требует жертв. Хотя агрегаторы, самостоятельно скачивающие RSS, существуют, у популярности приложений вроде Reeder или Press есть резоны.

Во-первых, гораздо удобнее использовать RSS на нескольких устройствах, когда эти устройства знают друг о друге. Программный интерфейс Google Reader давал знать агрегатору на ПК, какие посты уже прочитаны в агрегаторе на мобильном телефоне или планшете, и наоборот.

Во-вторых, такие агрегаторы гораздо, если можно так выразиться, прожорливее. Они должны скачивать все RSS, на которые подписан пользователь, и делать это достаточно часто. Раз в час или даже раз в несколько минут они загружают десятки, а то и сотни файлов. В отличие от них, агрегатор, подключенный к Google Reader, обходится получением только той информации, которая нужна в данный момент. Ему не приходится регулярно скачивать каждый RSS только для того, чтобы проверить, не изменился ли он. Легко вообразить, насколько такой метод экономнее, особенно при мобильном доступе к интернету.

Скорее всего, создатели популярных приложений, использующих Google Reader, не оставят своих пользователей и придумают обходной путь, позволяющий обходиться без Google Reader. Вряд ли удастся избежать потерь и компромиссов, но тут уж ничего не поделаешь.

Разработчики Reeder уже объявили, что найдут способ прожить после закрытия агрегатора Google.

Don’t worry, Reeder won’t die with Google Reader

— Reeder (@reederapp) March 14, 2013

В идеальном случае пользователям таких приложений придётся позаботиться лишь об установке апдейта, который устраняет необходимость в Google Reader.

Что будет дальше

У закрытия Google Reader есть и другая сторона, о которой легко забыть, разыскивая альтернативные агрегаторы и решая мелкие проблемы, связанные с переходом на незнакомый софт.

Как вы думаете, какова вероятность того, что все многочисленные пользователи Google Reader настроят себе Feedly или Newsblur, трудолюбиво перенесут туда список своих подписок и продолжат читать RSS так, будто ничего не произошло?

Ноль.

Произойдёт вот что: заранее о миграции подписок в другие сервисы позаботится лишь небольшое количество гиков и любителей RSS. Большинство из тех, кто пользуется Google Reader, будут тянуть до самого конца. В июле, когда сервис закроется, многие из них отсеются. Они не станут искать альтернативу, а просто перестанут читать RSS.

Доля пользователей, которые сумеют без потерь перенести свои подписки в другой агрегатор, будет очень мала. Посудите сами: для этого нужно сначала скачать архив с файлами JSON и XML в малоизвестных закоулках Google, а затем успешно импортировать его в новую программу. Это задача, явно превосходящая способности обычных пользователей.

Результат: после закрытия Google Reader сайты, предоставляющие RSS, скорее всего, обнаружат, что количество подписчиков сократилось в несколько раз.

Иными словами, закрытие Google Reader имеет все шансы убить RSS окончательно, раз и навсегда. Это и без того не самая популярная технология в мире. Если её аудитория сократится ещё сильнее, у сайтов исчезнет стимул поддерживать её. И эту проблему не так просто решить.


К оглавлению

Как гибнут социальные сети: цепная реакция, которая однажды убьёт FacebookОлег Парамонов

Опубликовано 14 марта 2013

Согласно последним данным, Facebook насчитывает более миллиарда пользователей. И речь не о количестве регистраций (их многократно больше), а именно о пользователях — людях, которые подключаются к социальной сети хотя бы раз в месяц. Это безумно много, особенно для такой молодой компании. Лет пять назад о Facebook почти никто не знал, а теперь им пользуется каждый седьмой житель Земли. В то, что такой успех возможен, верится с трудом.

Неудивительно, что всякий раз, когда в Facebook решают отчитаться о количестве пользователей, скептики принимаются пророчить крупнейшей социальной сети планеты скорую гибель. Популярность Facebook — это лишь временное отклонение от нормы, утверждают они. Ещё немного, и он, наконец, всем наскучит. Люди устанут от бесконечных скандалов, связанных с нарушениями тайны частной жизни, и разбегутся. Скоро, совсем скоро о Facebook будут вспоминать только со смехом. Или, как вариант, не будут вовсе.

Для скептицизма и в самом деле есть поводы. Facebook — самая популярная, но далеко не первая социальная сеть. Его предшественники тоже не жаловались на нехватку пользователей. И где они теперь?

В 2002 году, когда Facebook не было даже в проекте, открылась сеть Friendster. Сейчас она показалась бы нам чересчур примитивной: только страница, на которой пользователь мог указать информацию о себе, и список друзей. Тем не менее Friendster был полноценной социальной сетью, и любой, кто знаком с Facebook или «ВКонтакте», почувствовал бы себя там как дома.

За считанные месяцы Friendster набрал три миллиона пользователей. На фоне фейсбучного миллиарда эта цифра кажется жалкой, но делайте скидку на то, что десять лет назад интернет был куда меньше, чем теперь. В 2002 году трёх миллионов пользователей вполне хватало для того, чтобы привлечь внимание американской прессы. Внимание прессы, в свою очередь, подхлестнуло дальнейший рост.


У основателя Facebook Марка Цукерберга тоже была страничка во Friendster

Спустя год этой социальной сетью заинтересовались в Google. Компания попыталась приобрести её за 30 миллионов долларов. Если бы основатель Friendster принял это предложение, то через пару лет стал бы миллиардером. Но он отказался (и, вероятно, до сих пор об этом жалеет).

Успехи Friendster сошли на нет так же быстро, как начались. В 2003 году всю немудрёную функциональность этого сервиса клонировали программисты компании eUniverse, занимавшейся интернет-маркетингом. Затем в eUniverse воспользовались своими списками рассылки, насчитывающими десятки миллионов подписчиков, чтобы завербовать первых пользователей. Новую социальную сеть назвали MySpace.

Через пару лет за право купить MySpace бились корпорация Viacom, владеющая MTV и Paramount Pictures, и News Corp медиамагната Руперта Мердока, причём спор шёл не о 30 миллионах, а о суммах с восемью нулями. Победил Мердок, выложивший за соцсеть почти 600 миллионов долларов.

Friendster к тому времени превратился в ходячего мертвеца: американские и европейские пользователи забросили его, но прибывающие пользователи из стран третьего мира не давали сервису спокойно умереть. Такое жалкое существование он влачил до 2009 года, когда Friendster купила малайзийская компания. Сейчас сайт не имеет ничего общего с прежней социальной сетью.

Впрочем, в MySpace тоже радовались недолго. События развивались почти по тому же сценарию, что и с Friendster: как только появилась более привлекательная альтернатива, начался исход пользователей. Как Friendster стал жертвой MySpace, так и MySpace стал жертвой Facebook. СМИ до сих пор припоминают Мердоку выброшенную на ветер половину миллиарда.

Кто сказал, что Facebook застрахован от подобной участи? То, что он крупнее всех своих предшественников, вместе взятых, ничего не меняет. Те тоже считались самыми большими, пока кто-то не стал ещё больше.

На первый взгляд, чем больше сеть, тем надёжнее её защищает закон Меткалфа, согласно которому полезность сети прямо пропорциональна количеству её пользователей. Никто не бросит знакомых ради сервиса, где никого нет. В итоге трудность переноса социальных связей будет удерживать пользователей. Однако эта логика не всегда работает. Пользователи социальных сетей бросают насиженные места и мигрируют на новые сервисы редко, но зато с удивительной лёгкостью.

Попытки объяснить причины гибели процветавших когда-то социальных сетей делались не раз. Согласно одному из самых популярных объяснений, всё дело в том, что социальные сети — это забава для тех, кто помоложе. Когда сети вырастают, там появляются «посторонние» — родители, учителя и начальники. В их присутствии малолетний костяк сети уже не чувствует себя уютно. В какой-то момент их терпение лопается, и начинается великое переселение в места, где пока нет взрослых.

По этой логике, Facebook давно стоит на пороге распада. В Facebook зарегистрированы две трети жителей Соединённых Штатов. Иными словами, есть места, где эта социальная сеть настолько популярна, что там у «деток» есть шанс встретить не только родителей и учителей, но даже бабушек и дедушек. Однако непохоже, чтобы это вредило Facebook. Скорей уж наоборот: люди постарше тяжелее на подъём и без серьёзной причины социальную сеть не бросят.

Рассуждать таким манером можно до бесконечности, но нужно понимать, что это такое же бесплодное занятие, как попытки древних философов понять законы физики. Пока кому-то не пришло в голову заменить умозрительные построения математикой и жёсткими данными, полученными экспериментальным путём, их нельзя было ни доказать, ни опровергнуть.

Именно поэтому так интересна работа под названием «Социальная стойкость онлайновых сообществ: аутопсия Friendster», опубликованная специалистами из располагающегося в Цюрихе Швейцарского федерального технологического института. Не факт, что выводы, сделанные её авторами, стопроцентно верны, но по крайней мере шаг сделан в правильном направлении: от разговоров к добыче экспериментальных данных.

В работе анализируется структура пяти социальных сетей: Friendster, Livejournal, MySpace, Orkut и Facebook. Две из них, Facebook и Livejournal, несмотря на все свои различия, процветают. Friendster и MySpace мертвы, а Orkut, открытый Google в 2004 году, находится при смерти. Авторы предположили, что отличия в топологии каждой сети, которые невозможно уловить невооружённым взглядом, объясняют, почему одни социальные сети разваливаются, а другие продолжают расти вопреки всему.


Пользователи начинают уходить, когда усилия, которые требуются для поддержания активности в сети, становятся выше, чем польза, приносимая сервисом. Чем больше пользователей уходит, тем ниже становится полезность сервиса для остающихся. В итоге начинается цепная реакция.

Ущерб, нанесённый сети каждым ушедшим пользователем, зависит от количества связей между пользователями. Если у большинства пользователей в списке друзей сотни человек, то уход одного из них может пройти незамеченным. Если же список друзей существенного числа пользователей насчитывает пару-тройку человек, то уход каждого из них — это огромный удар. Чтобы запустить цепную реакцию распада в сети, где между пользователями так мало связей, не требуется ничего экстраординарного.


При анализе сетей авторы работы пытались разрушить каждую из них, последовательно исключая узлы, которые имеют недостаточное количество связей, то есть фактически моделируя реальный процесс распада социальной сети. В конце от замысловатого графа остаются лишь самодостаточные «островки», состоящие из очень хорошо связанных между собой узлов. Количество узлов в таких «островках» — важный показатель стойкости сети.

Посмотрите, насколько наглядна разница между структурой Livejournal и Friendster, выявленная при таком искусственном разрушении. На диаграмме количество «островков» различного размера соответствует площади круга, окрашенной соответствующим размеру цветом. По мнению авторов работы, из неё следует, что Livejournal для продолжения существования нужно гораздо меньшее отношение затрат к выгоде, чем Friendster.


Нет смысла пересказывать всю статью, но итог таков: несмотря на некоторые преимущества, по стойкости (в том виде, как она определена в статье) и Facebook, и Livejournal не просто не застрахованы от распада — они уступают менее удачливым социальным сетям.

Почему же тогда оба остались целы, а другие развалились? Дело в том, что сама по себе низкая стойкость не приводит к распаду. Сначала отношение затрат к выгоде должно достигнуть фатального уровня и запустить цепную реакцию.

Именно это, по мнению авторов работы, и произошло в случае с Friendster. Прослеживается ключевое событие, которое стало для этой социальной сети началом конца: смена дизайна и последующие технические проблемы.

Это может показаться банальным выводом, не стоившим таких усилий, однако не спешите. Глядя на корабль, севший на мель, тоже не требуется особых усилий для того, чтобы определить причину. Усилия требовались до того, как случилась катастрофа. Возможно, её можно было бы избежать, если при серьёзных решениях создатели соцсетей руководствовались бы не интуицией, а цифрами. Работа учёных из Цюриха даёт их.


К оглавлению

Развитие телевидения в цифровую эпоху: модели потребления и дистрибуции (продолжение) Антон Никитин, интернет-предприниматель

Опубликовано 13 марта 2013

Начало статьи

Аудитория пользуется для потребления видео различными приборами и делает это совершенно по-разному. Кто-то вбивает название фильма в строку поиска и даже не думает, откуда он берётся. Кто-то скачивает видео с трекера и заливает на телефон. Кто-то пытается пользоваться легальными сервисами и видит там достаточно странный каталог. Кто-то (счастливчик!) имеет возможность подключиться к Netflix. Все эти люди смотрят кино новым способом. Только у каждого этот способ свой.

На самом деле, моделей потребления видеоконтента не так уж и много.Модели потребления

То есть выбор, конечно, есть, но основная капитализация такого рода каналов – это их позиционирование и бренд (который включён в позиционирование). Жизнь канала, который производит вещание, – это история про формирование повестки дня, оправдание ожиданий. Если я делаю телеканал для домохозяек, я не смогу завтра без огромных усилий начать показывать актуальные военные новости или советы по рыбалке. Вещание. Давайте отнесём к этой категории все модели бродкастинга: эфирное, спутниковое, онлайновое вещание сплошным потоком, без возможности повлиять на этот поток. Он идёт по расписанию, и каждый канал предоставляет своему зрителю единственно возможный в этом формате сервис – отсутствие выбора.

По сути дела, контент, транслируемый на канале, и есть та самая ценность, которая держит аудиторию. Аудитория не может быть обманута. И здесь лежит корень первого заблуждения для телеканалов, которые пытаются застолбить поляну «приложение телеканала на Smart TV». Это для них не вопрос целесообразности. Это, на самом деле, вопрос брендинга. «Наш телеканал присутствует на всех платформах Connected TV». Чтобы что? Чтобы пользователь видел наш логотип почаще. Это правильный ответ. Жалко, что вы его не услышите. Вы услышите бла-бла про новые медиа. А их тут нет.


Тут надо остановиться на отдельном заблуждении. На мысли о том, что контент продаёт себя сам. И если контент «хороший», то на него будут слетаться потребители. Проблема тут в том, что не очень понятно, что такое хороший контент. Суровой правдой является то, что невозможно до появления контента в вещательной инфраструктуре сказать, насколько он хорош. Только реальная востребованность даёт контенту ярлык «хороший», и очень часто производитель промахивается как в плюс так и в минус. Я очень хорошо помню период, когда создатели «Дом-2» через девять месяцев после старта проекта ходили в полном недоумении. Они рассчитывали на то, что реалити-шоу проживёт полгода. Но курица несла золотые яйца. Проекту скоро девять лет. Его невозможно зарезать, это бессмысленно, и это не имеет мировых аналогов.

С другой стороны, нет смысла опираться на логику типа «это шоу показало в эфире неплохой результат, поэтому выложим его на *эксклюзиве* на наш мегауспешный видеопортальчик». Это бессмысленно, потому что вы тратили деньги и ресурс на промо в эфире, и неизвестно, что привело аудиторию в большей степени – содержание шоу или его промо. Производители контента и правообладатели попадают в понятную ловушку: им неинтересно, как именно пользователь оценивает их продукт. В вещательной модели им важно достичь конкретных показателей в конкретный промежуток времени. Истории про длинный хвост им вообще неинтересны. Они заработали своё на процессе производства.

Отдельно стоит отметить, что вещательная модель в настоящий момент приносит производителям контента и правообладателям больше всего денег и соответственно рассматривается как базовая, что накладывает отпечаток на производимый продукт. Типичная линейка производства выглядит так: канал заказывает у производителя конкретный продукт, исходя из характеристик целевой аудитории, которую он хочет привлечь, производитель этот продукт выдаёт, затем все анализируют показатели «смотрения» — то, насколько успешно привлечена целевая аудитория. В этом есть определённая доля лукавства, так как канал, конечно же, использует свой медийный ресурс для того, чтобы поддержать продукт, и привлеченная аудитория не является в чистом виде характеристикой самого продукта.

В цифровой среде с огромным выбором такого медийного ресурса по сути дела нет вовсе, и продукт оказывается предоставлен самому себе. Это приводит к тому, что уже невозможно сделать что-то подобное «Первому каналу», и появляется множество продуктов, которые обслуживают узкие ниши по интересам. Телевидение будущего будет переполнено узконишевыми каналами, их будет очень много и они будут коммуницировать с детально описанными аудиториями.

Допустим, мы имеем все права на весь доступный видеоконтент. Ситуация утопическая, но тем не менее. Вопрос простой: как предложить посмотреть что-нибудь конкретному потребителю? Исходя из каких соображений? По сути дела, речь идёт о принципах конструирования домашней страницы телевизора. И ситуация здесь выглядит не очень оптимистично.Видео по запросу. В этой модели самым уязвимым местом является алгоритм выбора. Другая проблема видео по запросу — доступный каталог.


Онлайновые витрины идут, по большому счёту, двумя путями: либо создают иллюзию «огромный выбор», либо формируют некоторый набор рекомендаций. В первом случае проблема очевидна – всеобъемлющего каталога нет ни у кого. Это означает что огромный выбор – иллюзия, и достаточно изощрённый пользовательский запрос не будет удовлетворён. Другое дело, что такой запрос поступит лишь в 20% случаев, а 80% будут искать «что-то новенькое». И тоже потерпят неудачу, так как правообладатели не готовы жертвовать прибылью от кинотеатров и соблюдают «прокатные окна», выпуская продукты в онлайн с приличной задержкой. Исключения случаются, но нечасто.

Рекомендательная же модель интересна, прежде всего, теми механизмами, которые лежат в основе формирования совета. Нужно заметить, что с точки зрения площадки персонализированная рекомендация на самом деле не нужна. Дело в том, что с точки зрения бизнеса площадки посетители видеоресурса должны тратить время на тот контент, на который потрачено более всего ресурса. По сути дела, площадке надо возвращать деньги, которые уже потрачены на права показа того или иного видеопроизведения. Очевидно, что приоритетом в рекомендациях будет являться рекомендация «флагманских» продуктов – тех, за которые правообладатель сумел добиться максимального ценника (ценник же, как мы уже говорили раньше – формируется из «качества»). Таким образом, площадка, скорее всего, будет рекомендовать к просмотру конкретный продукт, либо формировать из продуктов подобие каналов, собирая их в какие-то наборы.

Важной особенностью здесь является тот факт, что телевизионному вещательному каналу проще сформировать сетку: показ конкретной передачи приходится на конкретный момент суток. Это означает, что вы можете вычислить достаточно достоверно, какой запрос с высокой долей вероятности, в настоящий момент времени, присутствует в домохозяйстве. Например, создавая канал для домохозяек, вы можете отталкиваться от соображений типа «так, теперь они отвели детей в школу, пришли домой и начали готовить обед, покажу-ка я им кулинарное шоу». В сетевой модели потребления у вас такого фактора как бы нет. То есть вы можете построить некоторый сложно меняющийся в зависимости от времени суток канал, но вам будет очень сложно объяснить, что это такое.

Новые форматы потребления.

Эта неопределённость, по большому счёту, заслуживает отдельной главы или даже статьи. Попробую остановиться на основных аспектах.

Начну с того, что я категорически не верю в то, что формат «а сейчас вы увидите восхитительные движущиеся картинки, и от вас ничего больше не потребуется» можно вытеснить чем-то другим. Скепсис мой связан ровно с тем аспектом, который позволяет классическому телевидению до сих пор нормально себя чувствовать. Люди в массе своей ленивы и нелюбопытны. Поэтому, вернувшись после рабочего дня домой – они нажимают на кнопку пульта и начинают потреблять некий аудиовизуальный поток, который с какой-то степенью вероятности ложится на их сегодняшнее состояние. Зачем здесь может быть нужен интерактив?

Ну, во-первых, это может быть некоторый формат повествования, в котором зритель может влиять на развитие сюжета. Здесь проблема заключается в том, что произвести такой телевизионный продукт очень сложно и дорого. Более того, традиционному телеканалу проще таким образом отснять развлекательный продукт, чтобы всё развивалось по заранее утверждённому плану, который статистически удовлетворит массового зрителя. Мне рассказывали про латиноамериканское «реалити», которое было срежессировано от начала до конца и собрало неплохую аудиторию, поскольку было социологически просчитано. Постановка намного дешевле, чем инфраструктура обратной связи.

Если же говорить о том, что каждый пользователь на экране получает свой собственный сюжет, то это сразу превращается в компьютерную игру, скорее, и этот формат логичнее развивать на планшетах и компьютерах, а не на телеэкране, перед которым в гостиной сидит несколько человек.

Сюда же я бы отнёс неопределённость, связанную с персонализированным ТВ. То есть моделью, в которой пользователь, вернувшись с работы, нажимает кнопку, и телеканал начинает ему показывать нечто актуальное именно для него. Тут проблем тоже несколько, и можно лишь догадаться, как они будут решены, если будут вообще.

Во-первых, смотрение достаточно ситуационно. Сегодня у меня плохое настроение, поэтому покажите мне кровавую резню бензопилой, я ненавижу всех людей? Или наоборот – комедию, я бы развеялся? Из каких данных можно почерпнуть конкретные предпочтения? Напомню, телевизор эти данные сегодня собрать не в состоянии. Управление жестами или голосом? Возможно. Только это удлиняет путь до самого просмотра.

Второй проблемой тут является то, что телевизор ничего не знает про весь окружающий меня инфопоток. Так, возвращаясь домой с работы, я четырнадцать раз видел наружную рекламу «Крепкого орешка – 23», и мне можно поэтому предложить вспомнить, что там было в двадцать первом и двадцать втором. Это направление в принципе может быть закрыто персональным электронным прибором, который постоянно со мной, и немного больше чем телефон – это или очки, или часы. Более того, если это браслет, то в принципе, возможно, что он мониторит психофизическое состояние пользователя, и это даёт телевизору дополнительный шанс угадать, какое именно кино он сейчас должен показать.

По сути дела, персонализация ТВ проще всего достигается в новостях (если у нас есть инструменты отслеживания интересов пользователя в интернете, например). Все остальные механики приближения контента к конкретным пользовательским пожеланиям требуют массового распространения персональных устройств, которые позволят накопить достаточно данных, для того чтобы они были уже статистически достоверны.

В настоящее время (скорее всего, быстротечное) никаких иных источников информации, кроме тех, что доступны через профили социальных сетей и/или историю поисковых запросов пользователя не существует. Осталось эту информацию как-то связать с предпочтениями в просмотре ТВ – и вот уже и база для статистической обработки.

Тем не менее, все эти прекрасные мечты не дают ответа на основной вопрос – как будет в будущем выглядеть система дистрибуции контента, кто в ней будет участвовать и какая бизнес-модель в итоге завоюет рынок.Модель дистрибуции

Основная проблема сегодня – это отсутствие централизованного дистрибутора прав. В любой рознице существует двухуровневое распределение – дистрибьютор и дилер (фактически, витрина, доставляющая конечный товар пользователю). В видеоправах такого дистрибьютора нет. Площадки (дилеры) самостоятельно договариваются о закупке прав и производителю (правообладателю) на сегодняшний день выгоднее продавать по сути одно и то же несколько раз. Ни о какой цифровой дистрибуции не может быть и речи до тех пор, пока права не будут централизованы, и конечные площадки будут иметь один источник для того, чтобы эти права купить. При этом сам дистрибутор будет занять только «оптовой продажей», бизнесом b2b, так как выход на конечного покупателя неизбежно вызовет нарекания со стороны правообладателя в протекционизме и недобросовестных продажах.

Идеальной моделью для рынка было бы появление биржи контента — независимой, консолидирующей все доступные на рынке права, пользующейся авторитетом у большинства правообладателей и служащей источником легализации всего контента. Но в настоящий момент правообладатели продолжают верить, что «монобрендовые онлайновые магазины могут себя окупить, и какое время им понадобится для того, чтобы понять истинное положение вещей – неизвестно. Думаю, что в горизонте 3-7 лет может возникнуть мировой агрегатор, построенный гигантами индустрии. Пока этого не произошло, рано говорить о новых принципах дистрибуции, персональном ТВ и прочих «вкусных» вещах.

Это моя первая попытка более-менее системно изложить главные вопросы, которые возникают, когда мы разговариваем о новом телевидении. За последние шесть лет, которые я занимаюсь разными аспектами этого технологического и медийного сдвига, мне стало понятно, что как любой фундаментальный процесс, он вовлекает в себя множество самых разных сил, игроков и технологий. В него вовлечено сразу несколько рынков, в ряде случаев противоречия, стоящие перед развитием новых медиа, кажутся непреодолимыми, а иногда самые простые идеи, которые могут быть фактором, который сломает сложившуюся модель потребления – кажутся списанными из фантастического романа.

Я уверен, что в ближайшие несколько лет нас ждёт много интересного в этой области.


К оглавлению

Загрузка...