Опубликовано 11 мая 2010 года
Это вторая часть статьи «Как делают стереофильмы». С первой вы можете ознакомиться здесь
Громоподобный успех «Аватара» заставил призадуматься многих представителей киноотрасли. С одной стороны, стало окончательно ясно, что у стереокино есть большое будущее – в том числе с финансовой точки зрения. С другой стороны, «честное» стерео требует использования дорогостоящего оборудования, съёмок исключительно на цифровые камеры, специального съёмочного процесса и учёта всех особенностей стереовосприятия. Далеко не каждый оператор, много лет проработавший с плёнкой, готов переходить на «цифру», необходимую для стерео.
Разумеется, велись и поиски альтернативных подходов. Конверсия в стерео на этапе постпродакшна — самый экономичный вариант. С другой стороны, сторонники этого подхода считают, что благодаря нему у режиссёра и оператора остаётся куда большая свобода для манёвра.
В сущности, даже очень крупные и именитые режиссёры не брезгуют именно таким «пост-стерео». В частности, таким образом была изготовлена стереоверсия «Алисы в Стране Чудес» Тима Бёртона — фильма, изначально снимавшегося не в 3D.
Стереография — сфера, где, как уже было сказано, нет никаких жёстко выработанных стандартов демонстрации. Есть математический аппарат, есть понятие положительного и отрицательного параллакса и формулы стереоскопической геометрии (доступна публичная техническая документация компании In-Three) — вот, собственно, и есть то, от чего при работе отталкиваются специалисты. Плюс наработанные путём проб и ошибок нормативы, главная цель которых — обеспечить комфортный просмотр. Что, кстати, ещё далеко не всегда удаётся.
В целом среди деятелей кинематографа взгляд на стерео двойственный: с одной стороны, практически все признают, что снимать прямо в стерео — спаренными обычными или специализированными стереокамерами куда правильнее... Но дороже. С другой стороны, многие согласны с тем, что конверсия плоского фильма в стерео на этапе постобработки, дешевле, даёт — вроде бы — большую свободу режиссёрам и операторам в плане выразительных средств... Но это несколько спорно: по большому счёту, далеко не всё можно перевести в стерео. Стереоизображение налагает ряд не слишком приятных ограничений — в ходе съёмочного процесса равно как и при конверсии на постпродакшне.
С «честным» стерео всё, с одной стороны, очень просто, с другой — очень сложно. Простота заключается в том, что съёмки должны осуществляться либо сразу стереокамерой с соответствующими объективами (или обычной камерой с надлежащей насадкой на объектив), либо ригом из отдельных спаренных и жёстко синхронизированных камер. Цифровых, разумеется.
О многом, кстати, говорит тот факт, что одним из важнейших этапов подготовки к съёмкам «Аватара» стало создание специализированной камеры — Fusion Camera System (она же Reality Camera System 1). Её разработали совместно Джеймс Кэмерон, Винс Пейдж и корпорация Sony в начале 2000-х, своё «боевое крещение» она получила на съёмках подводного документального фильма «Призраки Бездны» (об экспедиции к затонувшему «Титанику»).
Отдельная история — как именно разрабатывалась и испытывалась эта камера. Как пишет Wired, Кэмерону и Винсу Пейсу удалось убедить инженеров Sony отделить объектив и матрицу от самой громоздкой части их профессиональной камеры, так что оператору пришлось бы управляться не с двухсоткилограммовым стереомонстром, а с куда более приемлемым одиннадцатикилограммовым двухобъективным устройством.
Получив нужный прототип, Пейс сконструировал риг, позволявший оператору с предельной точностью контролировать стереосъёмку. Он предложил Кэмерону протестировать камеру на простенькой сцене с одним-двумя актёрами, но у Кэмерона было на уме нечто другое. Он арендовал, ни больше, ни меньше, «летающую крепость» B-17 и истребитель времён второй мировой войны P-51, на которую и был установлен свежесконструированный стереориг. Как только машины поднялись в воздух и началась съёмка, пилот P-51 дал холостую очередь по B-17, в котором находился Винс Пейс. "Тогда я в первый раз понял, что Джим подразумевает под словом «испытания», — говорил потом Пейс.
Здесь был вставлен Flash-объект. К сожалению, на данный момент его автоматическая обработка при конвертации в FB2 не поддерживается.
Сейчас уже сразу несколько компаний разрабатывают специальные стойки для стереоригов под камеры. Сами по себе камеры бывают достаточно громоздки, и иногда их не удаётся разместить достаточно близко друг к другу, чтобы получить нужное межосевое расстояние (расстояние между центрами объективов). Тогда в дело идут зеркала, а камеры размещаются под прямым углом друг к другу.
Сами риги стоят от 40 тысяч долларов и более, причём чем выше степень контроля над положением камеры, тем больше денег придётся отдать.
Альтернативу «честному» стерео можно было бы, наверное, назвать «бесчестным» — ведь его создателям не приходится летать на самолётах времён Второй мировой войны, да и исхитряться с системами объективов и зеркал им не нужно. Стереоизображение они получают путём конверсии обычного, «плоского» на этапе постпродакшна.
Существует несколько методик конверсии, однако, по-видимому, все они основываются на одном и том же принципе. (Кстати, и в России есть свои разработки в этой области.)
Конверсией «Алисы» Тима Бёртона в стерео занималась компания In-Three, разработавшая технологию под названием Dimensionalization. Термин Dimensionalization примерно переводится как «Опространствливание», хотя скорее всего его будут по нынешней моде калькировать и обзывать «Дименсионализацией».
Информация о техническом процессе довольно-таки скудна — видимо, в силу коммерческой тайны. Но и из неё можно получить общее представление о том, как и что делается.
Создание иллюзии глубины осуществляется в несколько следующих этапов. Первый – это разбиение сцены на отдельные планы; собственно, для начала определяется общая глубина сцены.
Затем происходит изоляция отдельных объектов; обычно это делается при помощи софта, используемого для плоскостного трекинга, в частности Imagineer Systems Mocha.
Потом делается ротоскопия и дорисовка «недостающих» частей объектов, которых переводят из плоскости в объём. Это самая кропотливая часть работы. Фактически, речь идёт о создании средствами трёхмерной графики объёмных «болванок», повторяющих по форме отображаемые на экране объекты (причём по их объёмной форме, а не плоскому контуру). Исходные плоские изображения в результате служат в качестве текстур для «болванок», а недостающие части текстуры дорисовываются уже самими художниками — специалистами по компьютерной графике и визуальным эффектам. Которых на одном проекте может быть занято несколько сотен.
Отдельно необходимо отметить, что всем этим преобразованиям подвергается только один кадр из стереопары, другой (как правило, предназначенный для левого глаза) остаётся неизменным. Как ни странно, но этого достаточно для появления ощущения глубины.
При этом бывает, что глубина есть, а самого объёма нет: явно видно, что сцена дробится на отдельные планы так, что общее ощущение — как от книжки-раскладушки.
Дьявол, как известно, скрыт в деталях, и тут эту поговорку стоит рассматривать почти буквально: для стереоконверсии главной проблемой оказываются мелкие детали вроде волос, травы и листьев — буквально каждая травинка, листок и отдельный волос в идеале должны находиться на своём отдельном плане. К тому же — корректно просвечивать, учитывая, что каждый глаз видит разный фон одного и того же объекта, располагающегося на ближнем плане (см. "параллакс").
Как бы там ни было, конверсия любого «плоского» фильма в стерео превращает каждый его кадр в почти полноценную трёхмерную сцену или «CG-шот», как это принято говорить у специалистов по визуальным эффектам.
Студия In-Three к работе над каждым фильмом привлекает порядка 400-500 человек. На «Алису», к примеру, ушло около полугода, а оплата составляла порядка 80-100 тысяч долларов за минуту материала. То есть дополнительные полтора миллиона долларов в бюджет картины. Но результат вышел достойным.
http://www.youtube.com/watch?v=9POCgSRVvf0
"Битву Титанов" американо-индийская компания Prime Focus сконвертировала за десять недель, поставив рекорд по скорости... А в результате, практически по единодушному признанию зрителей и критиков, фильм оказался испорчен. Более того, в киноотрасли начали задаваться вопросом, не распугает ли этот случай (и другие примеры откровенной халтуры) зрителей, которых и так еле-еле заманили в кинотеатры стереопогремушкой... Спрашивается, зачем было спешить?
В России за конверсию берут ещё меньше — просто потому что кинокомпании не готовы тратить столько, сколько на Западе. На днях в Москве, в рамках выставки Cinema Production Service, проходила и конференция StereoMeet, на которой по этому поводу было сказано немало горьких слов: профессиональные стереографы (в частности, Сергей Николаевич Рожков, глава лаборатории стереографии НИКФИ), просмотрев несколько трейлеров, заявили, что это «полное стереографическое безобразие», и что если в таком виде российские фильмы будут выходить на международный экран, над нами будет смеяться весь мир. Со сцены оправдывались нехваткой денег.
С точки зрения режиссёров стерео — это новые выразительные средства. Оно становится своего рода новой изобразительной средой, настолько же отличающейся от традиционного кинематографа, как кино отличается от фотографии, а та — от живописи. У стереокинематографа и традиционного кино очень разные выразительные средства, а это, помимо всего прочего, означает, что стерео не убьёт традиционное кино.
С точки зрения кинокомпаний и прокатчиков стереокино — это способ повысить рентабельность всей отрасли и заманить излишне увлекшихся домашними кинотеатрами зрителей в кинотеатры обычные. Скорее всего, у производителей блокбастеров стерео в ближайшее время будет в большем почёте.
Хотя с изобретения стереокинематографа прошла уже добрая сотня лет, он только сейчас «дозревает» до приемлемого уровня. Этот процесс займёт ещё какое-то время. Впрочем, домашнее стерео уже на подходе, а следовательно, стратегическое преимущество кинотеатров вполне может сойти на нет в течение ближайших двух-трёх лет.
Читайте также интервью с продюсером «Аватара» о новых кинотехнологиях.
Опубликовано 11 мая 2010 года
Почему именно Ubuntu стал самым популярным дистрибутивом Linux? Почему именно он приобрёл такую известность, что для многих Linux и Ubuntu превратились почти что в синонимы? Ответ на этот вопрос — Марк Шаттлуорт.
Именно Марк Шаттлуорт, миллионер, заработавший свой капитал в конце девяностых, основал в своё время фирму Canonical, которая и занимается разработкой Ubuntu, и именно он является основной её «движущей силой». В отличие от других «линуксоидных» компаний, больше интересующихся серверными и профессиональными применениями системы, в Canonical пытаются сделать «Linux для всех».
Впрочем, изначально этот человек прославился вовсе не созданием Canonical и Ubuntu. Без малого десять лет назад он стал первым жителем Африки, побывавшем в космосе. В шутку его иногда называют «афронавтом».
Шаттлуорт родился в ЮАР в 1973 году, в начале девяностых годов принимал участие в разработке ОС Debian, а в 1995 году основал компанию Thawte, которая специализировалась на цифровых криптографических сертификатах. Thawte была куплена корпорацией Verisign — так Шаттлуорт заработал свои миллионы.
До 2002 года Шаттлуорт не делал ничего особо примечательного для широкой публики. После же он стал известен как второй космический турист и первый житель независимого африканского государства, оказавшийся в космосе. Полёт обошёлся недёшево — Шаттлуорт заплатил «Роскосмосу» 20 миллионов долларов.
Сам миллионер считает, что когда коммерческие полёты будут доступны, они станут чрезвычайно востребованными. «Вид Земли из космоса потрясает и изменяет жизнь навсегда. Даже три минуты в космосе изменят ваше отношение к другим людям и к миру,» — говорит он.
Помимо осуществлённой мечты о полёте в космос, после продажи Thawte Шаттлуорт основал благотворительный фонд, основными целями которого является поддержка социальных нововведений. Если вспомнить, что предприниматель участвовал в разработке Debian, то его решение создать собственный дистрибутив Linux выглядит вполне логично. Для этого в 2004 году и была открыта фирма Canonical.
Ubuntu 10.10 Netbook Edition
Недавно Марк Шаттлуорт показал в своём блоге новые возможности, которые появятся в специальной версии Ubuntu 10.10 для нетбуков. Как можно видеть, сбоку будет размещена панель быстрого запуска приложений, с которой будет удобно работать на экранах с сенсорным управлением. Она также заменит собой панель задач, отображая, какие из приложений запущены.
Вторая разработка, Ubuntu Light, представляет собой облегчённый дистрибутив, предназначенный для установки на компьютеры с уже имеющейся ОС Windows. Запускается она чрезвычайно быстро (скажем, для нетбука Dell Mini 10v время запуска составляет всего 7 секунд), к тому же речь идёт о запуске не только системы, но и основных приложений: браузера, почтовой программы и медиаплеера. Ubuntu Light будет оптимизироваться специально для каждой конкретной конфигурации компьютера и предоставляется компаниям-производителям ПК.
На вопрос «что такое Ubuntu», Шаттлуорт отвечает, что это, прежде всего, платформа для людей. «Считается, что Linux — это платформа для специалистов. Мы сформировали задачу достаточно чётко: сделать то, что не стыдно будет предлагать людям, которые не особо интересуются высокими технологиями,» — говорит он.
Шаттлуорт — как раз то, чего недостаёт сообществу open-source — деятельный и харизматичный лидер, догадывающийся, куда дует ветер, когда другие об этом ещё не задумываются. Своего рода Стив Джобс от Linux.
Впрочем, многих поклонников свободного программного обеспечения активность Canonical, скорее, настораживает. Они полагают, что эта компания действует слишком бесцеремонно. Шаттлуорт может делать с Ubuntu всё, что ему заблагорассудится, не особенно с кем-либо советуясь и, волей-неволей, некоторые нововведения придётся начать поддерживать и другим дистрибутивам Linux.
В последнее время Шаттлуорт в своём блоге описывает интересные интерфейсные решения и, как это видно по 10.04, на полке эти концепты долго не залёживаются. Чего стоит перенос кнопок управления окна справа налево. А в планах ещё и много другого: единая фиксированная плашка меню для всех приложений в Ubuntu для нетбуков, всплывающие сообщения о статусе вместо закреплённой строки статуса, а также индикаторы деятельности приложения, находящиеся в правой части заголовка окна.
Стоит заметить, что, хотя Шаттлуорт и прислушивается к советам, которые в комментариях к его записям в блоге дают пользователи, конечное решение всё равно остаётся за ним. Часто слышатся возмущённые возгласы, но, всё же, сомнений в том, что так или иначе основатель Canonical претворит свои идеи в жизнь, практически нет.
В некотором роде, это очень хорошо. Судите сами — смысл некоторых претензий к Шаттлуорту сводится к убеждённости в том, что ОС не стоит пытаться сделать более доступной для «простых людей». Многие заядлые пользователи Linux считают, что массы нельзя допускать к их любимой системе. Хоть плюрализм мнений при разработке программного продукта — это замечательно, но должен быть человек, который, предложит новаторскую идею, внедряемую без промедления и лишних обсуждений. Именно таким человеком и стал для Ubuntu Марк Шаттлуорт.
Остаётся вопрос, как же Canonical собирается зарабатывать деньги? Прежде всего, по словам Шаттлуорта, это достигается через экономию — компания практически не занимается рекламой и маркетингом, концентрируя все силы на разработке. Что касается прибыли, то афронавт хоть и говорит, что получать её было бы замечательно, но замечает, что Canonical в качестве благотворительного проекта его вполне устраивает. "В любом случае, — замечает он, — пока что всё это дешевле, чем ещё раз слетать в космос или увлечься самолётами, кораблями или женщинами, что я, впрочем, рассматриваю как план "Б".
Опубликовано 12 мая 2010 года
В течение некоторого времени Apple со своим iPhone занимала второе место на американском рынке смартфонов (выше неё — только RIM с телефонами Blackberry, фактически, американским стандартом). И вот недавние исследования показали, что устройства на основе Android обошли телефон Apple, и теперь им принадлежит 28 процентов рынка смартфонов. Для сравнения: на долю iPhone приходится 21%, а на долю Blackberry — 36%.
Надо, впрочем, учитывать, что у Apple имеется всего одна актуальная модель мобильного телефона — iPhone 3GS, в то время как трубки на основе Android в США продают три компании: Motorola, HTC и Samsung. С другой стороны, продажи устройств на основе мобильной ОС Google начались всего год назад.
Популярность Android имеет несколько объяснений. Для начала, аппараты iPhone продолжают продаваться и очень даже неплохо, однако сейчас произошло наполнение рынка. Грубо говоря, все кто хотел 3GS, уже приобрели его, а те, кто хотел заменить старую модель, ждут следующий iPhone. Практически никто не сомневается, что в июне на конференции WWDC Apple объявит о выходе iPhone четвёртого поколения, прототип которого "засветился" в интернете, после того, как его потерял один из сотрудников компании.
Реакция Apple
Через пару дней в Apple внезапно прокомментировали данные исследования NPD (обычно фирма никак не реагирует на такие исследования). Представители компании сказали, что эти сведения не точны, так как данные были получены на основе онлайнового опроса и не относятся к реальной ситуации на рынке. Также в Apple подчёркивают, что другие фирмы, занимающиеся подобными исследованиями, подтверждают, что iPhone популярнее Android.
Увы, собственных данных компанией предоставлено не было. Это значит, что официальные цифры останутся в тайне, пока все соответствующие компании не опубликуют квартальные финансовые отчёты.
Есть и другая причина уменьшения популярности iPhone. В США телефон продаётся лишь с привязкой к оператору связи AT&T, который подходит не всем. Так, например, его покрытие 3G существенно уступает конкурентам — стабильная связь третьего поколения доступна, в основном, только в крупных городах.
В своё время большой шум подняла рекламная кампания другого оператора, Verizon. В карта покрытия 3G от Verizon сравнивалась с покрытием AT&T. Как нетрудно догадаться, AT&T сильно проигрывал конкуренту. По слухам, контракт с этой компанией на эксклюзивные продажи iPhone был продлён с 2009 года до 2012. Если это действительно так, то американцам вряд ли стоит ждать новый эппловский телефон от другого оператора связи до этого срока. К тому же Verizon активно продвигает смартфоны Motorola Droid на основе ОС Android. Это вполне достойные аппараты, так что спрос на них не удивителен, да и рекламная кампания в их поддержку была развёрнута нешуточная.
http://www.youtube.com/watch?v=w83UQkiuNZQ
К тому же, не стоит забывать, что в статистике не были учтены другие устройства на основе iPhone OS — iPod Touch и iPad. И тут нужно учитывать, что iPad Touch в последнее время обогнал iPhone по продажам.
У Google, как и у Apple, есть специализированный магазин приложений, однако большинство представленных там программ бесплатны. Что в этом может быть плохого? Просто пользователи Android не хотят и не будут покупать программы — их к этому просто не приучили. Когда появился Apple App Store, пользователи iPhone привыкли покупать приложения хотя бы по цене 99 центов. Это, конечно, не особенно выгодная для разработчика цена, зато люди платят эти деньги, не особенно задумываясь о трате. И если программа станет по-настоящему популярной, её создатель вполне может рассчитывать на миллион долларов, заработанный за короткое время. В случае с Android разработчики популярных платных приложений еле сводят концы с концами.
Битва Android и iPhone во многом напоминает историю с «маками» и PC двадцать пять лет назад. В то время первые «Макинтоши» были вытеснены разнообразными дешёвыми компьютерами с MS-DOS. Не повторится ли та же история с Android?
Опубликовано 13 мая 2010 года
Каждый программист, которому приходилось работать с клиентами или менеджерами, далёкими от техники, знает, что самые невозможные просьбы непременно заканчиваются словами «Это же совсем просто, да?» или «Часа на это, конечно, хватит». Если прозвучала фраза в таком духе — можно не сомневаться, что в лучшем случае придётся переписать программу целиком, а в худшем — нарушить пару-другую законов природы.
Задача, которую собирается поставить Минсвязи перед пока не известным исполнителем, относится именно к этому типу. На днях советник министра связи Илья Массух объявил, что Минкомсвязи планирует создать «государственную систему дистанционной работы с документами», рассчитанную на чиновников — иными словами, веб-офис наподобие Google Docs с текстовым процессором, электронной таблицей, бухгалтерской программой и системой электронного документооборота. Это же совсем просто, да?
Нет, совсем наоборот. Разработка пакета офисных программ — даже обычного, а не онлайнового или кроссплатформенного — это совершенно неподъёмная задача. Дело даже не в сложности (хотя тут есть свои подводные камни), а в её масштабах. Именно поэтому офисные пакеты можно пересчитать по пальцам одной руки, а десяти лет и миллионов долларов, которые Sun вложила в разработку OpenOffice, так и не хватило для того, чтобы довести его до уровня Microsoft Office.
Одно лишь поддержание совместимости с форматами Word и Excel потребует таких усилий, что лучше даже не начинать. Хорошая совместимость с приложениями Microsoft невозможна, если их функциональность (даже якобы «ненужная» обычному пользователю) воспроизведена недостаточно полно — включая, например, поддержку скриптов Visual Basic, необходимого для любой достаточно сложной таблицы Excel.
Желание загнать офисный пакет в браузер переводит и без того нелёгкую задачу на совершенно новый уровень сложности. Полноценных веб-офисов в мире всего два: Google Docs и Zoho Office. Не помогает даже то, что слово «полноценный» в интернете стоит куда дешевле, чем на десктопе. Функциональность онлайновых текстовых процессоров сравнима только с примитивным Wordpad, бесплатно прилагающимся к каждой копии Windows, и ни один активный пользователь Excel не станет даже сравнивать его с электронными таблицами Google или Zoho.
В отличие от обычной офисной программы, которая работает под управлением обычной операционной системы, клиентская часть веб-офиса должна одинаково хорошо работать в целом зоопарке браузеров, каждый из которых имеет собственную реализацию Javascript и DOM и собственный набор неповторимых ошибок и странностей. Вдобавок, её сложность приближается к предельно возможному для программ на Javascript — а это значит, что разработчика ждут дополнительные трудности, связанные с производительностью и утечками памяти.
Серверная половина — ничуть не проще. Когда количество пользователей подобного веб-приложения вырастает выше определённой величины, приходится идти на трудновообразимые ухищрения, чтобы эффективно распараллелить их обслуживание (покопайтесь в архивах highscalability.com и убедитесь сами). А в том, что пользователей государственного веб-офиса будет предостаточно, нет никаких сомнений. Не удивлюсь, если окажется, что чиновников в России больше, чем пользователей у настоящего Google Docs.
Есть ли в России специалисты, способные построить такое веб-приложение? Неизвестно. Если и есть, пока они ничем не проявили себя — даже самые сложные веб-приложения в Рунете несравнимо проще, чем Google Docs.
Впрочем, при желании возможно всё. Вряд ли сделать аналог Google Docs труднее, чем запустить спутник в космос. Если найти внушительное количество денег, отыскать нужных людей и потратить несколько лет, возможно, что-то и получится.
Но куда вероятнее, что дело ограничится первым пунктом: государство найдёт и потратит на проект внушительное количество денег. Это у нас умеют — проверено. Результата — во всяком случае, приемлемого — никто не получит.
Опубликовано 13 мая 2010 года
Вопрос энергопотребления для таких компаний как Google — далеко не самая последняя забота. В Google не только стараются строить дата-центры поближе к электростанциям, чтобы сэкономить на передаче энергии, но и потихоньку вкладывают деньги в разработки, связанные с «зелёной» энергетикой. Недавно Google инвестировал 38,8 миллиона долларов в постройку ветряной электростанции.
В официальном блоге Google опубликован постинг с названием «Не только сражаться с ветряными мельницами, но и инвестировать в них». Он рассказывает о намерении компании вложить деньги в постройку ветряной электростанции в Северной Дакоте. Сами ветряки были придуманы в компании NextEra Energy Resources и, как утверждают в Google, отличаются оригинальной конструкцией — их лопасти устроены таким образом, что могут поворачиваться и подстраиваться под направление ветра. Всего электростанция будет генерировать 196,5 мегаватт энергии — достаточно для снабжения электричеством более 55 тысяч домов.
Речь, похоже, идёт именно о домах — вместо того, чтобы запитать от ветряной электростанции собственные серверы, в Google пока что предпочли инвестировать в индустрию. Это вовсе не первый случай, когда Google не только словом, но и делом поддерживает развитие «зелёной» энергетики. Компания уже участвовала и в инициативе по строительству солнечной электростанции и даже рапортовала о разработке нового типа зеркал для неё. Солнечная электростанция уже используется для обеспечения электричеством кампуса Google в Маунтин-Вью (штат Калифорния) и генерирует 1,6 мегаватта энергии.
http://www.youtube.com/watch?v=H2GaO9dpVBk
То, что выбор каждый раз падает на одну из «зелёных» технологий – не удивительно. В Google объясняют, что таким образом стараются «минимизировать влияние на земной климат». Со стороны эти слова кажется не то неприкрытым пиаром, не то попыткой следовать знаменитому слогану Don't be evil, зашедшей слишком далеко.
Утверждается, что строительство ветряной электростанции будет иметь смысл в том числе и с экономической точки зрения. Тем не менее, «зелёными» разработками занимается именно благотворительное крыло организации – Google.org. Сама инициатива называется RE "Наша цель – создать источник восполняемой энергии гигаваттной мощности при цене меньшей, чем уголь. Мы считаем, что это можно сделать в ближайшие годы, а не десятилетия" — говорит президент по продуктам Google Ларри Пейдж. Гигаватта хватит для обеспечения города размером с Сан-Франциско. Электростанциями энергетические интересы Google не ограничиваются. Известно, к примеру, что компанией были приобретены четыре рабочих прототипа топливных элементов Bloom Box, которые якобы могут работать без подзарядки десятилетиями. Использование экологически чистых источников энергии – не единственный способ, применяемый в Google для уменьшения воздействия на окружающую среду. Компания в числе прочего с гордостью рассказывает о создании системы, позволяющий охлаждать оборудование повторно используемой водой. Потребление большого количества чистой воды, по словам Google, – одна из важнейших проблем. В 2008 году новыми системами охлаждения было оборудовано два дата-центра, а к 2010 было обещано перевести на них и остальные.
http://www.youtube.com/watch?v=nPjZvFuUKN8
Для оценки эффективности энергопотребления в Google придумали собственную методику. Она позволяет измерять энергозатраты, уходящие именно на вычисления, а следом вычислять затраты на поддержание инфраструктуры (того же охлаждения, к примеру). В идеале можно построить такую систему, в которой выделяемое тепло будет снова использоваться в качестве источника энергии. Увы, такие решения пока что считаются непрактичными и бессмысленными с экономической точки зрения. "В течение двух лет мы сможем продемонстрировать достаточно крупномасштабные системы, которые будут генерировать много энергии и будут производиться серийно" – говорит в интервью агентству Reuters Билл Уэйл; его неофициальная должность в Google звучит экстравагантно – "царь зелёной энергии" (на самом деле он вице-президент и сопредседатель совета инициативы по климатически бережливым вычислениям). Говорилось это в сентябре 2009, и с тех пор прошло всего полгода. Судя по бурной активности компании на энергетическом фронте, ещё через полтора года обещания вполне могут сбыться.
Опубликовано 14 мая 2010 года
Об изменении подхода к разработке Firefox стало известно ещё в январе. В Mozilla планируют выпустить Firefox 4 в конце ноября (публичная бета-версия будет доступна уже в июне). От промежуточного релиза 3.7 решено отказаться, а некоторые нововведения, которые должны были в нём появиться, войдут в Firefox 3.6.4, который будет доступен на днях. Речь, в частности, идёт об изолированном выполнении плагинов (такой подход давно реализован в Google Chrome). Других бросающихся в глаза изменений в Firefox 3.6.4 немного — его отличия от текущей версии 3.6.3 в основном технические. Оно и понятно — в Mozilla сейчас больше озабочены выпуском «четвёрки», которая должна поправить пошатнувшиеся позиции альтернативного браузера № 1.
Если верить опубликованным в Сети скриншотам, интерфейс браузера будет существенно доработан и станет гораздо проще и понятней. На иллюстрации хорошо видно, что многие идеи позаимствованы из Google Chrome. Ещё нас ожидает интеграция в браузер технологии Weave (синхронизация данных сейчас доступна только в виде дополнения) и ряд не столь очевидных новшеств.
Разработчики сосредоточатся, в основном, на скорости работы Firefox и поддержке спецификаций, входящих в HTML 5. Прирост производительности будет достигаться за счёт нового движка JavaScript (проект JägerMonkey запущен в феврале), улучшенного интерфейса и аппаратного ускорения графики. В части поддержки HTML5 также сделают немало, ниже приведен далеко не полный список изменений:
SVG и MathML будут поддерживаться прямо внутри HTML5;
Интерпретатор HTML5 в отдельном потоке ускорит обработку крупных страниц;
Поддержка WebSockets (веб-приложения получат дуплексную связь с сервером);
Поддержка жестов и технологии мультитач для устройств с сенсорными экранами;
Улучшенная поддержка CSS3;
Возможность доступа приложений к микрофонам и веб-камерам;
Поддержка тега video и кодека Theora (уже реализована в Firefox 3.6.x).
Пока не совсем ясно, какие из этих нововведений войдут в Firefox 4, а какие останутся за «бортом». Кроме того, нет гарантии, что новая версия выйдет своевременно — практика показывает, что Mozilla иногда задерживает релизы на месяц-другой.
Самая, пожалуй, интересная новинка — формат дополнений Mozilla Jetpack. В январе один из ведущих разработчиков Майк Коннор (Mike Connor) в своем блоге заявил, что поддержка адекватной настройки браузера под нужды конечного пользователя становится еще сложнее из-за пользовательских расширений. В качестве варианта решения проблемы он говорил о возможном отказе от нынешней архитектуры дополнений и переходе на сходную с той, что сейчас используется в Google Chrome (в рамках Mozilla Labs это проекты Personas и Jetpack).
Это заявление вызвало бурный отклик в Сети, и буквально на следующий день в блоге Mozilla было опубликовано опровержение, в котором говорилось, что XUL- и Jetpack-дополнения будут поддерживаться параллельно. Возможно, в будущем и произойдет полный переход на новый формат, но пока говорить об этом преждевременно.
Если не вдаваться в технические подробности, технология Jetpack предполагает упрощенную разработку расширений с помощью специального SDK, без изучения внутренней структуры браузера и тонкостей XUL (используются стандартные технологии HTML, CSS и Javascript). Преимуществом Jetpack-расширений является возможность мгновенной активации дополнения без перезагрузки браузера и отсутствие требований к обеспечению совместимости с будущими версиями Firefox, а её основным недостатком — меньшая гибкость и функциональность.
Все идет к тому, что в скором времени нас ожидает очередной этап войны браузеров к которому разработчики сейчас активно готовятся. Предсказывать, кто окажется победителем на этот раз, пока рано, но кое-что ясно и так. Скорее всего, в ближайшее время Microsoft сохранит за собой статус лидера, но разработчики других браузеров продолжат его теснить. Вряд ли появление Internet Explorer 9, работающего только в новых версиях Windows, остановит падение популярности браузеров Microsoft.
Из альтернативных браузеров наиболее интересны Firefox и Google Chrome. Safari и Opera Desktop в мировом рейтинге верхних строк не занимают, если не считать аномально высокой востребованности Opera у русскоязычных пользователей Сети. Популярность Firefox слегка снизилась, но после выхода четвёртой версии всё может измениться.
Принципиальный отказ Mozilla поддерживать кодек H.264 даже в виде дополнения позиций Firefox не улучшит, но, скорее всего, такие дополнения все равно появятся, и это не станет серьёзной проблемой. Нам остаётся только запастись попкорном.
Опубликовано 14 мая 2010 года
Тема «управления интернетом» у нас в стране сводится обычно к критике властей, когда они выдвигают очередной «закон об интернете», составленный, как правило, без доли понимания, «как все это устроено». Еще в контексте «управления интернетом» можно вспомнить критику США, и по сей день не выпускающих из рук некоторые рычаги влияния на Всемирную Сеть, или обсуждение «Великого китайского фаервола» и сетевой цензуры в других странах.
Однако (и пусть это не окажется для читателя неожиданностью) тема «управления интернетом» давно обсуждается международным сообществом, причем под эгидой самой представительной мировой организации — ООН, которую трудно заподозрить в заговоре против пользователей. С 2006 года под мандатом ООН действует «Форум по управлению интернетом» (по-английски Internet Governance Forum, IGF) — международная организация, первое заседание которой прошло в Афинах еще в октябре 2006 года. В сентябре этого года в Вильнюсе пройдет уже пятая встреча IGF.
Наконец (лучше поздно, чем никогда) эти веяния добрались и до России. 13-14 мая в Москве в Выставочном комплексе на Красной Пресне параллельно с крупнейшей выставкой «Связьэкспоком» прошла конференция под названием «Российский форум по управлению интернетом». Она не проходила в рамках IGF, но родственное название (RIGF) говорит само за себя.
Уровень представленных докладчиков был самым высоким, не хватало разве что президентов или премьеров. На пленарном заседании выступали российский министр связи Игорь Щеголев (и само Минкомсвязи было одним из инициаторов форума), от ICANN — ее генеральный директор и президент Род Бекстром, от США — американский визави Щеголева, зам. министра торговли по вопросам коммуникации и информации Лоуренс Стриклинг. И плюс еще много фигур различного масштаба — таких, например, как помощник секретаря Совета Безопасности генерал Владислав Шерстюк, очень уважаемая на Западе фигура, бессменный председатель и вдохновитель международного форума по информационной безопасности и противодействию терроризму, проходящего ежегодно в апреле в Гармиш-Партенкирхене.
Российский министр связи Игорь Щеголев весьма фотогеничен
Прежде чем перейти к обсуждению собственно тем, поднятых на форуме, заметим, что к его открытию было приурочено еще одно знаменательное событие — накануне, 12 мая в 17:41 по московскому времени, был делегирован кириллический домен .РФ. На пленарном заседании руководитель ICANN Род Бэкстром торжественно вручил директору российского Координационного Центра национального домена сети интернет Андрею Колесникову здоровенное свидетельство об этом (см. фото). Дома я проверил, как функционирует разрекламированный сайт ПРЕЗИДЕНТ.РФ — оказалось, что вполне себе работает (браузер Firefox 3.0.6), вот только в конвертированном адресе в адресной строке (http://xn--d1abbgf6aiiy.xn--p1ai) смущает отчетливо читаемое слово «дьявол» (или у меня слишком богатое воображение?).
Род Бэкстром (с папкой в руках) вручает Андрею Колесникову (слева) свидетельство о старте домена .РФ. Крайний слева — министр Игорь Щеголев, крайний справа — заместитель председателя Государственной Думы по безопасности Михаил Гришанков
И чтобы уж совсем покончить с темой кириллических доменов, отметим, что Щеголев в беседе с журналистами очередной раз озвучил идею о присвоении каждому жителю России почтового адреса в новой доменной зоне, который должен послужить заодно паролем к государственным сервисам. Комментировать этот проект я не берусь — понятно, что все зависит от реализации. После пресс-конференции Щеголев, судя по вечернему выпуску новостей, умыкнул у Колесникова свидетельство и поехал показывать его Медведеву (который в момент вручения пребывал совсем недалеко, буквально за стенкой, посещая выставку «Экспоком»).
Игорь Щеголев и Тина Дэм, директор программы интернационализации доменных имён в ICANN
Круг вопросов, поднятых только в пленарных выступлениях, не говоря уж о докладах на секциях форума, настолько широк, что даже в телеграфном стиле обозреть его невозможно. Попробуем дать по возможности краткое резюме тому, что докладчики понимали под «управлением интернетом» (причем «управление» не следует путать с «регулированием», как подчеркнул переводчик в ответе на вопрос одной журналистки, адресованный Бэкстрому). Круг обсуждаемых вопросов включает проблемы спама, фишинга и другой киберпреступности в Сети, приватности, анонимности и свободы слова, новых адресных зон, технические проблемы сетевых протоколов, цифровое неравенство, проблемы интеллектуальной собственности, детского безопасного интернета, корректного налогообложения трансграничной интернет-коммерции и еще многие, многие другие.
Участники IGF давно договорились, что все эти вопросы можно обсуждать лишь с привлечением как минимум трех сторон: представителей правительств, бизнеса и гражданского общества. Без участия какой-либо из них «управление интернетом» обязательно выйдет кривым, причем в ряде случаев перечень взаимодействующих сторон должен дополняться. Так, Михаил Федотов, легенда отечественной юридической науки, и автор одного из первых постперестроечных законов — и поныне действующего «закона о СМИ», — указал в своем выступлении на одной из секций, что программисты и технари тоже «управляют интернетом», и их влияние в ряде случаев может быть весьма значительным. Он также заметил, что право — не только не единственный, но в ряде случаев и не самый главный регулятор в интернете, приведя в пример «нетикет» — свод неформальных правил общения в Сети.
Очень большую роль играет правильное разрешение проблемы нейтральности каналов передачи — в принципе понятно, что тот, кто технически обеспечивает возможность передачи сообщения, не должен и не может отвечать за его содержание. Но это только кажется очевидным — особенно остро стоит этот вопрос в нашей стране, где по сей день нет никаких норм, регулирующих ответственность провайдеров. Причем особенно неочевидно это в отношении контент-провайдеров, а также пользовательских комментариев на сайтах СМИ. О связанных с этим судебных процессах не раз писала и «Компьютерра» и другие СМИ, причем результаты судов были вполне противоречивыми. Так, весной текущего года «Вконтакте», как я уже упоминал в заметке о «РифоКибе», выиграло затянувшийся судебный процесс у ВГТРК насчет сериалов, размещаемых пользователями, а вот «Рамблер» в аналогичной и столь же долгоиграющей истории в конце концов проиграл «Первому музыкальному издательству».
Несомненно, необходимость норм, регулирующих ответственность провайдеров, назрела и перезрела — причем нашумевший апрельский проект постановления пленума Верховного Суда насчет «закона о СМИ» (еще, кстати, не утвержденный) говорит только о сайтах, зарегистрированных в качестве СМИ (они избавляются от ответственности за комментарии пользователей, каковые приравниваются к передаче в прямом эфире), но насчет контент-провайдеров там, естественно, ни слова. О том, что вообще понятийная база законодательства в отношении интернета крайне слаба, много говорилось на секции «Правовые аспекты управления интернетом», под председательством Михаила Якушева, известного юриста, ныне — председателя Совета Координационного Центра национального домена сети интернет.
Михаил Якушев, председатель Совета Координационного Центра национального домена сети интернет
Сам Якушев отметил, что в 1999 году году усилиями тогдашнего премьера Путина вопрос о регулировании интернета со стороны только государства, без обсуждения с сообществом, был закрыт, причем с тех пор и ВВП, и пришедший позднее Дмитрий Медведев, и их подчиненные твердо придерживались этих договоренностей. Однако он был закрыт настолько прочно, что это имело свою отрицательную сторону в виде почти абсолютного вакуума в законодательном охвате реальных проблем интернета.
К сожалению, нет возможности столь же подробно разобрать все поднятые на этой секции вопросы — особенно интересным было выступление Михаила Федотова, о котором я уже упоминал. Он в том числе заметил, что в Казахстане проблему сайтов и СМИ решили просто — одной строкой в законе, приравнявшей все сайты к СМИ. И процитировал Гроссмана о том, что «сложные проблемы всегда имеют простые, легкие для понимания неправильные решения». Это известное изречение можно взять эпиграфом ко всему форуму.
Ульяна Зинина, ведущий юрист ООО «Яндекс»
Хочу также отметить блестящее и содержательное, как всегда, выступление Ульяны Зининой, ведущего юриста «Яндекса», на секции «Баланс открытости и защиты частной жизни в управлении интернетом» (ведущий — Антон Носик). Ее выступление было посвящено анонимности пользователей, и различным подходам к этому вопросу. Ульяна очень доступно и четко проанализировала суть проблемы, и закончила выводом, интуитивно понятным сейчас любому интернетчику, который, однако, в ее устах получил статус почти доказанного: а не больше ли анонимности в обычной, оффлайновой жизни?
В числе главных недостатков форума (и в целом IGF, судя по отзывам некоторых выступающих) можно назвать неконкретность большинства докладов, особенно иностранных партнеров. Говорить о проблемах интернета в общих словах можно сколь угодно долго (и командировочные будут исправно капать), но от этого конкретные вопросы так вопросами и останутся. С другой стороны, важно, что сама постановка вопроса об «управлении интернетом» вообще обсуждается в столь представительном сообществе и хотя бы позиции сторон определяются более четко.
Интернациональный интернет. Слева направо Ульяна Зинина (Россия, Яндекс), Татту Мамбалиева (Киргизия, фонд «ГИИП»), Сабина Долдерер (Германия, DENIC) и Лесли Коули (Великобритания, Nominet)
В заключение хочу отметить, что каждому участнику форума подарили перевод последнего издания книжки Йована Курбалийя «Управление интернетом», сделанный по инициативе Координационного Центра. Предыдущее ее издание, которое можно найти в Сети, уже устарело, потому хочется выразить надежду, что возглавляемый Курбалийя фонд Diplo и КЦ, обладающие авторскими правами на книгу, не будут сидеть на этом издании, как собака на сене, и сподобятся выложить ее в свободный доступ. Потому что книжка и правда очень интересная, ибо собирает под одной обложкой толкование практически всех актуальных вопросов по теме, даже таких, какие вы сами себе задать никогда не додумаетесь. После ознакомления с ней число доморощенных проектов «законов об интернете» должно, по идее, резко поубавиться.
Вот в качестве поскриптума один факт из этой книжки: оказывается, проблемы цензуры в электронных средствах передачи сообщений обсуждали еще в 1875 году в Санкт-Петербурге на конференции Международного телеграфного союза (предшественника современного Международного союза электросвязи). И договориться не смогли: США и Великобритания настаивали на соблюдении полной тайны переписки, а Россия и Германия — на защите общественного порядка и моральных норм. В результате проблему обошли: в ст. 2 принятой конвенции гарантировалась тайна переписки, а в ст. 7 допускалась возможность государственной цензуры (отчего документ не подписали США). Как видите, многие широко обсуждаемые ныне проблемы возникли далеко не вчера, а ведь все еще столь же далеки от разрешения.
Опубликовано 14 мая 2010 года
13 мая 2010 года компания Microsoft устроила пресс-конференцию в Москве, на которой представители Microsoft рассказали о выходе новой версии офисного пакета — Office 2010. Говоря о нём, они то и дело упоминали инновации, но представленный продукт вовсе не оставляет впечатления инновационного. Как же так? Ведь это один из всего лишь двух продуктов, на которых Microsoft зарабатывает большую часть своих денег.
Office 2010 и 2007 похожи как близнецы-братья — тот же интерфейс с панелью инструментов Ribbon вместо меню, похожие возможности и даже системные требования практически идентичны. Основные нововведения — поддержка социальных сетей в Outlook, возможность демонстрировать презентации Powerpoint через интернет и «сквозные» панели Ribbon. Также у «Офиса» теперь есть официальная веб-версия, да и вариант для Windows Mobile был обновлён.
Панели-ленты теперь обладают приятной особенностью — при необходимости в одной из программ Microsoft Office может появиться панель редактирования из другой. К примеру, можно подредактировать график, вставленный из Excel в письмо Outlook, не выходя из почтовой программы. Соответствующая панель просто будет отображена среди прочих.
Похожие функции также есть для редактирования видео и фотографий. К примеру, можно на месте подрегулировать длину вставляемого в презентацию видеоклипа. Впрочем, удивительными эти возможности назвать сложно — вставлять элементы документа одного типа в другой можно было ещё со времён появления механизма OLE лет двадцать назад. Реализация соответствующих панелей редактирования — вполне логичный, но далеко не восхищающий факт.
Социальные сети и веб-сервисы — куда более интересные темы. Впрочем, реализация выглядит так, будто компания только-только начала исследовать эти направления. В Outlook теперь можно посмотреть дополнительную информацию о человеке из списка контактов — она подгружается с LinkedIn, Facebook, MySpace или Microsoft Sharepoint Server. Всё верно — пока что поддерживаются лишь три главные американские сети. Утверждается, впрочем, что переговоры с представителями местных сетей ведутся, к тому же они могут создавать собственные подключаемый модули для Outlook.
Microsoft Office и раньше славился своими возможностями совместной работы над документами. В новой версии они получили некоторое развитие. Презентации, к примеру, теперь можно загружать на специальный сервис, позволяющий демонстрировать их удалённо. Человеку по ту сторону при этом не нужен Microsoft Office, но придётся установить плагин Silverlight, который пока что не особенно распространён.
Неужели на эти занятные, но не особенно революционные функции и ушли все силы разработчиков? Скорее всего, это не так, и по-настоящему их занимала куда более важная вещь — создание сервиса Docs.com — аналога Microsoft Office, работающего в браузере.
Менеджеры Microsoft утверждают, что целью нововведений было лучше приспособить Microsoft Office для современных нужд и реалий. Это похоже на правду, но куда очевиднее стремление Microsoft предупредить популярность Google Docs, в котором уже есть и коллаборативные возможности и даже удалённый показ слайдов (не требующий к тому же никаких плагинов). Похожая функция есть и в Apple iWork — сервис iwork.com предназначен как раз для демонстрации документов пользователям, не имеющим офисного пакета Apple.
Не выходит ли, что Microsoft Office в кои-то веки оказался в положении догоняющего? Единственное из последних нововведений, которое пока что не реализовано конкурентами — это мобильная версия Office, работающая в Windows Mobile и телефонах Nokia. Но много ли времени нужно Google, чтобы добавить в мобильную версию Google Docs возможность редактирования? В Apple тоже уже создали специальную версию пакета iWork для iPad — не исключено, что очередь дойдёт и до телефонов.
Во время секции вопросов и ответов была затнорута тема не связанная с нововведениями в Microsoft Office 2010, но, тем не менее, очень заинтересовавшая журналистов. Обновлённый офисный пакет будет входить в «школьный набор», состоящий из новой версии Microsoft Windows, Office и Visio. Он предоставляется школам на крайне привлекательных условиях: установка всех трёх продуктов на один компьютер стоит восемь долларов в год, и в ближайшие три года эта цена меняться не будет. Учителя по этой программе могут использовать этот набор у себя дома бесплатно.
Подробнее о нововведениях читайте в статье "Чего ждать от Microsoft Office 2010"