Опубликовано 08 апреля 2013
В 1993 году, два десятилетия назад, на свет появился компьютерный формат MP3, воздействие которого на музыкальную культуру цивилизованного человечества трудно переоценить.
Разработанный в немецком Институте интегральных схем общества Фраунгофера (Fraunhofer IIS), формат использовал психоакустические алгоритмы для сжатия звукового сигнала с потерями, неразличимыми или малоразличимыми на слух для большинства людей. Изначально MP3 cоздавался как составная часть мультимедийного формата MPEG-1 (позже — MPEG-2), который предназначался для оцифровки видео с последующим тиражированием и трансляцией, но стремительное развитие интернета внесло свои коррективы.
В 1994 году Институт Фраунгофера выпустил первый программный MP3-кодировщик I3enc, и первые MP3-файлы попали в тогда ещё не слишком Всемирную сеть. Оказалось, что это отличный способ распространения аудиозаписей даже при более чем скромных скоростях передачи информации.
Но настоящий прорыв произошёл в 1997 году с выходом легендарного программного MP3-плеера WinAmp для Windows. WinAmp получил встроенный эквалайзер, поддержку плагинов, в том числе визуализирующих воспроизводимый звук, а чуть позже — сменные темы интерфейса.
Первый аппаратный MP3-плеер MPMan был выпущен в 1998 году южнокорейской фирмой SaeHan и оснащался смехотворным по нынешним временам объёмом флэш-памяти — 32 или 64 Мбайтами. К тому времени интернет уже наполнился обширными коллекциями, в подавляющем большинстве случаев пиратскими, MP3-файлов с записями музыки самых разных жанров. По времени это совпало со значительным падением цен на компьютерные дисководы для записи CD-ROM. А чуть позже на рынке появились портативные CD-плееры, способные читать не только обычные аудио-CD, но и «болванки» с MP3-файлами. Меломаны ликовали: на одном диске теперь помещались все альбомы любимой группы и их можно было слушать на портативном плеере!
Очередная MP3-революция свершилась всего три года спустя: в 2001 году компания Apple выпустила первый плеер iPod на основе миниатюрного жёсткого диска ёмкостью 5 или 10 Гбайт. Теперь в маленькую коробочку помещались уже целые фонотеки, причём надобность в каких-то физических носителях полностью отпала. Официальная легенда гласит, что Стив Джобс лично распорядился разработать такое устройство и он сам придумал для iPod слоган «тысяча песен в твоём кармане».
Так или иначе, iPod стал одним из тех новых продуктов, которые снова сделали Apple прибыльной компанией. Но что ещё более важно — iPod превратился из плеера, заурядного электронного устройства, в настоящий модный аксессуар. Этому в значительной степени способствовала оригинальная система управления c расположенными по кругу четырьмя кнопками, одной кнопкой в центре и механическим, а годом позже — сенсорным кольцом прокрутки. Необычные органы управления и анимированный экранный интерфейс создали необходимый wow-эффект, и практически все купившие iPod были в восторге от своего приобретения, и это несмотря на то, что первые модели были совместимы только с компьютерами Apple.
Итак, формат MP3 появился в 1993 году, первый портативный MP3-плеер MPMan — в 1998 году, а первый iPod — в ноябре 2001 года. Первое событие позволило легко обмениваться музыкой через интернет, второе — носить с собой в кармане всю коллекцию любимых альбомов, третье сделало MP3-плеер модным аксессуаром.
Музыка потеряла материальную форму, и в результате у многих накопились такие огромные коллекции записей, которые невозможно прослушать за всю жизнь, «композиции» превратились в «треки», а музыка стала всё больше приобретать чисто фоновое значение. При этом о качестве звука вспоминали в последнюю очередь — речь шла об удобстве хранения и сортировки, максимальной вместимости накопителя и внешнем виде портативного устройства. Для фона особого качества не нужно, главное — количество.
Отмирание физических носителей привело к тому, что качество звучания стало реально волновать лишь небольшой процент ценителей, которые продолжают покупать виниловые проигрыватели, SACD/CD-плееры и катушечные магнитофоны. Приверженцы традиционной аудиотехники и владельцы стеллажей грампластинок стали восприниматься молодёжью в лучшем случае как маргиналы, а в худшем — как городские сумасшедшие. Между тем, отдавая немалые деньги за высококачественную аппаратуру и небольшие, но всё же заметные, — за профессионально оформленный и записанный диск, вы невольно уделите значительно больше внимания представленной на нём музыке, чем какому-то файлу, который можно загрузить одним щелчком мышки.
Сложилась такая ситуация, что, утратив физический носитель, мы непроизвольно нивелируем и ценность самого музыкального произведения, записанного на нём. Парадоксально, но факт: лишившись, казалось бы, чего-то совершенно лишнего, привнесённого извне, музыка стала терять и самоё себя. И это утраченное — вовсе не потрескивающая пластинка и не шуршащая плёнка, которую нужно перематывать, чтобы добраться до нужного места. Это то место, которое музыка занимает в иерархии ценностей современного человека. И причина такого пересмотра ценностей — чрезмерная доступность музыкальных записей.
Если зайти на любой торрент-трекер, можно легко убедиться в том, что каждый день в интернет выкладываются огромные объёмы музыкальных записей, в том числе и абсолютно новых. Но проблема в том, что даже самые интересные и талантливые из них вряд ли смогут дойти до сколько-нибудь значимого числа слушателей. Потому что чисто физически всё это море музыки невозможно прослушать даже поверхностно, просто чтобы отделить зёрна от плевел. Так что, как ни печально, но в нынешних условиях даже самому гениальному исполнителю никак не обойтись без пресловутой «раскрутки» — если, конечно, он хочет быть услышан.
Поэтому нисколько не удивляет массовая популярность исполнителей, чьи песни невозможно отличить одну от другой и чей голос забывается через секунду. Они не поют, а именно исполняют, как механическая пианола, технически безупречно, но без малейшего оттенка чувств. Совершенно естественно: фон должен быть комфортным, он не должен раздражать в любых количествах. Что касается классической и современной академической музыки, то есть написанной в классической традиции, то сейчас она, как никогда, далека от массового слушателя, хотя, казалось бы, напротив, сегодня можно абсолютно бесплатно (правда, не слишком законно) и за считанные часы собрать такую коллекцию отборнейших записей, на которую ещё четверть века назад можно было потратить полжизни.
Вы спросите, а где же рассуждения о пресловутом низком качестве MP3 и «тёплом ламповом звуке»? На самом деле качество звучания действительно давно никого не интересует. И формат MP3 вовсе не так ужасен, как считают снобы, — мало кто из них отличит тот же CD от качественно кодированных записей с высоким битрейтом. Для особо придирчивых существуют форматы кодирования без потерь FLAC, ALAC, APE и больше десятка других. Между тем популярный британский журнал Hi-Fi News & Record review, проверив свою коллекцию винила, к немалому изумлению редакции обнаружил, что только на одной из нескольких тысяч пластинок присутствуют частоты ниже 50 Гц. В свою очередь, хорошо известно, что MP3-кодеки, как правило, отсекают все высокие частоты после примерно 16-17 кГц.
В реальном мире все эти технические нюансы и дотошные измерения никого не волнуют. Даже сжатые форматы звукозаписи обеспечивают более чем достаточный уровень качества, чтобы можно было насладиться музыкой. Что уж говорить об аналоговых носителях, звучание которых подчас зависит от совершенно случайных факторов и которые изнашиваются при каждом воспроизведении! Имеет значение лишь отношение к самому объекту — к музыке, и с этим отношением, как вы можете убедиться сами, всё не слишком радужно. Корень проблемы в том, что музыка слишком доступна, в результате чего снижается её субъективная ценность для слушателя. Способствовало ли созданию такой ситуации появление на свет формата MP3? Спустя двадцать лет можно ответить однозначно: безусловно, да.
Опубликовано 12 апреля 2013
Самый молодой класс портативных устройств, уже успевший завоевать популярность у пользователей по всему миру, — это фаблеты, смартфоны с гигантскими экранами высокого разрешения, мощными процессорами и аккумуляторами большой ёмкости.
Термин «фаблет» (phablet) составлен из английских слов phone («телефон») и tablet («планшет»), и он в полной мере характеризует эти аппараты, представляющие собой гибриды смартфонов и планшетов — как по габаритам, так и по возможностям. Российские журналисты неоднократно пытались предложить альтернативное русское название фаблетов — «смартшет», «фланшет», «фланфон» и даже «плафон». Более-менее удачно звучит лишь первое из них, но англоязычный термин за прошедшие пару лет уже стал вполне устоявшимся названием этого класса устройств, так что давайте остановимся на нём.
Исторически первым фаблетом принято считать смартфон Dell Streak 5, выпущенный в июне 2010 года. Трубка получила гигантский по тем временам 5-дюймовый ёмкостной экран, но с довольно скромным разрешением 800 х 480 точек (3,5-дюймовый Retina display смартфона Apple iPhone 4, представленного тогда же, имел разрешение 960 х 640 пикселей), уже изрядно устаревший одноядерный процессор Qualcomm Snapdragon QSD 8250 разработки 2008 года c тактовой частотой 1,0 ГГц, 512 Мбайт оперативной и 2 Гбайта флэш-памяти с возможностью расширения флэш-картами, а также съёмную аккумуляторную батарею ёмкостью 1530 мА*ч. Ни процессор, ни аккумулятор не были рассчитаны на работу с экраном таких размеров, причём сам дисплей Dell Streak 5 уже вряд ли мог кого-то поразить.
Первые Dell Streak 5 работали под управлением операционной системы Android 1.6 (Donut), а последующие выпуски получили обновления до Android 2.2 (Froyo). Эти ранние версии Android не всегда гладко работали даже на смартфонах и уж совершенно не были приспособлены для планшетов и устройств с большими экранами.
Выпуск в продажу Dell Streak 5 три года назад оказался явным фальстартом: ещё не существовало ни аппаратных, ни программных платформ, подходящих для таких устройств, а потребитель был явно не готов принять столь странный смартфон-переросток с массой недостатков. На подъёме был рынок полноразмерных планшетов, значительную долю которого занимал iPad 2.
Однако уже спустя год стали доступны дву- и четырёхъядерные «системы на чипе» с мощным графическим ядром, на аппаратном уровне поддерживающим работу с Full HD-видео, а также компактные экраны с HD-разрешением. Появились более современные версии Android 2.3 (Gingerbread), а вскоре и 4.0 (Ice Cream Sandwich) и 4.1 (Jelly Bean), изжившие массу «детских болезней» и без проблем работающие с дисплеями высокого разрешения.
И тут произошёл прорыв: в октябре 2011 года компания Samsung представила свой первый фаблет Galaxy Note (N7000), моментально завоевавший огромную популярность: менее чем за два первых месяца мировых продаж этот смартфон разошёлся тиражом в миллион экземпляров, а всего, по данным на август 2012 года, было продано около 10 миллионов Galaxy Note.
В отличие от Dell Streak 5, фаблет Samsung Galaxy Note демонстрировал принципиально иной уровень «железа» и софта. Аппарат был построен на базе двуядерной «системе на чипе» со встроенным графическим ускорителем: в первых модификациях это был Samsung Exynos 4210 c тактовой частотой 1,4 ГГц и графикой Mali-400 MP, в последующих — двуядерный Qualcomm Snapdragon S3 MSM8660 c видеоядром Adreno 220.
В Galaxy Note устанавливался великолепный 5,29-дюймовый экран на основе органических светодиодов HD Super AMOLED с разрешением 1280 х 800 пикселей (WXGA), встречавшимся тогда разве что у полноразмерных десятидюймовых планшетов. Плотность пикселей такого дисплея составляла 285 ppi — это немного меньше «айфонных» 326 ppi, но за счёт того, что экран с большей диагональю удобнее держать дальше от глаз, отдельные точки на нём были тоже незаметны.
Новый фаблет получил уже гигабайт оперативной памяти и 16 или 32 Гбайта встроенной флэш-памяти, расширяемой карточками microSD/SDHC ёмкостью до 64 Гбайт, восьмимегапиксельную основную камеру с возможностью съёмки Full HD-видео с частотой 30 кадров в секунду, а также съёмный аккумулятор ёмкостью 2500 мА*ч, обеспечивающий длительность автономной работы, сравнимую с обычными смартфонами.
Первые версии Samsung Galaxy Note работали под управлением Android 2.3.5 Gingerbread, но уже примерно через полгода появилось обновление до Android 4.0 Ice Cream Sandwich, а с октября 2012 года на аппараты стала устанавливаться актуальная 4.1 Jelly Bean. Поверх «андроида» на фаблеты ставилась фирменная графическая оболочка TouchWiz, облегчающая работу со смартфоном.
Примечательно, что инженеры Samsung вернули в Galaxy Note уже порядком подзабытый инструмент работы с сенсорными экранами — стилус. В эпоху крохотных резистивных экранов, реагирующих на нажатия, стилус был основным средством работы со смартфонами, однако с увеличением дисплеев и переходом на ёмкостную технологию, реагирующую на касания, они потеряли актуальность.
В Galaxy Note стилус S Pen снова стал востребованным инструментом, позволяющим сделать быструю зарисовку в S Memo, записать памятку, сделать пометки на карте, вызвать нужное приложение и даже просто точно попасть в нужное место экрана. Для работы стилуса была использована фирменная система Wacom, поэтому экран не просто реагировал на нажатия, но даже на их силу. В Samsung настолько серьёзно отнеслись к возвращению стилуса, что даже выпустили SDK для сторонних разработчиков приложений, которые могли бы использовать электронное перо.
В Samsung Galaxy Note наконец-то органично дополнили друг друга отличный экран высокого разрешения, мощная платформа и удобное программное обеспечение — и реакция потребителей не заставила себя ждать. Успех был настолько сокрушительным, что главный конкурент Samsung — компания LG Electronics в октябре 2011 года подала заявку на регистрацию товарного знака Phablet на территории США, ещё до того, как у неё самой появилось подобное устройство! Видимо, именно тогда и появился этот термин. Правда, в марте 2013 года LG не стала продлевать заявку, видимо, посчитав, что шансов на регистрацию марки, которая уже стала нарицательным названием класса устройств, осталось немного.
Первый фаблет под маркой LG — Optimus Vu был выпущен только в ноябре 2012 года. Он получил пятидюймовый IPS-дисплей с необычным соотношением сторон 4:3, разрешением 1024 х 768 точек и плотностью пикселей 256 ppi, а в качестве аппаратной платформы была использована четырёхъядерная «система на чипе» NVIDIA Tegra 3 с тактовой частотой 1,5 ГГц и графикой ULP GeForce, отлично подходящей для видеоигр. Optimus Vu также оснащён восьмимегапиксельной камерой с возможностью съёмки видео Full HF 1080/30p и аккумулятором ёмкостью 2100 мА*ч. Операционной системой для этого аппарата с самых первых модификаций стала современная Android 4.0.4 Ice Cream Sandwich. В LG тоже не забыли о стилусе, снабдив его мягким прорезиненным наконечником.
Наконец, ещё одним фаблетом под известным брендом стала трубка HTC Butterfly, представленная в декабре 2012 года. Принципиальным её отличием от конкурентов стал пятидюймовый ЖК-экран с разрешением Full HD, то есть 1920 х 1080 пикселей и рекордной плотностью точек 440 ppi. Аппарат построен на четырёхядерной «системе на чипе» нового поколения Snapdragon S4 Pro APQ8064 с тактовой частотой 1,5 ГГц и графикой Adreno 320, он оснащается 2 Гбайтами оперативной и 16 Гбайтами флэш-памяти, батареей, восьмимегапиксельной камерой c поддержкой съёмки видео Full HD и аккумулятором на 2020 мА*ч. Операционная система HTC Butterfly — Android 4.1 Jelly Bean. О стилусе в HTC предпочли не вспоминать. К тому же слот для флэш-карт здесь присутствует только в модификации для японского рынка.
В то время как большинство крупных производителей осторожно наблюдало за успехами Samsung Note, мелкие китайские фирмы за прошедший год сумели наводнить рынок дешёвых смартфонов самыми причудливыми моделями фаблетов, в том числе с огромными экранами с диагональю больше 6 дюймов.
Но к 2013 году стало очевидно желание ведущих вендоров отхватить свою долю лакомого пирога, и на выставках Consumer Electronics Show и Mobile World Congress было продемонстрировано множество фаблетов под известнейшими брендами. По оценкам Barclays, через три года рынок устройств с экранами размером 5 дюймов и больше вырастет почти в четыре раза и достигнет 228 миллионов долларов, так что такой рынок представляется чрезвычайно привлекательным.
Агентство Reuters назвало 2013 год «годом фаблетов», а журнал Forbes даже отметил, что женские сумочки и мужская одежда вполне подходит для ношения таких устройств, в отличие от громоздких планшетов, и даже есть смысл немного изменить покрой, чтобы их не было слишком заметно.
Практически все фаблеты 2013 года получили четырёхъядерные процессоры, по 2 Гбайта оперативной памяти и работают под управлением Android 4.1/2 Jelly Bean. В частности, речь идёт о таких «суперсмартфонах», как Sony Xperia Z и Zperia ZL с пятидюймовыми экранами Full HD и четырёхъядерными «системами на чипе» Qualcomm Snapdragon S4 Pro, Huawei Ascend Mate c 6,1-дюймовым IPS-экраном 1280×720 точек, четырёхъядерным ARM-процессором Hi-Silicon K3V2 и аккумулятором огромной ёмкости 4050 мА*ч, ZTE Grand S с пятидюймовым дисплеем Full HD, четырёхъядерным процессором Qualcomm APQ8064 с тактовой частотой 1,7 ГГц и батареей на 1789 мА*ч.
Сама Samsung ещё с прошлого года продаёт преемника своего первенца Galaxy Note II на основе четырёхъядерной платформы Samsung Exynos 4412 c тактовой частотой 1,6 ГГц, графикой Mali-400 MP и с 5,5-дюймовым экраном HD SuperAMOLED 1280 х 720 точек (267 ppi). Ёмкость штатного аккумулятора увеличилась до 3100 мА*ч, а в комплекте осталось фирменное электронное перо S Pen.
Кроме того, Samsung, на долю которой пришлось около трёх четвертей всех продаж фаблетов в 2012 году, заодно решила потеснить и китайский noname, анонсировав доступные фаблеты с гигантскими экранами: Galaxy Mega 5.8 с 5,8-дюймовым и Galaxy 6.3 c 6,3-дюймовым ЖК-дисплеем с разрешением 720p, 1,5 Гбайтом ОЗУ и 8 или 16 Гбайтами флэш-памяти, а также аккумуляторами на 2600 и 3200 мА*ч. Оба аппарата работают под управлением Android 4.2 Jelly Bean и появятся в продаже уже в мае.
Некоторые специалисты сходятся во мнении, что фаблеты как нельзя лучше отвечают концепции «гаджет мечты», популярной на развивающихся рынках — в Индии, Китае и Восточной Европе, где один только размер смартфона способен впечатлить окружающих. Другие утверждают, что основными рынками сбыта фаблетов станут Япония и Южная Корея, располагающие развитыми сетями беспроводного доступа в интернет.
Между тем фаблеты уже завоевали массу стойких поклонников и в России. К примеру, писатель-фантаст Андрей Егоров в своём блоге с удовольствием делится впечатлениями от самых разнообразных фаблетов и активно пропагандирует этот тип устройств — в отличие от «технически отсталой», по его мнению, продукции Apple.
Фаблеты — действительно чрезвычайно полезные аппараты для некоторых категорий пользователей. Сохраняя полную функциональность телефона, то есть голосовую связь и простой обмен SMS, одновременно они прекрасно подходят для общения в социальных сетях, чтения книг и просмотра видео. При этом фаблеты намного меньше громоздких планшетов, их удобно носить с собой, а благодаря аккумуляторам большой ёмкости по длительности автономной работы они не уступают обычным смартфонам. А возможность рукописного ввода при помощи стилуса, реализованная в Samsung Galaxy Note и Galaxy Note 2, по достоинству оценят все, кто предпочитает делать быстрые заметки или зарисовки от руки.
Конечно, далеко не всем необходим в телефоне огромный экран высокого разрешения и мощный четырёхъядерный процессор — многим достаточно обычных функций смартфона, для которых достаточно 3-4 дюймовых экранов. Так что хотя доля фаблетов в общем объёме продаж смартфонов и будет нарастать, вряд ли они смогут стать доминирующим типом трубок. Их габариты и начинка — одновременно и достоинство, и недостаток, и именно из-за этого в обозримом будущем фаблеты останутся типичным нишевым товаром.
Опубликовано 12 апреля 2013
Представьте, что вы сидите в кинотеатре и смотрите комедийный фильм. Герой уже вот-вот попадёт в нелепую ситуацию, но тут фильм встаёт на паузу, будто кто-то балуется с пультом проигрывателя. И вдруг на сцену выходит актёр, играющий главную роль, спрашивает, что ему дальше делать, и предлагает два варианта. На подлокотниках есть две кнопки — красная и зелёная. Вы выбираете одну из них, и в ручке кресла появляется флажок соответствующего цвета. Флажки подсчитываются, и по результатам голосования сюжет идёт в выбранное русло.
Не удивляйтесь скромности технологий — это не картина будущего, а реальные события 1967 года. Фильм назывался Kinoautomat, был произведён в Чехословакии и впервые показан на выставке World Expo’67 в Монреале. Зрители тогда очень впечатлились возможностью влиять на ход сюжета и были в восторге от показа. Американцы даже собирались купить лицензию и на фильм, и на технологию, но Коммунистическая партия Чехословакии была против: фильм запретили ещё до первого показа на его родине, и об интерактивном кино никто не слышал ещё два с лишним десятка лет.
Перенесёмся в 1987 год, чтобы изучить следующий экспонат, предвосхитивший своё время. Это игровой автомат. Он стоит между парой типичных игровых автоматов из восьмидесятых, на экране которых мельтешит что-то крупнопиксельное вроде Pac-Man или Galaxy. Но наш автомат не таков. Картинка на нём больше напоминает диснеевский мультфильм или, если угодно, приключенческую игру в мультяшном стиле из середины девяностых (те самые красочные «квесты», по которым сейчас принято ностальгировать). Как игра с такой графикой могла существовать в те времена? Не спрятан ли внутри автомата видеомагнитофон?
http://www.youtube.com/watch?v=sZrgeI0DDP8
На самом деле — спрятан, но не видеомагнитофон, а проигрыватель лазерных дисков (великанских предшественников современных CD, DVD и Blu-Ray). Так называемые Laserdisc Arcade — игровые автоматы с лазерными дисками, почти на десятилетие опередили своих собратьев — компьютерные игры на компакт-дисках. На лазерном диске были записаны короткие последовательности мультипликации, они демонстрировались игроку в зависимости от того, какую кнопку он нажмёт и успеет ли он сделать это вовремя.
Вот герой игры Dragon’s Lair стоит на краю пропасти. Если нажать на кнопку, он сделает прыжок и будет на один шаг ближе к убийству дракона и спасению принцессы; если замешкаться, то игрок увидит, как герой гибнет, и если это была последняя жизнь, то автомату придётся скормить ещё одну монетку. Дети делали это с огромным энтузиазмом: с графикой Dragon’s Lair по тем временам не могла сравниться ни одна игра.
Впечатлившись возможностями техники, кинематографисты тоже стали делать первые робкие эксперименты с интерактивом. В начале девяностых в США вышла пара экспериментальных фильмов: I’m Your Man в 1992-м и Mr. Payback — в 1995-м. И ту и другую картину ждал провал.
Показы были связаны с тратами на оснащение залов пультами, но притока публики это не приносило. Даже те, кто приходил, оставались разочарованными показом. Одна из причин этого заключалась в том, что зрителей больше увлекал процесс голосования, чем действие на экране: они воспринимали это скорее как командный вид спорта, нежели кинопросмотр. Успех Kinoautomat повторить не удалось, и эксперименты пришлось свернуть. С тех пор режиссёры стали обходить стороной дорогостоящие эксперименты с нелинейными фильмами.
Следует ли из этого, что кино и интерактив — принципиально несовместимые вещи? Примерно к такому выводу приходит Эрнест Адамс — писатель, дизайнер и преподаватель, в 1995 году выступивший на конференции разработчиков игр с лекцией об интерактивном кино.
По мнению Адамса, возможность выбора обязательно будет конфликтовать с правдоподобностью историй. «Иногда, выходя из кинотеатра после сеанса или откладывая прочитанную книгу, вы говорите себе: «Нет, он не мог так поступить!» или «Я не думаю, что она бы так отреагировала в этой ситуации», и тогда мы решаем, что в истории есть изъян; с ней что-то не в порядке; она не имеет смысла. Так мы убеждаемся, что в каждой истории есть свои внутренние законы», — говорит Адамс.
В традиционных видах медиа место интерактиву найти непросто. Чем больше возможностей для выбора, тем сильнее возрастает вероятность отклониться от сюжета. Мотивация человека, которому доверили сделать выбор, в большом числе случаев может не совпадать с мотивацией персонажа. На момент выбора это может быть неочевидно, но когда история пошла наперекосяк, зритель нет-нет да и задумается, правильно ли поступил.
Если попытаться схитрить и сделать выбор малозначительным, то это тоже не принесёт положительных результатов. Зрителю импонирует то, что ему доверили выбирать, но если разницы между вариантами нет, он это быстро раскусит. Развлечение обернётся назойливой необходимостью делать ненужный выбор вместо того, чтобы наблюдать за историей.
«Такой вещи, как интерактивный фильм, вообще не существует»
«Знаете, я склоняюсь к мысли, что такой вещи, как интерактивный фильм вообще не существует», — делает неутешительный вывод Эрнест Адамс. Помните книги-игры, выходившие в начале девяностых? Там тоже можно было выбирать вариант развития событий и перелистывать на нужную страницу — это примерно соответствует командам в текстовых приключенческих играх. Эти книги так и остались странным экспериментом и не оказали никакого влияния на книжную индустрию в целом. Романы по сей день остаются романами, а фильмы — фильмами. И смотреть их люди предпочитают в руках с попкорном или обнимая подругу, а не тыкая в кнопки джойстика.
Адамс, кстати, критикует и игры за нелогичность происходящего в них. Под управлением игрока герои ведут себя так, будто только что родились и ничего не знают об окружающем их мире. Если они вдруг совершат роковую ошибку, то игра вернётся назад, и действия можно будет повторить. Не очень-то кинематографично!
Но со времён Dragon’s Lair игры проделали огромный путь, и некоторые из них вплотную подошли к возможности стать тем, чем не стали интерактивные фильмы. Во-первых, компьютерная графика вот-вот приблизится к тому, чтобы начать походить на реальность, во-вторых, разработчики игр методом проб и ошибок нашли множество трюков, помогающих сплести красочное повествование и интерактив. Примеров множество: здесь и Metal Gear Solid, Mass Effect, и Heavy Rain, и даже недавняя игровая интерпретация телесериала «Ходячие мертвецы» (Walking Dead).
Пусть кинематограф пока не сделал в игровую сторону ни одного толкового шага — тем интереснее следить за новыми попытками сблизить эти два направления развлекательной индустрии. К примеру, знаменитый режиссёр Джей Джей Абрамс ведёт переговоры с Valve о том, чтобы поставить некий эксперимент с Half-Life или Portal, а игровое подразделение Microsoft занято открытием голливудской студии Xbox Entertainment Studio, где около 150 сотрудников будут заниматься экспериментами по скрещиванию игр и фильмов.
Что подарят миру эти новые векторы сближения? Изменят ли они кинематограф или дадут играм лишние шансы его заменить? Какими бы ни были ответы, смотреть на попытки будет интересно — как было интересно первым зрителям Kinoautomat.
Опубликовано 12 апреля 2013
Антивирусная компания McAfee опросила чуть более 1000 человек (в США) и опубликовала пресс-релиз, в котором утверждается, что около 60% «бывших партнёров» — в романтическом смысле — «находятся под угрозой разглашения личной информации в интернете» и что каждый десятый «экс» не видит никаких проблем с тем, чтобы мстить за «разбитое сердце», сливая в интернет «пикантную информацию» о бывших зазнобах. Интернет предоставляет для этого самые обширные возможности. Но, что печальнее, гораздо более широкие возможности для того предоставляют сами «бывшие», халатно относящиеся к своим личным данным.
Исследование, которое проводило McAfee, носит название «Любовь, отношения и технологии»; как нетрудно догадаться, посвящено оно рискам раскрытия персональных данных в близких отношениях — и причинам появления этих персональных данных в Сети по завершению этих отношений. В общем-то, причина одна — желание отомстить.
Цифры, однако, приводятся очень интересные. Например, два из трёх владельцев смартфонов держат личные и интимные данные на мобильных устройствах. К таким данным относятся информация о банковском счете, пароли, номера кредитных карт и личные фотографии. При этом всего 40% респондентов защищают свой смартфон паролем, у остальных эта защита отсутствует.
Защиту можно считать отсутствующей и в тех случаях, когда текущий партнёр знает этот пароль. А следовательно, в случае конфликта, личная информация может «утечь». Не обязательно, конечно, но возможность подобной оказии есть всегда.
Подобные истории неоднократно происходили у знаменитостей, раскрывавшихся с неожиданных сторон на страницах жёлтых газет или малосолидных сайтов, куда попадали их интимные фотографии. За этим следовали неизбежные скандалы, а затем армии адвокатов пытались заставить владельцев этих сайтов поудалять злосчастные фотографии — кого угрозами, кого деньгами. Одного любителя копаться в почтовых ящиках голливудских звёзд даже удалось посадить, хотя едва ли его можно было назвать убеждённым «злодеем».
В общем, хлопоты и разорение сплошное, а всё потому, что у очередной знаменитости «завяли помидоры» с бойфрендом, а тот оказался мстителен до непотребства.
Но все эти скандалы мало впечатляют «простых пользователей». По подсчётам McAfee, 36% респондентов отправляют романтические, а то и вполне откровенно сексуальные фотографии партнерам на день Св. Валентина. Фотографии отправляются по электронной почте, в MMS-сообщениях или в социальных сетях. Мужчины, как правило, более активно делятся фотографиями, нежели женщины (43% против 29%). Примерно пятая часть респондентов редко удаляет персональные или интимные сообщения и фотографии, или вообще никогда этого не делает.
94% респондентов уверены, что их личные данные, находясь в распоряжении партнёра, пребывают в полной безопасности. При этом данные исследования McAfee показывают, что личная информация 13% респондентов «утекла» в другие источники без разрешения опрошенных.
Чем можно объяснить такое несхождение цифр? Ну, во-первых, тем, что данные утекали не через «бывших», а в силу собственного пренебрежения азами безопасности (или по причине попадания на фишинг или какую-то ещё сетевую «пакость». Если же речь данные действительно утекали в силу ссоры с партнёром, то тут уже возникают другие вопросы. К умственным способностям пострадавших и к их излишней доверчивости, например.
Как бы там ни было, каждый десятый «экс» угрожал публикацией компрометирующих фотографий в сети. Согласно результатам исследования, примерно в 60% случаев угрозы получали реальное продолжение.
Но здесь приходится констатировать банальную вещь: машину гораздо проще угнать при наличии ключей от неё. Обчистить банковский счёт гораздо проще, если знать пароль от него. Не проще ли не давать ключи в непроверенные руки?
Правда, тотчас возникает вопрос, какие руки считать проверенными, а какие нет. Как показало всё то же исследование McAfee, если партнер знает пароли — он с очень большой долей вероятности будет просматривать и почту, и банковскую информацию и страницы своего близкого в социальных сетях.
В таких действиях сознались более половины респондентов: 56% проверяли состояние банковских счетов партнера и его страницы в социальных сетях, а 49% читала почту партнера. Хотя, казалось бы, нас всех ещё в детстве учили, что читать чужие письма — неэтично.
Ну, а самый забавный момент в исследовании — это констатация статистического факта, что страницы экс-партнеров несколько более популярны у респондентов, нежели страница нынешнего партнера: за бывшими следят в 48% случаев, страницу текущего партнера посещают 44% опрошенных. Более 40% людей в возрасте 18-24 лет сознались в том, что следят за действиями «бывших» своих партнеров в Facebook и Twitter. В целом же только 28% опрошенных интересует жизнь прошлой «любви» партнера, указывается в исследовании.
О чём это говорит? Похоже, о том, в частности, что люди помоложе, для которых жизнь без социальных сетей вообще уже не мыслима, куда медленнее справляются с прежними эмоциональными привязанностями. Почему? — Это скорее вопрос к психологам.
В целом же, по данным McAfee, респонденты охотно делятся с партнерами информацией о банковских счетах (63%), медицинских полисах (61%), номерами социального страхования (57%), логинами и паролями к электронной почте (60%) и паролями (54%).
При утечке персональных данных мужчины с большей долей вероятности предпримут активные действия. Около 15% американцев, контент которых «утек» в интернет, инициировали судебный процесс для того, чтобы удалить частную информацию и компрометирующие фотографии с сайтов. Четверть опрошенных проверяла почту тех, кто отправил данные в сеть, для того, чтобы найти подтверждение и вернуть утерянную информацию. Самый популярный метод среди респондентов — вступить в конфронтацию с тем, кто опубликовал данные, лично (46%) или онлайн (36%).
Рекомендации McAfee о том, как предохраниться от всех этих напастей, выглядят следующим образом:
- Держите рот на замке и никому никогда не сообщайте свои пароли, включая родных и близких.
- Держите свои гаджеты под замком — лишних паролей не бывает. И даже если смартфон или планшет украдут, вор вряд ли сможет легко получить доступ к вашим данным.
- Полюбите кнопку Delete. Не жалейте времени на то, чтобы удалять лишний контент из своей почты или из мобильных устройств при каждой возможности. Займёт секунды, и спасёт кучу нервных клеток и позволит сэкономить на усилиях по восстановлению своей репутации.
- Делитесь любовью, а не информацией. Как только вы с кем-то поделились своими личными данными, включая любимых, эти данные вы больше не контролируете.
Последние две рекомендации — поистине на вес золота. Следует понимать, что степень контроля над фотографией, «зависшей» в вашем почтовом ящике, тоже не стопроцентная, каким бы надёжным ни был пароль. Поэтому действительно куда проще будет — вовремя удалять всё лишнее или не выкладывать вовсе. Рассуждения в духе «Ой, да кому я могу быть интересен(-сна)» как минимум наивны. Был бы человек, а желающие добраться до его личной информации всегда найдутся.
Между прочим, на жажде отомстить бывшим возлюбленным ушлые люди делают бизнес.
GetRevengeOnYourEx.com предлагает набор самых разных мелких и не очень технических пакостей, от анонимных SMS до фальшивой рекламы интим-услуг, якобы оказываемых обидчиком или обидчицей, — с телефоном и адресом. Да, подобное часто встречается на стенах подъездов и на заборах… Просто теперь для этого же используется и интернет тоже.
DontDateHimGirl.com — это социальный ресурс, предназначенный преимущественно для обиженных женщин, изливающих друг другу своё негодование по поводу своих бывших «козлов».
Сайт IsAnyBodyDown.net (18+, крайне не рекомендован для просмотра в рабочее время) — как бы «развлекательный» ресурс, где анонимы могут размещать чужие интимные фотографии с информацией о людях, на них изображённых; если тем не нравится, что их фотография появилась на этом ресурсе, им предлагается заплатить 250 долларов, и информация будет удалена. Создатель сайта считает, что это «развлечение». Жертвы ресурса предпочитают слово «вымогательство». Но даже самого поверхностного взгляда на этот «развлекательный» сайт достаточно, чтобы понять, что минимум половину интимных фотографий, там размещённых, сделали сами жертвы — на свои смартфоны. И, видимо, кому-то переслали.
Альберт Эйнштейн вроде бы говаривал: «Бесконечны лишь Вселенная и глупость человеческая. Хотя насчет первой у меня имеются сомнения».
Впору назвать «третьей бесконечностью» желание пользователей Сети и гаджетов поделиться «самым сокровенным» с кем попало. Правда, пока, несанкционированные утечки этого «самого сокровенного» вызывают обиды, гнев и прочий всякий стресс. Быть может, пройдёт со временем.
Или люди, наконец, поймут, что лучше им самим не выставляться «на витрине». И вспомнить, что молчание — золото.
Опубликовано 11 апреля 2013
Великие изобретения редко случаются без внешнего стимула. Успехам в освоении космоса мы обязаны гонке вооружений и напряжённым отношениям между СССР и США. Компьютеры появились на исходе Второй мировой войны для баллистических расчётов и взлома немецких шифров. Но ничуть не реже стимулом становилась не война, а крупная награда, привлекающая к решению важной задачи лучшие умы.
Один из первых конкурсов такого рода случился в 1714 году, когда британские власти пообещали солидный приз за изобретение простого и действенного способа определения долготы, который можно использовать на море.
Размер награды зависел от точности. Если метод позволял установить географические координаты корабля с точностью до 30 морских миль (56 километров), то сумма составляла 20 тысяч фунтов стерлингов. В пересчёте на современные деньги это соответствует 4,5 миллионам долларов. Если точность не превышает 40 морских миль, то приз снижается до 15 тысяч фунтов стерлингов, а за 60 морских миль полагались 10 тысяч фунтов стерлингов.
Определить широту не так уж трудно. Созвездия на южном небе заметно отличаются от северных. Опытному навигатору хватало одного взгляда на звёзды, чтобы понять, насколько корабль удалён от экватора. Днём та же задача решалась с помощью измерения высоты солнца в зените.
С долготой дело обстояло куда сложнее. Звёздное небо не меняется, если передвигаться на запад или на восток, оставаясь на одной широте. Чтобы узнать, где находится судно, приходилось откладывать пройденный путь на карте от той точки, координаты которой известны, и надеяться на удачу. Любая серьёзная ошибка при вычислении маршрута вдали от берегов означала верную гибель.
Нам свойственно недооценивать старинные технологии, хотя они вовсе не были примитивными. За несколько столетий мореплаватели отработали счисление координат до мельчайших деталей. Они не умели определять долготу, но придумали, как обходиться без неё.
Главными инструментами навигатора были песочные часы и компас. За их показаниями внимательно следили в течение всего плавания. Дежурство не прекращалось в любую непогоду и время суток, потому что точность записи траектории судна была вопросом жизни и смерти.
Вахтенный, следящий за часами, бил в корабельный колокол каждые полчаса. По этому сигналу рулевой записывал направление и скорость движения корабля. Для этого он расставлял колышки на специальной доске, верхняя часть которой была размечена как компас, а на нижней перечислены возможные скорости. Раз в четыре часа вахта менялась, и данные с доски переносили на карту.
Отложенный на карте курс фактически представлял собой цепочку векторов. Проблема заключалась в том, что точность измерения хромала, к тому же на координаты корабля влияли и другие факторы, например, подводные течения. Чем дольше навигатор полагался только на этот метод, тем больше становилась погрешность — и, соответственно, риск. Корабли старались не удаляться слишком далеко от берега, чтобы время от времени уточнять координаты по ориентирам на суше.
В Эпоху великих географических открытий моряки научились пересекать океан, но это лишь увеличило потребность в более точном методе определения местоположения. Из-за того, что долгота была неизвестна, корабли водили странными угловатыми маршрутами: сначала шли до нужной широты, а затем поворачивали и плыли по прямой до самой цели.
Для того, чтобы определить долготу, необходимо знать точное время в исходной точке плавания и том месте, где находится корабль в данный момент. Однако в начале XVIII века точное время было большой редкостью и на суше, что уж говорить о море. В 1714 году, когда в Великобритании объявили долготный конкурс, даже часы с маятником считались высокой технологией: их изобрели всего за полвека до того и продолжали доводить до ума. В море от них было мало толка из-за непрестанной качки, перепадов температуры и влажности.
Именно поэтому большинство претендентов на долготный приз полагались не на нежные механизмы, а на астрономию. Выяснять точное время, необходимое для определение долготы, предлагали с помощью наблюдений за спутниками Юпитера, положением Луны и затмением звёзд.
Приз в итоге взял не признанный натурфилософ, а плотник Джон Гаррисон, подключившийся к конкурсу лишь в 1730 году. Его история забавным образом напоминает о том, как работают современные стартапы.
Он начал с того, что подробно сформулировал предложение, после чего направился в Лондон искать инвестора. Проект заинтересовал знаменитого часового мастера Джорджа Грэма. Сейчас его назвали бы бизнес-ангелом: он пять лет финансировал работу Гаррисона, пока тот строил деревянный прототип первого морского хронометра, снабжённый необычным спусковым механизмом из материала, который не требует смазки. Прототип позволил привлечь дополнительные инвестиции, необходимые для усовершенствования конструкции хронометра.
Доработки затянулись на тридцать лет. С 1737 до 1764 года Гаррисон получил больше пяти тысяч фунтов стерлингов на строительство морских хронометров, а в 1765 году ему выплатили награду — 10 тысяч фунтов стерлингов. Кроме Гаррисона, призы за усовершенствование метода определения долготы получили ещё несколько изобретателей.
Долготный приз — это, разумеется, далеко не единственный пример того, как призы толкали прогресс вперёд, причём зачастую в таких областях, которые по разным причинам не привлекают внимания обычных предпринимателей.
Если бы в начале XIX века правительство Франции не посулило 12 тысяч франков тому, кто придумает новый способ долговременного хранения еды, консервирование, возможно, изобрели бы лишь спустя несколько десятилетий, после экспериментов Пастера.
Влияние другого известного приза можно оценить в цифрах. В 1919 году нью-йоркский предприниматель Реймонд Ортег объявил, что заплатит 25 тысяч долларов человеку, который сумеет в одиночку пересечёт Атлантический океан на самолёте. Спустя семь лет приз достался пилоту по имени Чарльз Линдберг.
Непосредственным результатом полёта Линдберга стал взрыв интереса к авиации в Соединённых Штатах. К концу 1927 года количество желающих получить право на управление самолётом выросло на 300 процентов, а самих самолётов стало больше на целых 400%. В течение следующих трёх лет число авиапассажиров увеличилось с 5782 до 173405 человек.
В последнее время премии, предназначенные для стимулирования изобретений в определённой области, переживают возрождение. По данным компании McKinsey & Company, опубликованным в 2009 году, за последние 35 лет суммарное количество денег, вкладываемых в премии подобного рода, выросло в пятнадцать раз. Средний рост составляет 35 процентов в год.
При этом нужно понимать, что отдача превосходит затраты на порядок. Приз обычно привлекает несколько групп специалистов, все они находят какие-то способы финансирования своей работы, но победитель в итоге оказывается лишь один. В результате на каждый доллар, потраченный устроителями конкурса, приходится куда большая сумма, поступившая из других источников.
По оценкам всё того же McKinsey & Company, все участники конкурса Ansari X Prize, победитель которого получил 10 млн. долларов, потратили не меньше 100 млн. долларов.
Конкурсы привлекают внимание специалистов, инвесторов и публики к решению проблем, которые в других случаях, возможно, остались бы незамеченными. Ещё важнее то, что за проблему одновременно берётся множество специалистов, в том числе из совершенно разных областей знания. Между ними так или иначе происходит обмен информацией, они следят за взаимным прогрессом и подхватывают идеи соперников. В результате разработка движется куда быстрее, чем она шла бы в обычных условиях.
Кое-кто уже пытается превратить такую модель решения трудных задач в бизнес. Лидером в этой области считается компания Innocentive, предлагающая готовые средства для организации конкурсов. Её помощью пользовались при разработке медицинских технологий, при поиске способов устранения утечек нефти и даже при разработке осветительных приборов, способных работать в африканских сёлах, куда не подаётся электричество.
Питер Диамандис Вдохновитель X Prize — пятидесятилетний предприниматель, который заинтересовался конкурсами для изобретателей, когда прочитал книгу о трансатлантическом полёте Чарльза Линдберга. Послужной список Диамандиса впечатляет. Именно он создал команию Space Adventures, отправившую на МКС Денниса Тито, Марка Шаттлуорта, Ричарда Гэрриота и других космических туристов. Вместе с Рэем Курцвейлем он стоял у истоков занятной организации Singularity University, а в прошлом году возглавил компанию Planetary Resources, которая планирует добывать полезные ископаемые на астероидах.
Чем-то подобным занимается и стартап под названием Kaggle, но он специализируется на менее громких проблемах в области Big Data. Его услугами для организации конкурсов пользовались компании GE, Pfizer, Merck, Ford, Tencent и Facebook.
Однако самой известной организацией, организующей конкурсы для изобретателей, конечно, является фонд X Prize. Его основатели действуют в лучших традициях долготного приза: обещают грандиозные награды за грандиозные достижения, которые пока не совершал никто.
В 2004 году X Prize заплатил 10 миллионов первой частной компании разработавшей и запустившей в космос многоразовый космический корабль SpaceShipOne. Пять лет спустя X Prize совместно с Northrop Grumman наградил компанию Masten Space Systems и основанную создателем Doom и Quake Джоном Кармаком фирму Armadillo Aerospace за создание лунного модуля нового поколения. Ещё 10 миллионов поделили три команды, сумевшие построить транспортные средства, способные преодолеть 100 километров, потратив около 2,35 литров бензина.
Сейчас близятся к концу три новых конкурса, объявленных X Prize. Лишь один из них касается космоса. Два других направлены на создание медицинских технологий.
http://www.youtube.com/watch?v=OKhxoGcr4Rk
Награда
Начало
Финал
Цель
Секвенирование генома позволяет заблаговременно диагностировать множество медицинских проблем или предсказывать склонность к определённым болезням. Проблема в том, что оно слишком дорого стоит. Расшифровка самого первого генома человека обошлась в три миллиарда долларов, но с тех пор утекло много воды. Сейчас эта технология стала гораздо дешевле, но всё же не настолько, чтобы использовать её без раздумий, особенно в тех случаях, когда нужна высокая точность.
Ion Torrent
Один из двух претендентов на получение 10 миллионов долларов — компания Ion Torrent, выпускающая автоматический ДНК-секвенсор Ion Proton. Основа Ion Proton — специальный процессор, снабжённый 165 миллионами химических датчиков, оценивающими изменение кислотности при взаимодействии образцов ДНК с нуклеотидами. Информацию, собранную датчиками, обрабатывает мощный компьютер, встроенный в устройство.
Гарвардский университет
Эта команда не распространяется о том, какие методы она планирует использовать для решения проблемы. Зато известно, что её возглавляет пионер персональной геномики Джордж Чёрч, который в 1984 году изобрёл первый метод прямого геномного секвенирования. В более недавние времена он работал над нанопоровым секвенированием ДНК, технологией LFR (Long fragment read) и участвовал в создании ДНК-секвенсора Polonator, выпускаемого компанией Danaher Motion.
Награда
Начало
Финал
Цель
Первоначально основатель фонда X Prize Диамандис сам работал над этой идеей вместе с NASA, но затем у NASA кончились деньги. Затея не пропала — ей заинтересовались Ларри Пейдж и Сергей Брин. Google добавил ещё 10 миллионов сверху, поэтому теперь кроме основного приза, полагающегося первому, кто достигнет цели, есть ещё несколько поощрительных призов поменьше: например, тот, кто снимет своим аппаратом следы одной из американских лунных экспедиций, получит дополнительный миллион.
Селеноход
Конкурс привлёк 25 команд со всего мира, в том числе из России. Компания «Селеноход», которая участвует в Google Lunar X Prize, является резидентом космического кластера «Сколково» и надеется, что её пятикилограммового робота прихватит с собой российский лунный зонд «Луна-Глоб», стартующий как раз в 2015 году. В отличие от советских луноходов, «Селеноход» будет передвигаться не на колёсах, а как маленький шагающий экскаватор — на лыжах.
В 2009 году «Компьютерра» взяла интервью у создателей «Селенохода».
Награда
Начало
Цель
Трикордер — это фантастический гаджет из сериала «Звёздный путь», с помощью которого можно диагностировать любую болезнь. Устройство, которое должно появиться в результате этого конкурса, действительно похоже на него. Важная деталь: для того, чтобы применять его, не нужно быть специалистом. Сейчас люди, как правило, обращаются ко врачу лишь после того, как замечают, что что-то не так. Если появится устройство, позволяющее следить за здоровьем непрерывно, можно будет обнаруживать болезни на куда более ранней стадии. Желание принять в конкурсе высказали несколько десятков команд.
Living Discoveries
Устройство, которое разрабатывает эта компания, ищет аномалии, которые могут являться ранними признаками болезни, в фотографиях, видеозаписях и данных, собранных при помощи датчиков.
Biodesign Institute
Эта компания может не беспокоиться о призе: её устройство уже заработало 30 млн. долларов, выделенных на исследования Пентагоном. Оно диагностирует болезни по сочетанию антител, обнаруженных в образце крови.
Montague Healthcare
Метод анализа, избранный специалистами Montague Healthcare, строится на том, что наличие или нехватку определённых белков можно определить по тонким изменениям в радужке глаза.
MycroLab
Портативный гаджет MycroLab содержит «лабораторию на чипе» и позволяет за час выполнить сразу несколько разнообразных тестов, включая секвенирование ДНК.
Опубликовано 11 апреля 2013
Есть что-то поистине удивительное в том, какими путями идёт развитие научного знания. Самые смелые идеи, высказанные в позапрошлом столетии, становятся реальностью в наши дни. В 1865 году фантазия Жюля Верна породила совершенно сказочный сюжет о полёте человека на Луну, а в 1969 году такой полёт действительно состоялся. Первые опыты по созданию стереоскопического кинематографа проходили в конце 1890-х годов, 1950-е принято считать временем расцвета анаглифического 3D-кино, а сегодня никого не удивишь домашним телевизором, способным демонстрировать объёмную картинку.
Какое будущее нас ждёт после повсеместного внедрения трёхмерного кино и телевидения? Обычно на этот вопрос отвечают так: разрешение изображения будет постоянно расти, а для просмотра объёмного видео больше не понадобятся никакие очки. А, может быть, на самом деле всё будет намного интереснее? Например, некоторые учёные уверены, что будущее — за пленоптической технологией, хотя сегодня даже сам этот термин мало о чём говорит неспециалисту.
Между тем, история пленоптики уже насчитывает более ста лет, а современные технологии наконец-то дают возможность в полной мере реализовать множество замечательных идей, высказанных за столь долгий срок. Что же такое пленоптическая технология и чего полезного от неё стоит ждать?
Сам термин «пленоптический» составлен из латинского слова «plenus», то есть «полный» и древнегреческого «ὀπτικός», «зрительный», и буквально означает «полный обзор». В оптике им описываются все световые волны, излучаемые во всех направлениях в рамках некоего заданного пространства. Для фиксации всех этих лучей света используются пленоптические камеры, иначе называемые камерами светового поля. В чём же их отличие от обычных?
В обычной фото- или видеокамере световые лучи проходят через объектив и фокусируются на плёнке или цифровой матрице. При этом в получаемом изображении не содержится никакой информации о том, под какими углами лучи проходили через линзы и на каком расстоянии от камеры находится снимаемый объект. Иными словами, перед нами — плоская проекция реальности, по которой невозможно восстановить действительные соотношения между объектами в пространстве.
Пленоптическая камера в максимально упрощённом виде представляет собой двумерный массив щелей-отверстий, линз или призм, то есть, своеобразную решётку, через которую лучи света попадают на плёнку или матрицу. В результате появляется возможность рассчитать координаты снимаемых объектов в пространстве, что даёт множество любопытных и не всегда очевидных возможностей.
Считается, что исторически первые опыты с пленоптическими камерами и «интегральной фотографией» в конце XIX века проводил французский физик Габриэль Липпман, получивший в 1908 году Нобелевскую премию за методику получения цветной фотографии на основе явления интерференции. Именно он предложил использовать для захвата всего объёма лучей массив линз.
С пленоптическими камерами активно экспериментировал и американский изобретатель Фредерик Айвс, создатель оригинальной технологии цветного фото Kromskop. В 1903 году он запатентовал первую в мире автостереоскопическую систему «параллаксной стереограммы», в которой массив щелей — «параллаксный барьер» — формировал объёмное изображение на плоском экране. Такие экраны, не требующие для просмотра очков, сегодня применяются, например, в игровой приставке Nintendo 3DS. Сын изобретателя физик Герберт Айвс усовершенствовал эту технологию и сделал её намного дешевле в использовании по сравнению с первоначальным вариантом — в результате она в своё время широко использовалась на рекламных щитах, открытках и карманных календариках.
Существенный вклад в создание теории пленоптических камер внесли и российкие учёные. В частности, в 1911 году в «Журнале Общества любителей естествознания» появилась статья «Автостереоскопия и интегральная фотография по пр.Липману» за подписью П.П. Соколова. В этой работе впервые появилось точное математическое описание того, что мы сегодня называем «пленоптическим пинхолом». Соколов отмечает, что «с практической точки зрения (…) никакой снимок, полученный обыкновенным способом с одним объективом, не может дать такое ясное понятие о форме и размерах снятого предмета, как снимок стереоскопический. Кроме того, все мелкие подробности, ускользающие от внимания в обыкновенном снимке, выступают рельефно и не могут быть незамеченными при стереоскопическом способе» (Цитата по публикации Екатерины Аврамовой).
Чтобы проиллюстрировать своё исследование, Соколов изготовил фибровую пленоптическую решётку с 1200 коническими отверстиями и экспонировал через неё изображение на фотографическую пластинку. После проявки пластинка подсвечивалась, лучи вновь проходили через решётку и на выходе формировалась объёмная картинка: «Приближаясь из бесконечной дали к нашему сильно освещённому сзади негативу (…), мы будем находиться в пространстве лучей, исходящих из негатива и пересекающихся в тех точках этого пространства, где по отношению к негативу наодились ранее светящиеся точки. Следовательно, находясь перед этими точками пересечения лучей, мы увидим их перед собой в пространстве».
В семидесятые годы множество исследований в области автостереоскопии, световых полей и «интегральной фотографии» проводил советский учёный Ю.А. Дудников.
Одним из ведущих современных исследователей пленоптики считается главный инженер Qualcomm, участник разработки Adobe Photoshop, Тодор Георгиев, на сайте которого интересующиеся могут найти массу ссылок, касающихся этой технологии.
Многолетняя отработка теории уже подготовила почву для массового коммерческого использования пленоптической фотографии и видео, но сначала поговорим о том, какие практические преимущества даст их использование.
Фотоснимок, полученный при помощи пленоптической камеры, содержит в себе сведения о координатах объектов в трёхмерном пространстве, а это означает, что он позволяет построить объёмную 3D-модель таких объектов. Вероятно, этих данных будет мало для «распечатки» модели на 3D-принтере, но вполне достаточно, например, для создания 3D-портрета. Очевидно, что такая технология очень пригодится в охранных системах, поскольку на основе данных с камер слежения появится возможность получить намного больше сведений о наблюдаемых людях, включая их точные антропометрические показатели.
Вторая важная функция пленоптики — возможность изменять фокусировку уже на отснятом материале и даже менять углы обзора за счёт всё той же информации о координатах объектов в пространстве. Для получения качественной картинки в реальном времени требуется матрица высокого разрешения и мощная вычислительная система, но для современных технологий это уже не проблема. Что же касается обработки на компьютере, то мы сможем с такой же лёгкостью наводить на резкость в «Фотошопе», как мы сейчас корректируем баланс белого.
И, конечно, самым эффектным будет применение пленоптических камер при съёмке кинофильмов. При этом любой зритель — при наличии соответствующего декодера — сможет посмотреть свою уникальную версию такого кино, изменяя ракурсы просмотра, наводя камеру на интересующие объекты и произвольно меняя резкость. При необходимости из пленоптической записи без проблем можно выделить стереоскопическую — с некоторым ограничением возможностей фокусировки и изменения ракурсов.
Один из первых примеров коммерческого использования пленоптических технологий — компактный фотоаппарат Lytro Light Field Camera, представленный в 2012 году американской компанией Lytro. В этом устройстве реализована схема так называемой сфокусированной пленоптической камеры, в которой после объектива устанавливается массив микролинз, через которые изображение попадает на матрицу. Специалисты считают, что камеры подобного типа идеально подходят для смартфонов и других портативных гаджетов, поскольку им в принципе не требуется система фокусировки.
http://www.youtube.com/watch?v=7babcK2GH3I?hl=en_US
Всего за $400 вы получаете компактный фотоаппарат, способный делать «живые» снимки в формате LPF с разрешением 11 «мегалучей», а фактически — около 1 мегапикселя. Примеры таких фотографий выложены на сайте производителя: одним движением мышки на них можно изменять фокусировку, наводясь на тот или иной объект. Выглядит чрезвычайно эффектно, но разрешение снимков, мягко говоря, пока маловато. Камера оснащается 8 или 16 Гбайтами памяти и комплектуется специальным программным обеспечиванием для просмотра и обработки снимков.
Немецкая компания Raytrix выпускает и продаёт пленоптические камеры, построенные по той же схеме, что и Lytro, только гораздо более высокого класса. Камеры светового поля этой фирмы предназначены для профессионального использования, в частности, для оптического контроля качества, научных и медицинских исследований, макросъёмки, спортивной фотографии и охранных систем, в том числе с функцией распознавания лиц.
Флагманская модель Raytrix-R29 3D lightfield-camera работает с разрешением 29 «мегалучей», что эквивалентно примерно 7,25 мегапикселям в 2D, комплектуется модифицированной 29-мегапиксельной ПЗС-матрицей и специальным программным обеспечением для просмотра и обработки снимков и видео. Максимальная частота съёмки видео — скромные 5 кадров в секунду, но у Raytrix есть и намного более скоростные модели: Raytrix-R5 снимает с частотой от 25 до 180 fps, но с разрешением всего 4,2 «мегалуча» или до 1 мегапикселя. Получаемая картинка может обрабатываться в реальном времени на компьютерах с графическими ускорителями NVIDIA с поддержкой технологии параллельных вычислений CUDA.
Стоит продукция Raytrix по несколько десятков тысяч долларов и пока недоступна широкому потребителю, но, возможно, вскоре появятся и намного более дешёвые решения. К примеру, в конце 2012 года компания Toshiba объявила о разработке модуля пленоптической камеры в виде куба с длиной стороны 1 см, что сделает возможным его применение в портативной технике, в частности, в смартфонах. В модуле используется массив из полумиллиона микролинз, а запуск серийного производства ожидается не раньше конца текущего года.
Пока ещё пленоптика делает первые шаги на рынке, но уже вполне очевидно, что сегодня есть все технологические возможности, чтобы вывести эту идею на принципиально новый уровень. В отличие от стереоскопии, пленоптические системы способны фиксировать действительно объёмное изображение, что в будущем вполне способно привести к возможности воссоздавать голографические картинки в пространстве, какие так любят демонстрировать в научно-фантастических фильмах. В любом случае, это куда более как интересная перспектива, чем простое наращивание разрешения экранов и косметическая модернизация уже порядком поднадоевшего 3D.
Опубликовано 10 апреля 2013
На фестивале SXSW, прошедшем в марте 2013 года в США, инженер Google Тимоти Джордан рассказал, как работают Google Glass и как разрабатывать приложения для них. И хотя прототипы очков пока что доступны лишь малому числу разработчиков и пользователей, знать, как они устроены, может оказаться очень полезным. Похоже, в Google сделали всё возможное, чтобы создать экзотический интерфейс очков удобным, а разработку приложений — лёгкой.
http://www.youtube.com/watch?v=JpWmGX55a40
Стоит учитывать, что до того, как очки начнут продаваться, кое-что ещё может измениться, но по речи Джордана уже можно составить достаточно полное впечатление. К тому же изменения, если и последуют, будут основаны как раз на пожеланиях разработчиков-первопроходцев.
Итак, как работают очки Google? Первое, что важно знать: они не блокируют зрение — человек по-прежнему видит всё, что происходит перед ним. Как и любой смартфон, очки по умолчанию вообще не отображают информации на экране. Если прикоснуться к тачскрину на дужке, на экране появятся часы и подсказка «ok glass».
Эту фразу нужно произнести, чтобы активировать очки. Проведя пальцем сверху вниз по тачпаду, можно заблокировать экран обратно. Произнеся приветствие, мы видим список доступных команд: «google, сделать фото, записать видео, проложить маршрут, послать сообщение».
Например, можно сказать: «Google, как сказать «спасибо» на японском?» — и система отправит голосовой запрос к поисковику. Когда ответ будет доставлен, пользователь увидит написание японского слова «спасибо» в оригинале и на английском, а также услышит это слово, произнесённое вслух.
Если провести пальцем вперёд по дужке очков, то можно последовательно листать между результатами всех предыдущих команд. Фотографии, видео, ответы поисковика и любые другие результаты действий или оповещения отображаются в виде отсортированных по времени карточек, к которым всегда можно вернуться.
Ткнув в дужку в тот момент, когда очки показывают карточку, мы вызываем контекстное меню. Его пункты тоже листаются при помощи тачпада. Например, для картинки меню будет состоять из команд «поделиться» и «удалить». Нажав «поделиться», можно следом выбрать, куда отправить картинку.
Существует также специальный тип карточек — с загнутым уголком наверху. Это на самом деле не карточки, а «связки» карточек (bundle), и каждую из них можно развернуть, чтобы увидеть дополнительное содержимое. Движение пальцем вниз по тачпаду всегда будет возвращать на предыдущий уровень меню.
Приложений, работающих непосредственно на компьютере, встроенном в Glass, в Google делать не разрешат. Вместо этого разработчикам предлагается создавать веб-сервисы, которые будут общаться с сервером компании, а тот, в свою очередь, будет обмениваться информацией с пользовательскими очками. Сервис отправляет карточки серверу Google, который отслеживает состояние очков и берёт на себя всю работу по синхронизации данных.
Для взаимодействия используется три технологии: запросы REST, протокол авторизации OAuth2 и формат данных JSON. Если вкратце, то REST позволяет работать с наборами данных: по HTTP у сервера либо запрашивается список элементов, либо посылается команда на удаление или добавление элемента. OAuth2 — это технология, которая позволяет разрешать сторонним сервисам делать что-то от имени пользователя. Подключение сервиса к Glass более или менее аналогично установке программы: пример такого взаимодействия можно видеть в Twitter, Facebook и во многих других сервисах, предоставляющих интерфейсы для сторонних приложений.
Каждая карточка может содержать текст, картинки, HTML или видео. Также разработчик может сделать карточку «связкой», содержащей другие карточки. К примеру, связка карточек со сводкой новостей будет отображаться в таймлайне как одна новость, но если выбрать её, можно узнать подробности или прочесть остальные актуальные заголовки.
По желанию разработчик может задать и пункты меню, прилагающегося к карточке. Например, если какой-то сервис прислал сообщение, то оно может быть сопровождено системными опциями «ответить» и «зачитать вслух», но автор сервиса может добавить и собственный пункт, задав для него текст и значок.
Так, социальная сеть Path, прислав фотографию, сделанную кем-то из друзей, кроме возможности ответить текстом предлагает на выбор смайлики — во многих случаях улыбающегося или подмигивающего лица достаточно для ответа. Текст же система предложит надиктовать.
Ещё сервисы могут регистрировать возможность принимать карточки через системный пункт «поделиться»: для этого они должны «подписаться» на определённый тип действия. Когда пользователь выберет соответствующий пункт меню, сервер Google отправит сервису уведомление, содержащее идентификатор связки и карточки, по которым можно запросить остальные данные.
Получается, что весь интерфейс построен вокруг оповещений. В Google обращают особое внимание разработчиков на то, что пользователь вовсе не обязан реагировать на каждое послание сервиса: при разработке нужно учитывать, что оповещения могут быть пропущены. А вот на действия пользователя нужно реагировать моментально: если сервису положено срабатывать при появлении какой-то информации, он должен делать это как можно быстрее.
В Google также предупреждают разработчиков: на Glass не стоит посылать что-то, чего пользователь не ждёт, — иными словами, ни в коем случае не слать спам. Если приложение вдруг начнёт донимать пользователя нежелательными сообщениями, тот в два счёта отпишется.
Презентация Джордана даёт неплохое представление о том, для чего будут хороши очки Google. Вот несколько выводов, которые можно сделать при её просмотре.
Очки Google отлично подходит для взаимодействия с социальными сетями. Предоставленных функций достаточно, чтобы организовать взаимодействие с любой из них, причём не только на уровне оповещений, но в виде самых разных действий. На ходу можно поставить «лайк» или «плюс», дать ответ или, например, принять приглашение в группу.
Интерфейс хорошо адаптирован для получения разнообразного контента. Так, пример с новостями издания Times показывает, что пользователь может выбрать, насколько часто он хочет получать подборки новостей, и, возможно, подписаться на срочные новости, которые будут приходить сразу же. Выбрав интересующий заголовок, можно попросить Google Glass вслух зачитать полный текст.
В Google Glass нет диалоговых окон, и взаимодействие всегда начинает сам пользователь. Также здесь предельно сокращено количество нажатий: надиктованные сообщения, к примеру, отправляются сразу, как только пользователь закончил говорить. Чтобы отменить отправку, нужно провести пальцем вниз по тачпаду.
Для Google Glass нельзя писать «родные» приложения, и хотя это во многом ограничивает разработчиков, зато избавляет Google и пользователей от разнообразных проблем: вредоносных программ и любых неприятностей с операционной системой Glass.
Несмотря на все ограничения, возможностей программных интерфейсов Glass достаточно для реализации замысловатых схем взаимодействия с пользователем. В качестве интересного примера приводится программа Skitch, позволяющая добавлять стрелки и подписи к фотографиям. Снимок, сделанный при помощи Glass, можно отправить в Skitch, и тот сразу пришлёт оповещение на планшет, где, собственно, и предлагается произвести все действия с картинкой.
Программные интерфейсы Glass настолько просты, что опытный разработчик сможет добавить поддержку очков буквально за один вечер. Все используемые технологии стандартны, хорошо документированы, и для работы с ними нужен минимум усилий: готовые библиотеки есть для всех современных языков программирования.
Пользователи и сами смогут настраивать оповещения или пересылку информации из источников, не поддерживающих Glass, при помощи сервисов типа
Даже если Glass не станет массовым продуктом (в чём уже есть некоторые сомнения), у очков есть все шансы привлечь армию приверженцев, которые будут выдумывать им всё новые и новые применения и не снимать их даже по ночам.
Опубликовано 10 апреля 2013
Сомневаться в Законе Мура — подмеченной полвека назад сооснователем Intel зависимости, постулирующей удвоение количества элементов на микросхемах каждые год-два (в оригинале был год, но позже Мур скорректировал цифру), — свойственно аналитикам, журналистам и прочим, к микроэлектронике имеющим отношение косвенное. Те, чья судьба непосредственно зависит от справедливости этой формулы, предпочитают вспоминать о ней как можно реже: отчасти потому что им некогда, отчасти — по причине крепнущего с годами страха, что следующий виток миниатюризации поставит их перед физическим барьером. Вот почему так непривычно было услышать о Законе Мура (далее, для краткости, — ЗМ) от человека, занимающего заметный пост в микроэлектронной индустрии. Джон Густафсон, главный архитектор AMD по графической части (а ещё недавно высокий чин в Intel), заявил на днях, что в погоне за всё более крупными микросхемами мы вышли на финишную прямую.
Сказать честно, от регулярных предсказаний конца действия ЗМ есть некоторая несомненная польза. В ходе возникающих после этого дискуссий развенчиваются мифы и обозначаются перспективы. Последний раз шуму наделал американский физик Мичио Каку, год назад посуливший, что уже в течение следующих десяти лет термодинамика и квантовая физика сделают невозможной дальнейшую миниатюризацию электронных схем (см. «Закон Мура: суров, но скоро отмена»). Тогда, помнится, разговор зашёл о технологиях, которые смогут принять эстафету у кремния, — квантовых вычислениях, оптических, молекулярных. Никто, естественно, никаких гарантий тут дать не в состоянии. Зато одновременно прояснилось, что число деталей в микропроцессоре стало чисто маркетинговым, рекламным параметром, не имеющим практического смысла. Потому что хоть производителям и удаётся более-менее выдерживать темп удвоения плотности, фактическая производительность давно уже не растёт прямо пропорционально числу транзисторов (хотя бы потому, что четыре ядра не всегда работают вдвое быстрее двух). Таким образом, уже сегодня полезней фокусировать внимание, скажем, на энергопотреблении системы, нежели на плотности элементов или тактовой частоте.
С Густафсоном получилось ещё интересней. В интервью The Inquirer он развенчивает миф об оригинальной формулировке ЗМ. По его словам, смысл утверждения Гордона Мура сводился к тому, что удваивается только то число транзисторов, которое наиболее экономически целесообразно произвести. Что, согласитесь, здорово отличается от банального «вдвое каждые X лет», придуманного ради простоты позже. Предположив, что Густафсон прав, можно сделать вместе с ним и следующий шаг: отыскать на графике микроэлектронной эволюции точку оптимума, в которой плотность элементов будет не слишком маленькой (тогда каждый транзистор обойдётся чересчур дорого для покупателей), но и не слишком большой (когда каждый транзистор будет неразумно дорог уже для производителей). Нащупав эту точку, нужно постараться двигаться с ней.
Придерживаясь оптимальной точки, конструктор микропроцессора не только гарантирует себе наивысшую скорость усложнения чипов, но и избегает участия в бессмысленно дорогой «гонке плотностей» (производительность-то всё равно увеличивается в лучшем случае на 10 процентов за год), а покупатель получает наивысшую производительность за наименьшую цену. И это как раз та дорожка, по которой пытается двигаться AMD. Да, Intel уже почти преодолела двадцатинанометровый порог и в следующем году планирует начать производство 14 нм чипов, но AMD мечтает пока только о 20 нм — вероятно, той самой точке оптимума в текущий момент. Гнаться за миниатюризацией ради миниатюризации? Пусть этим занимается Intel.
Но из уточнений Густафсона следует ещё один интересный вывод. По его словам, переход на 20 нм масштаб занял больше времени, чем ожидалось. Почему? Классический ответ на этот вопрос предполагает отсылку к техническим аспектам, но что если дело не в технике, а в той же экономической целесообразности? Вспомните, что творится с (пока ещё) главным потребителем суперсовременных микропроцессоров — персональным компьютером. PC продаются, но рост продаж отсутствует либо отрицателен, причём без особых на то причин. Планшетки, как ни крути, персоналку пока заменить не в состоянии. Что если у слабеющих продаж PC и трудностей миниатюризации один корень?
Персоналка давно стала достаточно мощным инструментом, чтобы в реальном времени решать большинство задач, которые только может поставить перед ней среднестатистический пользователь. Да можно ли вообще назвать хоть одну бытовую проблему, для которой производительности современной PC не хватит? Мы незаметно перешагнули черту, за которой возможности персонального компьютера стали избыточными — и теперь, не тратясь на апгрейд и не испытывая особенных неудобств, можно проработать на одной машине и пятилетку, и больше: неслыханное дело ещё пятнадцать лет назад, когда конфигурация десктопа могла устареть технически всего за год! Что если средний пользователь прочувствовал эту избыточность и теперь покупает новый компьютер только на замену сломавшемуся старому?
Идея не новая, но от неё уже рукой подать до трудностей с миниатюризацией микропроцессоров. Количество элементов на чипе? Не нужно быть экспертом, чтобы понять, в каком случае отдача от улучшения такого — чисто рекламного — показателя выше: когда несколько лет подряд продажи персоналок остаются на месте либо слабеют или когда они растут на 15 процентов в год и более (как было со второй половины 90-х до недавнего времени).
Так что Закон Мура ещё действует. Но, прыгнув неоправданно высоко в погоне за нанометрами, обзаведясь слишком дорогими фабриками, микропроцессорная индустрия должна сделать передышку и подтянуть производительность. Что, очевидно, мы и наблюдаем. Постепенно накапливая ставший привычным десятипроцентный инкремент производительности за год либо скачком, микропроцессоры должны выйти на уровень, качественно отличающийся от достигнутого сегодня. Случится прорыв благодаря экстремальной многоядерности (кау у Intel, работающей над Xeon Phi/Knights Corner) или гетерогенному компьютингу (как у AMD, подтягивающей CPU за счёт GPU), не так важно. Важнее, что под качественно новые мощности обязательно найдутся новые задачи — и появятся деньги, стимул, причина сделать следующий рывок по шкале плотностей. К 10 нанометрам, а может быть, и дальше, кто знает?
В статье использованы иллюстрации Electronics Magazine, MIT, Intel
Опубликовано 10 апреля 2013
Около 86 миллиардов нейронов. Около ста триллионов синапсов. Средняя масса — 1,5 кг, средний объём — 1130 см3. Таковы характеристики головного мозга взрослого человека. Сами по себе эти значения неспециалистам говорят немного. Однако даже неспециалист легко представит, какие ресурсы должны быть затрачены для того, чтобы составить полную карту головного мозга человека со всеми его многочисленными структурами — и установить их назначение.
В начале февраля научный мегапроект, нацеленный на «понимание» головного мозга человека, анонсировали европейские исследователи. Затем в начале апреля правительство США объявило о готовности выделить 100 млн долларов на сходный (по существу) проект уже в Америке. Понятно, что для предприятия таких масштабов 100 млн — мягко говоря, негусто: по некоторым оценкам, на американский проект за ближайшее десятилетие уйдёт более трёх миллиардов долларов. Предварительная оценка европейского проекта несколько скромнее — 1,19 млрд евро. Впрочем, учитывая, что бюджет подобных начинаний со временем может начать разрастаться, не исключено, что в итоге будут затрачены в разы большие суммы, что в Европе, что в США.
Ради чего?
Человеческий мозг представляет собой Terra Incognita мировой науки. Это аксиома, по крайней мере, пока. На разного рода исследования мозга ушли многие десятилетия, и недаром: нейрохирурги сегодня творят чудеса. И тем не менее неизведанного по-прежнему куда больше, чем изведанного.
«Функционирование отдельных клеток достаточно хорошо объяснено, однако понимание того, как в результате взаимодействия тысяч и миллионов нейронов мозг функционирует как целое, доступно лишь в очень упрощённом виде и требует дальнейших глубоких исследований», — справедливо указывается в соответствующей статье в Википедии.
Да, наука знает, за что отвечают отдельные области мозга; где располагаются двигательный, речевой центры, какие области отвечают за формирование памяти, а какие — за удовольствия. Однако, как уже сказано, есть масса вопросов, на которые ответы отсутствуют. Мозг человека отвечает за жизнедеятельность всего его организма в целом, а также и за мыслительные процессы. За разум. А что это такое?
Регулярно приходится читать и слышать об очередном техническом методе и инструментах для «чтения мыслей», для считывания визуальных образов и воспоминаний и тому подобных прекрасных вещах. Но какими бы сложными и высокотехнологичными ни были подобного рода эксперименты, остаётся громадное количество «белых пятен» — их по-прежнему чуть ли не больше, чем исследованных сколько-нибудь подробно областей.
Европейские и американские исследователи решились на проекты, которые по своей сложности не уступают, а возможно, и значительно превышают сложность проекта по расшифровке генома человека (бюджет которого составил около 3 млрд. долларов).
Похоже, более уместным будет сравнение проектов Human Brain Project (Европа) и Brain Activity Map Project (США) со строительством Большого Адронного коллайдера (уже потому, что решаются сходные по фундаментальности задачи). И надо заметить, аналогии с Вавилонской башней тоже напрашиваются.
Цель проекта Human Brain Project — собрать воедино все имеющиеся у мировой науки на сегодняшний день знания о человеческом мозге. Затем, исходя из этих данных, смоделировать человеческий мозг с помощью суперкомпьютерных технологий. То есть, по сути, осуществить «обратную разработку» (reverse engineering) человеческого мозга с тем, чтобы в деталях выяснить содержание его «исходного кода» и из отдельных фрагментов получить цельную картину.
http://www.youtube.com/watch?v=JqMpGrM5ECo
Проект потребует усилий множества людей. Те, кто уже сейчас имеют прямое отношение к проекту, вполне открыто говорят, что создание новых технологий — чуть ли не главная цель Human Brain Project.
Профессор Генри Маркрэм, один из директоров Human Brain Project, заявил: «То, что предлагаем мы, — это формирование радикально нового предприятия для исследования и понимания мозга, его заболеваний; и на основании этих знаний — создания новых вычислительных технологий».
Речь идёт о так называемых «нейроморфных» компьютерах, которые будут имитировать работу нейронов и синапсов, комбинируя «мощность электроники с гибкостью человеческого разума». Таким образом, предполагается, что новые — радикально новые — вычислительные технологии станут результатом всего этого десятилетнего проекта.
Американцы, судя по имеющейся информации, действуют в противоположном направлении.
Американский Brain Activity Map Project имеет более длинное (и адекватное содержанию) название: Brain Research through Advancing Innovative Neurotechnologies — «Исследования мозга путём развития инновационных нейротехнологий». Конечной заявленной целью 13-летней продолжительности проекта является создание полной карты мозга на уровне отдельных нейронов. То есть поклеточно. То есть с описанием, чем именно занят каждый нейрон в каждый конкретный момент.
И вот тут точно понадобятся новые технологии, уже просто потому, что сейчас отсутствуют технологии для регистрации импульсов нейронов в режиме «реального времени».
В конце января в Smitsonian.com был опубликован видеоролик, в котором была продемонстрирована работа мозга малька полосатого данио — в «реальном времени».
Малька дразнили пищей, и это вызывало у него «определённые соображения».
Для того чтобы визуализировать эти процессы, пришлось производить генную модификацию рыбы: ей ввели ген, который в присутствии ионов кальция начинает флуоресцировать. Благодаря этому можно было видеть, какие области мозга малька активизировались.
Спустя месяц было опубликовано другое видео с визуализацией почти (80 процентов) всего мозга того же малька на уровне, как утверждается, отдельных нейронов. Но съёмка осуществлялась со скоростью один кадр в 1,3 секунды, и даже таких результатов достичь было непросто.
Здесь был вставлен Flash-объект. К сожалению, на данный момент его автоматическая обработка при конвертации в FB2 не поддерживается. Вы можете просмотреть оригинальную версию статьи здесь.
Между тем в мозге малька данио насчитывается всего 100 тысяч нейронов. Можно себе представить, насколько более совершенные инструменты потребуются для составления полной карты человеческого мозга по сравнению с теми, которые доступны нейробиологам сейчас.
По словам профессора Уильяма Ньюсома из Стэнфордского университета (одного из участников Brain Activity Map Project), на сегодняшний день с помощью современных методов исследователи могут регистрировать активность самое большее нескольких сотен нейронов одновременно.
Для успешной реализации проекта по «картографированию» мозга понадобятся новые теоретические подходы, новые вычислительные технологии, новые средства регистрации данных (на уровне нанотехнологий) и даже «новая математика» — просто уже в силу того, какое количество нейронов придётся мониторить и соответственно какой объём данных придётся собирать и перерабатывать.
По всей видимости, исследователи не сразу даже возьмутся за картографирование именно человеческого мозга. Ряд учёных предложили начать с исследований нервной системы червя Caenorhabditis elegans, свободно живущей нематоды (кстати, в России уже проводится проект по моделированию виртуального двойника C. elegans), затем — начать «картографирование» нейроузлов дрозофил, затем — мозга всё тех же полосатых данио, затем грызунов, и уже затем дойдёт очередь до составления карт человеческого мозга. Параллельно предполагается разрабатывать и тестировать принципиально новые технологии (нанотехнологии, скорее всего) для мониторинга активности нейронов.
Итак, два проекта, сходных по существу, но разнонаправленных. Один прямо предполагает «обратную разработку» человеческого мозга с целью создания «принципиально новых вычислительных технологий». То есть, надо понимать, — искусственного интеллекта.
Другой проект нацелен на то, чтобы «разложить» человеческий мозг на отдельные нейроны и досконально изучить всю его структуру и все его механизмы. И затем, скорее всего, тоже попытаться на основе полученных знаний сделать что-то такое искусственное и интеллектуальное.
Хотя создатели обоих проектов утверждают, что главное, на что они прицеливаются, — это обнаружение средств лечения и предотвращения, в частности, нейродегенеративных заболеваний: болезни Альцгеймера, рассеянного склероза и других недугов, связанных с разрушением нервной ткани. По всей видимости, найдутся совершенно новые способы лечить наркоманию и алкоголизм, а также всевозможные расстройства, связанные с психикой. Подобные умозаключения напрашиваются сами собой.
И при этом всё-таки очень интересные вопросы поднимаются: если действительно человек будет знать о своём мозге всё, будет ли он знать всё о своём сознании и разуме? И как захочет воспользоваться этим знанием?
Освободит ли нас полное знание о нашем мозге от лишних страхов или, наоборот, добавит новых? Станет ли это своего рода «завоеванием рая» или строительством Вавилонской башни, которое в итоге спровоцирует враждебную реакцию каких-нибудь неизведанных сил природы, на территорию которых человеку лучше было бы и не лезть вовсе?
Обнаружатся ли в мозге какие-то скрытые ресурсы, которые можно будет активизировать усилием воли (или разума)? Или же выяснится, что на деле никаких скрытых сверхспособностей у среднестатистического человека нет и никогда не было, а единичные случаи их проявления — следствия каких-то странных мутаций или простое жульничество?
Появится ли давно прогнозируемая возможность полной «оцифровки» сознания, его безопасного хранения, «цифрового бессмертия»?
Не приведёт ли знание о сознании к формированию идеальных или близких к идеальным инструментов для манипуляции людьми — индивидуально и en masse? Или, наоборот, любые попытки манипулирования станут по факту тщетными? Приведёт ли «полное самоосознание» к совершенствованию человеческой натуры как таковой, или в результате произойдёт расслоение на касты — «повелителей разума», контролирующих инструменты манипуляций сознанием, и их «подданных», послушных, управляемых, но зато питающих абсолютную (потому что целенаправленно культивируемую) уверенность в своём нравственном превосходстве над «повелителями»?
Будет ли достигнута пресловутая сингулярность, и каковы будут её последствия? Произойдёт ли резкий эволюционный скачок вида homo sapiens в целом, или следует ждать разделения человечества на непримиримые партии сторонников естественного развития и адептов технологической аугментации?
Оба проекта формируют колоссальный простор для фантазий, отличную затравку для литературных сюжетов, равно утопических и антиутопических. Пока же мы имеем лишь два заявленных проекта, грандиозных по замыслу, предполагаемым масштабам и продолжительности (более десяти лет) и малопредсказуемых по конечным результатам.