Опубликовано 16 февраля 2013
Упавший в Челябинске метеорит заставил многих из нас осознать: на наши головы из космоса в любой момент может свалиться что угодно, и на страже нашего небосвода никто не стоит. О приближающемся астероиде не объявляли по телевизору и не писали в интернете, — никто о нём вообще ничего не знал до тех пор, пока жители Челябинска не увидели в небе огромную огненную стрелу. «Офигеть!», — сказали жители Челябинска (но в менее цензурной форме, судя по видео). «Офигеть!», — сказали все остальные, поняв, что в любой день им тоже вдруг может понадобиться прятаться от взрывной волны и (в лучшем случае) менять окна.
Но вот люди узнали о метеоритной угрозе, и программы по отслеживанию мелких космических объектов будут профинансированы. Предположим, в следующий раз нас смогут предупредить по телевидению. На заводах, расположенных рядом с эпицентром, успеют укрепить крыши. Кого-то, наверное, даже эвакуируют. Но что если метеорит вдруг направится в самый центр какого-нибудь из мегаполисов? А если космический булыжник будет таких размеров, что последствия падения почувствует всё население Земли?
Поскольку вымирать, подобно динозаврам, человечество не желает, самое время подумать, что можно сделать в случае нависшей угрозы.
Этот способ кажется самым реалистичным, но при этом наименее привлекательным (за исключением чувства удовлетворения от того, что ядерное оружие наконец пригодилось). После того, как взрыв испарит часть астероида и раздробит его, на Землю по-прежнему могут обрушиться крупные осколки. Появления огромного кратера удастся избежать, а вот выбитых окон и прочих разрушений — возможно нет. Этот способ лучше всего оставить на самый крайний случай.
Если взорвать ракету, не сталкивая её с астероидом, то можно добиться того, что он не разлетится на много маленьких и опасных кусочков, а вместо этого свернёт куда-нибудь и пролетит мимо. Звучит разумно! Но, к сожалению, воспользоваться этим методом можно только в том случае, если о прибытии объекта известно сильно заранее — лучше всего как минимум за десятилетие.
Астероид можно отклонить и просто хорошенько толкнув чем-нибудь невзрывающимся — к примеру, протаранить космическим кораблём. Недостаток всё тот же: готовиться нужно за долгие годы. В NASA, правда, исследуют эту возможность и даже хотят потренироваться на каком-нибудь астероиде, не угрожающем Земле.
Возьмите одну большую космическую станцию или несколько космических аппаратов. Укрепите на них большие линзы и поверните так, чтобы на них падал солнечный свет и концентрировался на астероиде. Подождите несколько месяцев, и благодаря эффекту Ярковского, астероид начнёт поворачивать. Не получилось? Ничего страшного, может быть у следующей цивилизации выйдет лучше.
Ещё один умный способ уберечься от столкновения — увлечь астероид за гравитационным полем другого объекта. У этого решения есть свои плюсы: гравитационным полем корабля можно отвести даже раздробленные камни, бить по которым ядерными бомбами было бы малоэффективно. Но отправлять космическую баржу с кирпичами придётся сильно заранее — как и на другие красивые методы, на этот уходит очень много времени.
Что если превратить в подобие корабля сам астероид? Отправить к нему «толкач», который аккуратно сведёт его с опасного курса. Это перспективный метод, но он может оказаться неприменимым для быстро вращающихся объектов.
Ещё более экзотичный и красивый способ: прицепить к астероиду солнечный парус и спокойно наблюдать, как конструкция пролетает в стороне от Земли. Если надвигающихся крупных астероидов не обнаружится, скажем, в ближайшие пятьдесят лет, то наши технологии, возможно, смогут достичь нужного для этого трюка уровня. Пока же цеплять солнечный парус на крутящийся и летящий быстрее скорости звука объект невероятно проблематично.
Если летящий рядом корабль направит на астероид поток частиц, то со временем это изменит траекторию полёта. Увы, в реальности всё намного скучнее чем в фантастических фильмах, и вместо того, чтобы захватить объект красивым зелёным сиянием и убрать в сторону, придётся долго и грустно облучать его.
В 1996 году американский планетолог Юджин Шумейкер предложил такой метод: выпускать перед астероидом облако пара, которое поможет замедлить его. Или не поможет: рассчитать результат взаимодействия не так просто, и балуясь с паром, лучше всё же иметь пару ядерных боеголовок на крайний случай.
«Это случалось раньше, это случится ещё»: Брюс Уиллис слетает к астероиду, пробурит там дырку и очень красиво всё взорвёт. Нет, конечно, этого не случится: актёру уже 57 лет, он ни разу не летал в космос по-настоящему, да и вообще эту странную идею мы почерпнули из декабрьского списка концов света.
Читайте также: Почему от Челябинского метеорита пострадало так много людей, и можно ли предотвратить следующий удар?
Комментарий профессионального астронома: почему падение Челябинского метеорита не было предсказано заранее?
почему Россия лидирует по числу видеорегистраторов на душу населения?
Опубликовано 16 февраля 2013
Несмотря на все усилия специалистов, нет никаких гарантий, что мы заранее узнаем об опасности, грозящей нам из космоса. Множество потенциально опасных небесных тел остаются незамеченными. Некоторые — из-за несовершенства средств обнаружения. Другие — потому что доступные для поиска ресурсы ограничены, и на всё сразу их просто не хватит. И даже в том случае, когда проблему удалось идентифицировать, мы бессильны её решить. Стоит ли об этом беспокоиться?
Первая реакция трезвомыслящего человека — ответить на этот вопрос твёрдым «Нет». Астероиды-убийцы, якобы несущие погибель, чаще всего встречаются в жёлтой прессе. В реальности увидеть один из них гораздо труднее, чем выиграть миллион в лотерею. Здравый смысл подсказывает, что настолько маловероятные события не заслуживают внимания. Есть более животрепещущие заботы.
Метеорит, который упал в районе Челябинска 15 февраля 2013 года, заставляет задуматься, так ли это. Его не было в составляемых астрономами списках околоземных объектов, способных столкнуться с Землёй — размерами не вышел. И тем не менее, посмотрите на последствия: больше тысячи пострадавших, многомиллионный ущерб. Может, мы неверно считаем вероятности?
О том, что представлял собой челябинский метеорит, пока есть лишь предварительная информация. По оценкам специалистов РАН и NASA, мы наблюдали падение метеороида диаметром не более 10-15 метров, который вошёл в атмосферу со скоростью примерно 54 тысячи километров в час.
http://www.youtube.com/watch?feature=player_embedded&v=iCawTYPtehk#!
На высоте от 30 до 50 километров над поверхностью Земли объект развалился на части. Возникшая в этот момент ударная волна прокатилась по городу и выбила окна. Осколки стекла — главная причина ранений, полученных пострадавшими.
Один из обломков разрушил крышу склада Челябинского цинкового завода. Другой — по всей видимости, довольно крупный — пробил толстый лёд, покрывающий озеро Чебаркуль, которое находится в нескольких десятках километров от Челябинска. На месте падения обломка осталась полынья диаметром шесть метров.
Такое происшествие не могло не вызвать волну слухов. Кто-то всерьёз опасался, что обломки радиоактивны или токсичны. Другие беспокоились, что за первым метеоритом последует другой, тем более, что как раз в этот день ожидалось сближение Земли и более крупного астероида 2012 DA14.
Страхи, связанные с радиацией, легко развеять. На астероидах не происходят геологические процессы, которые приводят к появлению радиоактивной руды. По крайней мере с этой точки зрения падающие на Землю обломки безопасны.
Что касается других опасений, то ответить на них сложнее. Учёные предполагают, что челябинский метеорит и астероид 2012 DA14 никак не связаны. События в Челябинске произошли за много часов до момента максимального сближения 2012 DA14 и Земли. Вдобавок, судя по снимкам, полученным метеорологическим спутником Meteosat-10, метеорит двигался по совсем другой траектории. Иными словами, мы имеем дело с удивительным совпадением.
Небольшой шанс, что упавший объект был частью метеорного потока, пожалуй, есть. Но даже в этом случае очень маловероятно, что другие метеоры будут столь же крупными. Еще сомнительнее выглядит предположение, что их жертвой снова станет Челябинск. Подумайте сами: мало того, что Земля вращается вокруг своей оси, она ещё и движется вокруг Солнца со скоростью 30 километров в секунду. Точка, где утром 15 февраля траектория гипотетического метеорного потока пересеклась с орбитой нашей планеты, давно осталась позади.
Настолько значительные столкновения не фиксировались больше ста лет — с момента падения Тунгусского метеорита летом 1908 года. Тут, правда, необходимо уточнение: между этими событиями нельзя ставить знак равенства. Тунгусский метеорит был гораздо крупнее.
Есть и другой рекорд — количество пострадавших. Челябинский метеорит упал в непосредственной близости от крупного города — и вот результат.
Получается, что событие, произошедшее 15 февраля, — это нечто из ряда вон выходящее? Непредвиденная катастрофа, от которой невозможно застраховаться? «Чёрный лебедь» из книжки Нассима Талеба, которую модно вспоминать в таких случаях?
Нет, это совершенно не так. Ничего непредвиденного не произошло. Метеориты такого размера даже нельзя назвать редкими. Они сталкиваются с Землёй с поразительной регулярностью. С астероидами диаметром около четырёх метров это происходит не реже раза в год. Десятиметровые падают минимум каждое десятилетие. Чтобы убедиться в этом, достаточно время от времени заглядывать в новости.
В 2002 году астероид длиной около десяти метров в поперечнике взорвался над Средиземным морем неподалёку от Греции и Ливии. Мощность взрыва была сравнима с небольшой ядерной бомбой. В том же году болид, сравнимый по величине с челябинским, наблюдали в небе над Иркутской областью. Спустя год упавшие осколки метеорита привели к пожару в деревне на востоке Индии: два человека погибли, общее количество пострадавших превысило два десятка. Ещё один десятиметровый астероид сгорел в небе над Индонезией в 2009 году.
Если всё так обыденно, почему же о метеороиде, который взорвался над Челябинском, никто не предупредил заранее? Есть несколько организаций, которые ведут наблюдение за околоземными объектами — и никто ничего не заметил? И ладно учёные — куда смотрели военные с хвалёными средствами ПВО?
Военные, положим, тут ни при чём. Зафиксировать приближение объекта из космоса они не могли даже случайно. Между моментом, когда метеороид вошёл в атмосферу, и его гибелью прошли считанные секунды. Кто может реагировать на угрозы с такой скоростью? Да и как реагировать? Челябинский метеорит быстрее ракет.
Что касается научных программ поиска околоземных объектов, то для ответа на вопрос требуется понимать, как и зачем они работают.
Для поиска околоземных объектов чаще всего используют серии фотографий, выполняемых с помощью оптического телескопа. Каждый снимок, из которого состоит серия, разделяет несколько минут. Когда всё готово, их сравнивают между собой.
В прошлом сравнение производили вручную, сейчас процесс бывает автоматизирован, но суть одна. Различия между фотографиями указывают на возможные околоземные объекты. Скорость, направление движения и яркость объекта помогают определить расстояние, на котором он находится, прикинуть его размер и составить определённое представление о траектории (её, впрочем, потом всё равно придётся уточнять).
Возможности этого метода далеко не безграничны. Во-первых, с его помощью могут быть обнаружены лишь те небесные тела, которые можно наблюдать по ночам. Во-вторых, объект должен быть достаточно светлым и хорошо освещённым. Заметить чёрный астероид на фоне чёрного же неба почти невозможно. В-третьих, разрешение и самого телескопа, и матрицы, с помощью которой делается снимок, ограничивает минимальный размер объекта, который можно различить.
Метеороид, обломки которого упали в районе Челябинска, настиг Землю со стороны Солнца, двигаясь при этом с огромной скоростью. Этого достаточно, чтобы помешать обнаружению даже относительно крупного околоземного объекта. А наш метеороид не был крупным. Его могли не заметить и при более благоприятных условиях.
Хуже того, официально подобные объекты даже не входят в сферу интересов организаций, призванных защищать планету от внешней угрозы. Программы, которые финансирует (или финансировало) NASA, декларируют своей целью поиск небесных тел, с которыми может столкнуться Земля, имеющих диаметр от 600 метров. Обнаружение более мелких объектов — лишь приятный побочный эффект.
Ударная волна и несколько небольших обломков — вот и всё, к чему приводит падение метеорита величиной 10-15 метров. Челябинское происшествие показывает, что даже такой небольшой метеорит может иметь пренеприятные последствия, но на фоне более крупных метеоритов это действительно пустяки.
Диаметр астероида 2012 DA14, который вечером 15 февраля приблизился к Земле на рекордно малое расстояние — ближе, чем пролегают орбиты геостационарных спутников, — составляет 45 метров. Это примерно соответствует минимальной оценке величины Тунгусского метеорита, который в 1908 году сравнял с землёй тайгу на площади 2150 квадратных километров (считается, что его размеры составляли 45-70 метров). К счастью, метеориты такого размера встречаются редко — предположительно раз в несколько столетий.
Эффект, который вызывает падение метеоритов диаметром от нескольких десятков до сотни метров, сравним со взрывом крупного термоядерного заряда. Даже если такой объект угодит в океан (когда вода покрывает три четверти планеты, мимо неё трудно промахнуться), разрушительные последствия неизбежны.
Однако и астероиды такой величины пока не подлежат полной инвентаризации. Внимания и возможностей хватает лишь на то, чтобы переписать большую часть околоземных объектов, которые потенциально могут вызвать катастрофу планетарного масштаба. Шестисотметрового астероида вполне достаточно для того, чтобы покончить с цивилизацией, а объекта, диаметр которого составляет километр, — и с человеком как видом.
Это ещё не всё. Есть и более крупные тела, путь которых, тем не менее, пересекается с земным как по часам. Кратеры, сохранившиеся на поверхности планеты, свидетельствуют, что примерно раз в 100 миллионов лет Земля натыкается на астероиды, имеющие десять километров в поперечнике.
Программы поиска опасных околоземных объектов в первую очередь нацелены на поиск астероидов двух последних типов — очень редких и очень опасных. Увы, даже в том случае, если завтра подобная угроза будет обнаружена, мы не сможем её устранить. Ни одной проверенной технологии, позволяющей изменить курс астероида или даже остановить его, пока не существует. Есть пара десятков идей разной степени фантастичности, но ни одна из них пока не была испытана на практике.
И что из этого следует? «Бойтесь-бойтесь, мы все умрём»? Нет, я веду совсем не к этому. Вспомните, с чего мы начали. С вопроса о нашей неспособности справляться с космическими угрозами. Попробуем вернуться к нему.
Неготовность к борьбе с астероидами, столкновение с которыми приведёт к наступлению локального апокалипсиса, по-прежнему не кажется мне такой уж серьёзной проблемой. Хотя в долгосрочной перспективе встреча Земли с небесным телом смертоносных размеров, по-видимому, неизбежна, вероятность того, что это произойдёт в обозримом будущем, стремится к нулю.
А вот в реалистичности угроз калибром помельче сомнений почти не осталось. Небольшие метеориты диаметром от десяти до пятидесяти метров встречаются куда чаще, чем сменяются геологические эпохи. Они не вызывают массового вымирания, но всё же способны причинить вред.
Вероятнее всего, нам ещё не раз придётся стать свидетелями событий, сходных с падением челябинского метеорита, а то и более разрушительных. Они не будут частыми, но землетрясения, наводнения или ураганы тоже случаются не каждый год. Чем гуще будет заселяться Земля, тем меньше у метеоритов останется шансов ускользнуть незамеченными.
Разглядеть небольшие, но опасные астероиды в телескоп, а затем уничтожить их по методу Брюса Уиллиса вряд ли возможно. Однако можно обойтись и без этого. Мы толком не умеем ни предсказывать, ни предотвращать стихийные бедствия. Метеориты — в сущности, такое же стихийное бедствие. Возможно, стоит научиться относиться к ним именно так — и готовиться к ним, а не к борьбе с ними.
Опубликовано 15 февраля 2013
Голливуд, да и вообще кинематографические фабрики не слишком жалуют интеллект в его настоящей, жизненной форме. Ради пущего эффекта сильно талантливый персонаж присутствует на широком экране исключительно в виде чудаковатого гения: заросшего волосами, живущего в бардаке, подбирающего пароли и тысячебитные ключи методом «пристального взгляда», неконтактного до неприличия или, напротив, чересчур общительного. Короче говоря, художникам кино свойственно гипертрофировать черты характера и особенности таких героев. Тихое внимание, упрямство, работоспособность и незаметность, чаще сопутствующие таланту в действительности, плохо продаются. Но приятные исключения всё-таки бывают.
11 сентября 1971 года, вероятно, до сих пор памятно лондонцам. В ту ночь было ограблено одно из старейших действующих финансовых предприятий Великобритании — Банк Ллойда. Грабители вломились в его отделение, квартирующее на знаменитой Бейкер-стрит, и унесли содержимое сотен сейфовых ячеек на сумму, оцениваемую в полтора миллиона фунтов. Точной цифры, впрочем, никто не знает. По понятным причинам установить, что именно хранилось там, невозможно: клиенты не горели желанием делиться этой информацией со следователями.
В той истории есть несколько занятных деталей, по сей день волнующих умы и сердца поклонников криминальных талантов. Ребята, затеявшие ограбление, не чурались новых технических веяний. Дорогу они проложили с помощью специальных термических резаков и направленного взрыва, связь с наблюдателем на соседнем здании поддерживали посредством портативных раций. Но самое интересное — то, как воры проникли в хранилище.
Двери, запоры, решётки остались нетронутыми. Арендовав магазинчик по соседству с банком, они прорыли пятнадцатиметровый тоннель и вышли прямо в сейфовое отделение. Вот почему преступление не удалось предотвратить: местный радиолюбитель перехватил их переговоры, за три часа под ружьё была поставлена вся местная полиция, за ночь проверено около тысячи банков (Лондон!), но, поскольку фасад был в порядке, грабители смогли закончить своё дело и уйти без помех. Нескольких вероятных участников позже, впрочем, поймали, признали виновными и посадили. Но организатор сумел поимки избежать. А по мотивам случившегося сняли замечательный фильм с тихими, простыми парнями на главных ролях — «Ограбление на Бейкер-стрит«.
Что ж, время таких ограблений прошло, скажете вы, банковские кладовые нынче оснащены видеокамерами, датчиками движения, сейсмодетекторами и бог знает чем ещё. И — будете правы, но только отчасти. Защитный арсенал с тех пор действительно сделал два шага вперёд — спасибо микроэлектронике! — но всегда найдутся неприметные талантливые ребята, которые смогут что-то отключить, другое — обойти. Доказательством тому — ограбление берлинского отделения Volksbank (с недавних пор принадлежит нашему Сбербанку), случившееся не далее как в конце января. Текущего года.
Кадры с места событий живо рождают в памяти историю сорокалетней давности. Схема практически та же: обосновавшись в подземном гараже неподалёку от банка, группа неизвестных прорыла сорокапятиметровый тоннель и накануне выходных вышла в комнате с сейфовыми ячейками. Когда в понедельник охрана проснулась по сигналу пожарной сигнализации, грабителей уже и след простыл, а вместе с ними ушло и содержимое трёх сотен ячеек. Полиция по сей день не знает, кто это провернул, но не стесняясь называет взломщиков Volksbank профессионалами. На то есть хорошие причины.
Прежде всего, сам тоннель. Метровой ширины и высотой почти в человеческий рост, он спроектирован и построен с соблюдением всех инженерных норм: правильной формы, с крепежом стен и потолка. Поначалу полиция решила, что на него были потрачены недели, если не месяцы труда, а позже сошлась на цифре в один год. Что хорошо соотносится с датой аренды гаража (февраль 2012-го), к сожалению, на вымышленное имя по поддельному паспорту. Но больше того, в само хранилище, сквозь почти метровый слой усиленного бетона, преступники проникли, воспользовавшись особыми малошумящими отбойными молотками. И часть инструмента опять-таки была не куплена, а похищена — вероятно, чтобы замести следы.
Другое обстоятельство, заставляющее полагать, что действовали люди понимающие, — это сумма награбленного. Полиция пока не рискует делать каких-то заявлений (по той же причине, что и сорок лет назад), но таблоиды оценивают сорванный куш в 13 миллионов долларов наличными и ценностями. А ведь среднестатистическое ограбление банка — предприятие невыгодное. Всем известно, что риск там значительно превосходит возможное вознаграждение, и этот неприглядный факт неоднократно подтверждён документально. Последний раз только минувшим летом британские финансисты оценили среднюю сумму, унесённую налётчиками на английские банки в «нулевые», всего в 30 тысяч долларов.
Но есть и ещё одно, пожалуй самое интересное, обстоятельство, принципиально отличающее ограбление Volksbank от Банка Ллойда. Попасть без спросу и ведома в современное банковское хранилище — сама по себе задача нетривиальная, тем более что в интервью Bloomberg пресс-секретарь Volksbank подтвердила: защита его соответствует современным стандартам. Но проникнуть туда было ещё даже не половиной успеха. Дело в том, что из полутора тысяч ячеек арендованы клиентами (то есть те, что содержали что-то потенциально ценное) было около семисот. Грабители взломали 309 ящиков, и лишь в пятнадцати из них было пусто. Случайностью, как вы понимаете, тут и не пахнет. Зато пахнет тщательной разведкой и технической подготовленностью.
Пока всё, что есть у полиции и прессы, — фоторобот одного из вероятных участников ограбления, мужчины за 30 лет с большой родинкой на щеке, плюс сгоревшие инструменты (уходя, ребята устроили пожар). И — очевидная версия: в группе имелся инсайдер, то есть служащий банка, либо человек, хорошо понимающий в компьютерах и компьютерных сетях. Который сумел не только отключить защиту, но и выкрасть базу данных с номерами арендованных сейфов (а возможно, и именами клиентов). И тут лично мне снова вспоминается кино.
Когда журналисты пытаются показать надуманное всемогущество компьютерных взломщиков, им есть на что сослаться в качестве примера. Тот же «Крепкий орешек-4″ затёрт уже просто до дыр (вот и мой коллега не избежал соблазна, см. «Кибертерроризма не существует«). Но есть ведь и более осторожные и куда более правдоподобные фильмы. Вроде «Схватки» моего любимого режиссёра Майкла Манна. Помните ту сцену, когда чёрный хакер, продающий план ограбления банка, на вопрос о происхождении информации простирает руку над урбанистическим пейзажем Лос-Анджелеса и произносит историческое: «носится в воздухе, нужно только суметь взять»? Возможно, и Volksbank взяли вот такие же ребята. Скучные, незаметные, тихие.
Но очень, очень внимательные.
Опубликовано 15 февраля 2013
Издание Wired на днях опубликовало статью You Are Watching Machinima («Вы смотрите машиниму»), в которой прямым текстом говорится, что будущее телевидение сегодня куётся не в зале заседания директоров крупных телесетей, а в низком здании в западном Голливуде, где квартирует компания под названием Machinima (Machinima.com). Сегодня Wired называет его «джаггернаутом онлайнового видео», а Google инвестирует в эту компанию, а точнее, в производимый ею (и окружающим её сообществом) контент 35 млн долларов. А в таком недалёком, казалось бы, 2000 году этот ресурс создавался всего лишь как центр для размещения «машинимы». Покуда Wired превозносит компанию, сделавшую себе имя и капиталы на этой самой машиниме, давайте взглянем на само явление. И попытаемся понять, как говорится, куда дует ветер.
Machinima — это сокращение от Machine Cinema. Фактически речь лишь о способе использования игровых движков и игровой графики для производства неигрового контента, конкретнее — анимационных роликов (неинтерактивных). То есть машинима — это мультфильмы на базе ресурсов какой-либо игры.
С исторической точки зрения происхождение машинимы довольно туманно: то ли демосцена ещё начала 1980-х, то ли начало 1990-х, когда появились такие игры, как Stunts (1990) и куда более известный 2,5D-шутер Doom (1993). Doom позволял записывать игровой процесс и воспроизводить побоища (внутри самой игры, естественно). Точно так же это делать позволяли и деривативы Doom, и Quake. Собственно, с Quake машинима и начала приобретать свои «современные очертания». Вот один из первых, а может, и самый первый пример. Дурацкий, но зато с рудиментарным сценарием:
Чем дальше, тем больше игры становились продуманнее и кинематографичнее. Оригинальный Half-Life (который создавался на основе движка Quake с вкраплениями кода Quake II) и вовсе выглядел как интерактивный кинотриллер, сделанный по всем законам жанра. C той лишь разницей, что камера одна. Добавить «виртуальной операторской работы», убрать интерактив — и voila, получаем отличный мультфильм. Если, конечно, игнорировать низкую полигональность и размытые текстуры.
Качество изображения и было главной проблемой для ранней машинимы: игры делались и делаются так, чтобы с отрисовкой всей графики справлялись потребительские 3D-ускорители. По своим возможностям игровые видеокарты конца 1990-х и начала 2010-х — это две очень большие разницы, однако по-прежнему разработчикам приходится использовать всевозможные ухищрения, упрощённые визуализационные алгоритмы, которые позволяют в реальном времени формировать на экране компьютера изображения, напоминающие фотореалистичные (это если цель состоит именно в получении такой графики; хотя на ней свет клином не сошёлся).
И хотя с каждым годом реализм игровой графики может расти, пройдёт ещё какое-то время, прежде чем изображения уровня Pixar (для получения которых требуются здоровенные рендер-фермы), станут доступны с пользовательских ПК.
Лет пять, может быть, семь.
К тому же необходимо учитывать такую простую вещь: далеко не одним только реализмом освещения делается красивая картинка. Убедительного уровня изображение можно добиться и с realtime-рендерингом.
- Затея делать realtime-рендер для мультипликации оправдана, и даже очень, — говорит Егор Томский, супервайзер по motion capture в компании «ДА-Студио» (ранее работал в компании CGF в качестве супервайзера по превизу). — Особенно с экономической точки зрения. К сожалению, страдает качество картинки. Глубина резкости и размытие движения пока оставляют желать лучшего. Но уже сейчас многие используют realtime-рендеры для архитектурной визуализации и презентаций. Также есть подобные технологии у крупных студий, занимающихся производством многосерийных 3D-мультфильмов. Проблемы картинки решаются с помощью стилистики, хорошей анимации и атмосферы.
Что касается анимации, на днях в материале Михаила Карпова можно было увидеть вот этот ролик:
Вся анимация, включая лицевую, делалась посредством захвата движений (motion capture) по новой технологии Motion Scan. Модели персонажей далеки от идеальных, но именно точность в передаче их движений, в том числе самых тонких, сообщает этой игре феноменальную кинематографичность. Такую, что её продемонстрировали на кинофестивале (!).
И если бы разработчик выпустил открытый SDK для этой игры, можно было бы ожидать огромного количества машинимы в стилистике Noire. Со стороны студентов, изучающих кинодело, например.
Впрочем, для них уже выпущено приличное количество других инструментов.
Разработчик серии игр Crysis — компания Crytek выпустила адаптацию своего движка CryENGINE под названием Cinebox. В сущности, он предназначен для кинопревизов, то есть для динамической раскадровки будущего фильма. Пользователям доступен весь инструментарий игрового движка (физика, продвинутое освещение с сохранением realtime-визуализации), при этом имеется тесная интеграция с 3D-анимационным пакетом Autodesk Maya, а самое главное — виртуальная камера уже сама по себе рассматривается как физический объект, и симулируются многие, если не все, особенности настоящих камер с реальной оптикой.
Ну, а что касается общего качества картинки, то вот, извольте видеть:
Unreal Engine использовался при создании известного детского шоу Lazy Town (для создания виртуальных декораций) и веб-сериала Chadam; он также лежит в основе бесплатного анимационного пакета Muvizu:
Ещё в прошлом году «Компьютерра» писала о том, что режиссёр мультфильма «9″ Шейн Экер собирается снимать постапокалиптический анимационный фильм «Deep» с использованием движка Valve Source (Half-Life 2, Left 4 Dead, Dear Esther).
Как раз компания Valve выпустила во всеобщий доступ специальную версию этого движка под названием Source Filmmaker.
Собственно говоря, это анимационный инструментарий, который использовался при созданий ставших уже легендой вступительных роликов к игре Team Fortress 2. В частности, вот этих вот шедевров:
Кстати, вскоре после анонса «Deep» Valve объявила о разработке следующей версии движка Source «на базе» Filmmaker (то есть, видимо, вся доразработанная с годами кинофункциональность будет в Source 2 изначально).
Как отмечает Егор Томский, вряд ли для мультфильмов или кино будут использоваться именно игровые движки. Скорее, речь пойдёт об их аналогах или вариациях, таких, как уже упомянутый Cinebox или Lumion 3D. Кстати, по словам Томского, некоторые крупные студии уже разрабатывают realtime-движки для собственных нужд. DreamWorks в их числе.
Если в ближайшие годы не произойдёт новая «смена парадигмы» и планшеты и прочие «узкоспециальные» потребительские устройства не выставят привычные ныне персональные компьютеры «за скобки», если продолжится рост производительности их CPU и GPU, через несколько лет игровая графика будет более чем пригодна для использования в серьёзных телесериалах и даже, вероятно, в кинематографе. То есть технологическая граница между любительской машинимой и профессиональной анимацией будет становиться всё менее чёткой.
Сейчас в мире наблюдается мощный запрос на демократизацию съёмочного процесса. Если есть спрос, будет и предложение. Цифровые камеры потребительского ценового диапазона? Пожалуйста. Бесплатный (официально бесплатный) или очень дешёвый софт для монтажа, компьютерной графики, озвучания? Пожалуйста. Звуковое оборудование эконом-класса? Ради бога.
«Киноверсии» продвинутых игровых движков, с помощью которых легко делать анимацию и формировать фоновые сцены (виртуальные декорации), — это движение в том же самом направлении: к «демократизации» производства кино и анимации.
Но тут необходимо иметь в виду, что главное различие лежит не в области техники, а в районе рук и головы создателя ролика. Его знаний о законах кинематографа, понимания композиции кадра и прочих, не сразу очевидных вещах. Правильная постановка кадра, правильно выставленное движение виртуальной камеры делает зрелищной даже совсем, казалось бы, «дубовую», древнюю графику, в то время как без знаний этих основ даже самые современные игровые движки не позволят создать ничего впечатляющего.
Опубликовано 14 февраля 2013
Любой учебник информатики начинается с перечисления поколений вычислительной техники. ЭВМ первого поколения были основаны на электронных лампах. Их сменили вычислительные машины второго поколения, сделанные из транзисторов. Интегральные микросхемы позволили построить компьютеры третьего, а микропроцессоры — четвёртого поколения. На этом компьютерная история неожиданно обрывается, а мы зависаем в странной атемпоральности, где ничего не происходит. Прошло три с лишним десятилетия, но пятое поколение так и не наступило.
Это особенно странно на фоне того, что происходит в последнее время. Положение вещей в компьютерной индустрии меняется быстрее и значительнее, чем когда-либо в прошлом. Привычные способы классификации вычислительных устройств постепенно утрачивают связь с реальностью. Даже незыблемость позиций Microsoft или Intel начала вызывать сомнения.
У меня есть гипотеза, объясняющая, что случилось. Тридцать лет четвёртого поколения усыпили нашу бдительность. В действительности мы стоим на пороге пятого поколения и не замечаем этого — отвыкли.
Самый очевидный признак смены поколений — иная элементная база — подвёл нас. В этот раз элементная база не изменится. Впрочем, она никогда не была единственным признаком, отличающим одно поколение от другого. Есть и другие.
В вычислительных устройствах, появляющихся в последние годы, прослеживаются общие черты, совершенно нехарактерные для компьютеров последних тридцати лет. Другие приоритеты, другой подход к безопасности, другой подход к интерфейсам, другой подход к многозадачности, другой подход к приложениям, другое всё.
Модель безопасности досталась современным персональным компьютерам в наследство от многопользовательских вычислительных машин семидесятых годов. Многопользовательских в самом буквальном смысле этого слова: одна ЭВМ обслуживала терминалы, за которыми одновременно работало множество пользователей. За порядком следил системный администратор, имеющий, в отличие от пользователей, доступ к любому файлу и любой программе.
Сейчас подавляющее большинство компьютеров использует только один человек, причём, как правило, без помощи сисадмина. Главная опасность для компьютера — это не люди, а программы. Устанавливая приложения, пользователь может лишь надеяться, что они делают именно то, что нужно. А если нет? Любая программа имеет доступ ко всем данным пользователя и к любым аппаратным ресурсам. Она может делать с компьютером почти всё, что угодно. Ограничить её практически невозможно.
Традиционные методы усиления безопасности, перенесённые на несвойственную им почву, отдают некоторым безумием. Взять хотя бы требование вводить администраторский пароль перед выполнением потенциально опасных действий — это же раздвоение личности! И не очень удачное: некомпетентный пользователь не становится умнее, если заставить его ввести пароль администратора. Авторы вредоносных программ это прекрасно знают и используют.
Чем будет отличаться модель безопасности, придуманная с учётом того, как используют компьютеры сейчас, а не сорок лет назад? Во-первых, она будет основана на понимании, что пользователь один, а сисадмины встречаются только в сказках (и крупных корпорациях). Во-вторых, любое приложение, включая дружественное, должно считаться потенциальным врагом. То, что пользователь его установил, не значит, что приложению можно доверить любые произвольные данные или аппаратные ресурсы.
Именно на этом строится защита безопасности в мобильных устройствах, использующих Android и iOS. Приложения запускаются в изолированных «песочницах» и неспособны повлиять на то, что находится за их пределами. Каждый чих требует отдельного разрешения (в Android разрешения выдаются при установке программы, в iOS запрашиваются по мере её работы, но суть от этого не меняется).
Как и устаревшая модель безопасности, принятый порядок распределения ресурсов — это ещё один реликт семидесятых годов. Запущенные процессы делят процессорные циклы, доступ к сети и прочие возможности компьютера так, будто между ними не больше разницы, чем между пользователями, которые сидят за терминалами ЕС ЭВМ. А это, как мы понимаем, давно не так.
Современный персональный компьютер — это театр с одним зрителем. Если ресурсы ограничены, то, распределяя их, машина обязана руководствоваться единственной целью: сделать так, чтобы все доступные возможности были направлены на то, чем пользователь сейчас занят. Что бы ни происходило за кулисами, представление не должно прекращаться ни на минуту.
Пример такого подхода — на этот раз не по возвышенным идеологическим соображениям, а вынужденно — это опять-таки мобильные устройства последних лет. Им поневоле приходится беречь процессорные циклы: мало того, что их едва хватает на жизнь, так они ещё и тратят батарею. Виртуальная память с бесконечным свопом — тоже непозволительная роскошь для смартфонов и планшетов.
Выход, который нашли разработчики Android, iOS и Windows RT, известен. Запуск и выключение программ теперь контролирует сама система. Неактивные приложения могут быть выгружены из памяти в любой момент, чтобы освободить ресурсы для той задачи, с которой работает пользователь. Разработчики должны сами позаботиться о том, чтобы пользователь ничего не заметил, и использовать для работы в фоне специальные программные интерфейсы.
Хотя результат далёк от идеала, он всё же впечатляет. Мобильные устройства ухитряются реагировать на команды пользователя (или хотя бы создавать иллюзию реакции) шустрее, чем многократно более мощные персональные компьютеры.
В основе любой современной мобильной платформы лежит одна из операционных систем, которая используется на обычных персональных компьютерах, — Linux, BSD или даже Windows. Разница — в дополнительном уровне абстракции, снимающем с пользователя заботы о частностях.
Одна из таких частностей — это файлы. Строить многоуровневую иерархию каталогов и раскладывать по ним документы — это задача, которая была по силам инженерам или учёным, работавшим с вычислительными машинами в прошлом. Однако она превышает и потребности, и возможности сотен миллионов неспециалистов, использующих компьютеры теперь. Это подтвердит каждый, кто видел ПК, хотя бы пару месяцев истязавшийся далёким от техники человеком.
В недрах iOS или Android по-прежнему есть файлы, однако они скрыты от пользователя. Доступ и обмен ими отдан на откуп приложениям. Текстовый редактор найдёт, покажет и откроет текстовые документы, которые редактировались с его помощью, а не отправит пользователя в путешествие по всему диску. Музыкальный плеер продемонстрирует фонотеку и позаботится о том, чтобы музыка не оказалась перемешана с фильмами и книгами, — для них есть свои программы. Немного жаль лишаться иерархии каталогов, но приличный поиск и богатые метаданные её неплохо заменяют.
Приятный побочный эффект подобного подхода — исчезновение раздражающего понятия «несохранённый файл». Заставлять пользователя вручную сохранять данные — ещё один атавизм, сохранившийся с тех грустных времён, когда диски были маленькими и очень медленными. Сейчас большинства типов документов можно сохранять и восстанавливать за долю секунды — и не просто так, а во всех возможных версиях. Так почему бы не делать это?
Аппаратная основа компьютеров тоже меняется, и хотя эти изменения кажутся менее существенными, для порядка их тоже стоит перечислить.
Главное отличие, из которого вытекает всё остальное, — изменение приоритетов. Если в прошлом главным показателем была производительность, то теперь фокус переместился на энергопотребление.
В Intel ухитрились проворонить момент, когда это произошло, и до сих пор за это расплачиваются. Инициативу перехватила британская компания ARM, разрабатывающая схемы процессоров, которые могут дорабатывать и использовать другие производители (тут прослеживается занятная аналогия с Google, который эксплуатирует похожую модель при разработке Android). Процессоры ARM с самого начала стоили многократно дешевле, чем процессоры Intel, и при этом потребляли меньше энергии. Для того чтобы соперничать с процессорами Intel на равных, им недоставало производительности.
Нарастить производительность ARM оказалось гораздо проще, чем понизить энергопотребление x86. Для решения этой задачи в Intel было создано специальное подразделение, которое получило небывало широкие полномочия, но всё не впрок. Его продукт — платформа Medfield — пока не оказал заметного влияния на рынок, а ARM тем временем полностью занял гигантский рынок планшетов и смартфонов и уже покушается на ноутбуки.
Параллельно происходит медленный, но неотвратимый переход с жёстких дисков на твердотельные накопители. Его несколько тормозит относительно высокая стоимость флэш, но это ненадолго. Флэш дешевеет на глазах, и через пару лет вопрос цены будет окончательно снят. Третий процесс, вписывающийся в тот же ряд, — постепенная гибель физических носителей данных. DVD, вопреки ожиданиям, заменил интернет, а не более ёмкие диски Blu-Ray.
Как можно говорить о новом поколении компьютеров, если в примерах фигурируют преимущественно мобильные устройства? Или автор имеет в виду, что компьютеры следующего поколения — это ограниченные планшеты наподобие iPad, лишённые клавиатуры и мыши и непригодные для «серьёзной работы»?
Разумеется, нет. Ограничения мобильных устройств стали идеальной питательной средой для развития этих тенденций, но одними айпадами дело не ограничится. Наработки, впервые испытанные в iOS и Android, в какой-то форме проникнут и в более традиционные ПК. Собственно говоря, этот процесс уже начался: элементы перечисленных идей появляются в OS X и некоторых вариантах Linux, не говоря уже о Windows 8.
Нужно осознать, что многие особенности, прослеживающиеся в современных мобильных устройствах, — это не досадное искажение привычного подхода, а нечто совершенно новое. Повернуть вспять и обойтись без них не выйдет. Это, возможно, не самый приятный вывод, но ничего не поделаешь: надо привыкать. Смена поколений редко бывает безболезненной.
Опубликовано 14 февраля 2013
Новые программы освоения космоса требуют разработки более совершенных двигателей. Конструкторам всегда хотелось уменьшить их массу, увеличить тягу и повысить экономичность. Сейчас это стало не простым стремлением сделать лучше, а необходимым условием для будущих пилотируемых миссий и доставки научной аппаратуры к другим планетам в разумные сроки. Какие технические решения выглядят заманчиво в отдалённой перспективе, а какие реализуются прямо сейчас?
С движением мы сталкиваемся ежедневно и привыкли к нему настолько, что не слишком задумываемся о его природе. В обычных условиях всегда есть какая-то среда и возможность взаимодействовать с ней. Ноги и колёса автомобиля отталкиваются от твёрдой поверхности дороги, гребной винт лодки увлекает воду, а турбина самолёта – воздух. Отсутствие привычной среды в космосе не даёт столь богатых возможностей.
Единственный освоенный принцип движения космических аппаратов (КА) был и остаётся прежним: реактивная струя выбрасывается в одну сторону, создавая тягу в противоположном направлении. Вся соль в том, из чего формируется и что представляет собой сама реактивная струя.
Независимо от типа в ракетных двигателях «рабочим телом» принято называть то, что покидает сопло на большой скорости. Для разгонных блоков ракет-носителей это продукты сгорания топлива, для ионных двигателей спутников – ионизированный газ. Во всех случаях время работы двигателя ограничено имеющимся на борту запасом вещества, используемого при создании реактивной тяги.
Для вывода спутника на орбиту Земли и отправки автоматических межпланетных станций (АМС) за её пределы двигатель ракеты-носителя должен обеспечить тягу в сотни и тысячи килоньютон, но ему достаточно проработать несколько минут. Самим космическим аппаратам вне гравитационного поля планеты достаточно тяги в доли ньютона, но эксплуатироваться их двигатели будут годами. Пока даже на одном КА приходится использовать несколько разных типов двигателей в качестве маршевых и корректирующих, но всё может измениться.
Недавно в рамках проекта HyperV были собраны через Kickstarter средства на доработку импульсного плазменного двигателя. В качестве рабочего тела сгодятся практически любые газы. Сам двигатель обещает быть гораздо дешевле в производстве и эксплуатации, чем имеющиеся аналоги.
Главное преимущество заключается в универсальности. За счёт регулирования соотношения тяги к удельному импульсу один двигатель можно использовать для разных задач.
Ядерные двигатели разрабатываются с пятидесятых годов прошлого века и актуальны до сих пор. Изначально их предполагалось делать импульсными – ядерные взрывы малой мощности должны были придавать ускорение огромному космическому кораблю. Грандиозный проект Orion был рассчитан на пилотируемую миссию с командой в 200 человек, но его так и не удалось воплотить по техническим и экономическим причинам.
Позже предпочтение отдали менее экстремальному режиму работы ЯРД – реактивному, в котором ядерный реактор используется для контролируемого нагрева рабочего тела. Следующий проект (Daedalus) предполагал строительство на орбите Юпитера автономного зонда. Аппарат длиной почти в полкилометра должен был разогнаться термоядерными ракетными двигателями и достичь через 49 лет звезды Барнарда в созвездии Змееносца. Проект был свёрнут в 1977 году из-за недостаточных знаний об устройстве Солнечной системы вблизи её внешних границ.
В конце восьмидесятых NASA вернулось к идее межзвёздных полётов космических кораблей. Проект Longshot выглядел более реалистично и основывался на использовании лазерно-термоядерного двигателя. В качестве цели была выбрана звезда альфа Центавра B. Время полёта увеличилось до века, а миссия не предполагала возвращения. В отличие от проекта Daedalus, Longshot опирался преимущественно на существующие, а не на перспективные технологии. На последнем этапе стало очевидно, что кораблю потребуется порядка 264 тонн смеси гелия-3 и дейтерия, которых получить в таких количествах ценой разумных затрат не удастся.
Несмотря на серию неудачных проектов, ядерные ракетные двигатели не теряют актуальности. Глава Роскосмоса Владимир Поповкин сообщил в интервью «Российской газете», что опытный образец ядерной установки мегаваттного класса для межпланетных полётов появится в России в 2017 году.
Проведение стендовых испытаний ядерного реактора запланировано в Сосновом Бору Ленинградской области. По сравнению с прямоточным ядерным двигателем температура нагрева рабочего тела должна снизиться до 1500 градусов, а создаваемая реактивная струя не будет радиоактивной. Второе свойство позволит использовать двигатель уже на ранних этапах полёта без риска радиационного загрязнения атмосферы Земли. Подобная программа NASA «Прометей» была закрыта в 2006 году из-за недостаточного финансирования.
Другим многообещающим проектом является разработка электромагнитного ускорителя с изменяемым удельным импульсом (в англоязычной литературе – VASIMR). Рабочее тело (аргон) ионизируется радиоволнами, и полученная плазма затем разгоняется в электромагнитном поле, создавая реактивную тягу.
Впервые появившись в 1979 году, идея стала по-настоящему революционной и сейчас близка к воплощению. Такой двигатель был бы крайне востребован в системе орбитального и межпланетного транспорта. Для начала «космический буксир» мог бы перемещать многотонные грузы между орбитами Земли и Луны. Модель VASIMR VF-200 производства Ad Astra Rocket Company планируется разместить на борту МКС.
Макет двигателя VASIMR VF-200-1 представлен в ролике ниже.
В конце 2012 года профессор Академии наук Китая Ян Цзюань представила перевод своей статьи, описывающей прототип уникального электромагнитного ракетного двигателя. На бумаге он выглядит гораздо интереснее имеющихся сегодня ионных двигателей хотя бы потому, что не требует расхода рабочего тела, но в этом и главная причина сомнений. Совсем недавно о таком типе электрического ракетного двигателя можно было только мечтать.
В отличие от всех иных типов ракетных двигателей, здесь ускорение должно достигаться за счёт направленного микроволнового излучения. О том, что электромагнитные волны создают давление, было известно ещё со времён Максвелла, однако описание принципов работы EmDrive вызывает множество вопросов.
Образно говоря, такой двигатель похож на микроволновку, к которой добавили резонирующую полость в виде замкнутого усечённого конуса. По идее, излучаемые микроволны оказывают давление на внутреннюю полость, которое не компенсируется только в одном направлении. Так (по мнению госпожи Цзюань) у EmDrive возникает реактивная тяга.
К сожалению, такой принцип работы EmDrive вызывает множество сомнений и напоминает печальный опыт установки экспериментального «движителя без выброса реактивной массы» на спутник «Юбилейный» в 2008 году.
Радует то, что EmDrive хотя бы не относится к пресловутым инерциоидам – типу устройств, работоспособность которых без взаимодействия с внешней средой невозможна. Сомнения касаются и большинства заявленных характеристик. Помимо того что в сравнении с лучшими ионными двигателями EmDrive обещает обеспечить больший срок службы, декларируется примерно в десять раз меньшая масса при той же мощности и большей (720 мН) тяге. Подробнее об истории разработки EmDrive смотрите статью Евгения Золотова.
При исследованиях дальнего космоса энергию для EmDrive, скорее всего, будут вырабатывать привычные модули РИТЭГ. Во внутренней области Солнечной системы (условно – до главного пояса астероидов) можно ограничиться солнечными батареями. Срок автономной работы КА с электромагнитным двигателем и солнечными батареями будет практически ограничен только износом, так как у него на борту нет расходуемых компонентов.
Опубликовано 13 февраля 2013
В Южной Корее создана система для беспроводного питания транспортных средств во время движения. Совместная разработка Института науки и технологий (KAIST) при участии Корейского железнодорожного исследовательского института (KRRI) обеспечивает непрерывное питание электродвигателя мощностью до 180 кВт. Беспроводная передача энергии осуществляется на частоте 60 кГц.
Путь от концепта OLEV (On-line Electric Vehicle) до коммерческого релиза занял три года. Ранний прототип работал на частоте 20 кГц и справлялся с нагрузкой 100 кВт – этого уже было достаточно для питания городского автобуса или трамвая. Этап доработки включал задачи повышения КПД, увеличения дистанции передачи энергии до 20 см и приведения параметров в соответствие с местными нормативами.
В июле 2013 года первый автобус с электродвигателем и схемой постоянной бесконтактной зарядки поедет по внутреннему маршруту города Гуми. Для нас этот город примечателен тем, что в нём выпускаются телефоны Samsung, ориентированные на российский рынок.
Опубликовано 13 февраля 2013
Самодельный магазин на 30 патронов — таков ответ американца Коди Уилсона на последнюю волну запретов и протестов против огнестрельного оружия. Слегка цинично Коди назвал свою конструкцию «магазином Куомо», по фамилии нью-йоркского губернатора, прославившегося недавно введением самого жестокого в США свода законов об огнестрелах на гражданке.
Тема больная, что и говорить: есть мнение, что современные — скорострельные, многозарядные — полуавтоматические конструкции имеют мало общего с самозащитой (см. «Больше пушек, хороших и разных»). Но в данном случае интересно не столько само оружие, сколько то, как оно было изготовлено. Уилсон — криптоанархист, получающий сейчас юридическое образование — напечатал свой автоматный рожок на 3D-принтере, а его цифровую модель свободно распространяет через организованную (и легально зарегистрированную в Техасе) им же некоммерческую организацию Defense Distributed (ранее известное как Wiki Weapons). Конечная цель: создание огнестрельного оружия, которое можно было бы полностью изготовить с помощью 3D-печати.
Несмотря на то что полностью печатный огнестрел по-прежнему существует лишь в воображении энтузиастов (подробнее см. августовскую «Как напечатать винтовку»), работа Уилсона и его единомышленников знаменует собой важный качественный прорыв. Ещё год назад общество не знало, как отнестись к идее напечатанного оружия, а сегодня чётко разделилось на сторонников вроде Уилсона, организованно составляющих цифровую ганз-библиотеку, и противников, в число которых попали все без исключения производители массовых 3D-принтеров. Законы в Штатах модификацию оружия для личных целей не запрещают, так что конфликт пока развивается, так сказать, в частном порядке.
И это лишь один из трендов, связанных с 3D-печатью: зародившиеся в последние пару лет, сейчас они дружно переходят в фазу реализации. Так, например, проблема авторских прав на трёхмерные модели, остававшаяся до последнего времени чисто теоретической, буквально на днях показала себя во всей красе. Журналисты Wired, изучая одну из многочисленных торговых площадок для печатного 3D-контента (3DLT.com), столкнулись с фактом массового пиратства. Проще говоря, тёмные личности торгуют через 3DLT чужими «украшениями», «предметами интерьера» и прочим подобным (то есть, конечно, не самими предметами, а файлами для 3D-принтеров). А поскольку технических средств для управления правами (DRM) на такой контент ещё не существует, происходящее здорово напоминает начало нулевых и проблему цифровой музыки: теперь, пока дизайнеры и законодатели не наработают способы защиты 3D-материалов, их моделями будут торговать и меняться без спросу все, кому не лень.
Рынок 3D-печатных устройств тем временем продолжает расширяться. Как раз в эти дни Cubify (подразделение гиганта 3D Systems) выпускает вторую модель ориентированного на домашних пользователей принтера Cube (от 1300 долларов, скорость и точность выше по сравнению с прошлогодней моделью). FormLabs, собравшая на Kickstarter почти 3 миллиона долларов и пережившая иск от 3D Systems, запускает полномасштабное производство своего Form 1 — уникального аппарата для малого бизнеса, дающего недостижимую для других моделей точность (толщина слоя всего 25 микрон достигается благодаря использованию стереолитографии вместо наплавления пластика). Только что провела IPO компания ExOne, специализирующаяся на промышленных 3D-принтерах, а акции 3D Systems попали в список самых успешных инвестиций 2012 года. И плодятся, плодятся проекты дешёвых устройств (начиная от 400 долл.): одни, как PrintrBot, уже продаются, другие, как DeltaMaker, только начинают сбор средств.
Так что внешне картина более чем благополучная. Но за ярким фасадом кроется неприглядная изнанка, которую тоже начинают обсуждать аналитики. Обобщая, можно сказать так: голубая мечта столкнулась с рыночными реалиями — и результат оказался совсем не сказочным.
Корреспондент Bloomberg недавно заглянул в финансовые отчёты крупнейших 3D-вендоров — Stratasys и уже знакомой вам 3D Systems и выяснил, что эти компании тратят неадекватно мало на перспективные исследования (то, что у нас называют НИОКР, а на Западе — R&D). Реинвестировать значительную часть прибыли в изучение такой перспективной, набирающей популярность технологии, как 3D-печать, кажется естественным и даже необходимым. Но почему же этого не делается?
Тому есть два вероятных объяснения. Во-первых, «мелочь» вроде MakerBot и нашего отечественного СКБ Кипарис (см. «Такой домашний 3D-принтер»), собирающая бюджетные принтеры для дома и малого офиса, почти не пересекается интересами со Stratasys и другими немногочисленными гигантами. Последние продают дорогие, высокоточные, многофункциональные 3D-печатные машины для промышленного применения — и пока ещё наслаждаются ролью монополистов. Нет смысла бежать впереди паровоза, особенно если паровоз — ты сам.
Во-вторых, для 3D-печати нет своего закона Мура. Тут ситуация схожа с аккумуляторами (см. «Батарейка тяжёлая!»), которые пребывают в стагнации последние два десятилетия. Продвижение вперёд здесь уже ограничено законами физики: наплавление пластика или отверждение слоёв из раствора требует некоторого времени, что, в свою очередь, ограничивает скорость движения печатной головки и площадки с формируемым объектом (подробнее см. статью для «Бизнес-журнала», «Печать реальности«). Пожалуй, глупо полагать, что прорыв на этом направлении невозможен: наверняка отыщутся химические процессы быстрее. Но на поиски нужны или большие силы, или большие деньги. Ни того ни другого пока нет: гиганты 3D-печати, как вы уже знаете, прижимисты, а мелкие производители пока больше увлечены минимизацией стоимости самого принтера, нежели увеличением скорости или точность печати.
Куда можно направиться отсюда? Прежде всего, в сторону удешевления расходных материалов, которые (по некоторым оценкам) можно продавать на порядок дешевле от существующих цен. Высокая цена 3D-картриджей — следствие неэффективности, узости рынка. Так же как для обычных принтеров расходники давно уже производят безымянные фирмочки из Китая, сырьё для 3D-печати может и должно производиться «на стороне». Да, производителей здесь поджидает та же проблема, что и в случае с краской для обычных принтеров: вендоры 3D-машин рекомендуют использовать только свои, сертифицированные расходники. Но игра стоит свеч. Уже сегодня прибыль вендоров 3D-принтеров примерно наполовину состоит из продажи собственно расходных материалов. Со временем доля расходников будет только расти.
Другое перспективное направление — собственно технологии печати. Не думайте, что это тема для корпораций с миллионными бюджетами. Свои 3D-принтеры несовершеннолетние энтузиасты уже собирают на коленке, из кубиков Lego. Самое время начать экспериментировать с новыми материалами. К примеру, не первый год ведутся разговоры о печати съедобными веществами (шоколад, сыр), но доведённых до стадии продукта устройств, на такое способных, всё ещё нет.
Бонусом мозгового штурма станут примеры применения 3D-печати для создания реально полезных вещей. Ведь фурор произвёл не только 30-зарядный магазин Коди Уилсона. Западная пресса, например, увлечённо обсуждает сейчас Robohand — свободно распространяемый протез человеческой руки, сконструированный американцем и южноафриканцем из чистого энтузиазма. Robohand стоит на порядки дешевле промышленных прототипов, в том числе и потому, что смоделирован он с помощью свободного софта, а изготавливается почти полностью на 3D-принтере.
Замечательная работа и — ещё один пример в копилку практически полезных применений трёхмерной печати. Ведь мы по большому счёту всё ещё не знаем, на что она годна.
Опубликовано 11 февраля 2013
Европейская комиссия выбрала проект моделирования работы головного мозга человека на суперкомпьютере как один из наиболее приоритетных для науки. Руководитель проекта – невролог Генри Маркрам (Henry Markram) из Швейцарского федерального технологического института в Лозанне получит на его реализацию 0,5 млрд. евро. Такой же объём финансовых средств на протяжении десяти лет внесёт в его развитие сам институт и частные компании. Чего ожидать от столь масштабной инициативы. и какова её техническая сторона? Своё профессиональное мнение высказал нейрофизиолог, кандидат медицинских наук Алексей Николаевич Долецкий.
- На сайте проекта Human Brain указывается, что это попытка объединить и учесть в одной сверхсложной модели все известные данные о работе мозга. Насколько это возможно сделать сегодня?
- Моделирование работы мозга никогда не включало в себя именно последние данные исследовательских работ. Использовались только многократно проверенные и не вызывающие сомнений сведения. Проходит немалое время, пока результаты новых экспериментов получат подтверждение и признание в научном мире. Затем это описывают математики и воплощают в алгоритмах программисты, другие адаптируют и запускают программный код на конкретном железе. Это очень долгий процесс, поэтому отставание компьютерных моделей мозга от современных представлений о нём всегда составляло несколько лет.
- В чём сейчас заключаются основные проблемы моделирования работы мозга?
- При попытке формализовать и описать на программном уровне известные особенности функционирования мозга затруднения возникают буквально на каждом шагу. Со времен Ходжкина и Хаксли многое изменилось. Даже такая простейшая (казалось бы) вещь, как ионный транспорт через клеточную мембрану, продолжает удивлять. Если раньше просто говорили «калиевый канал», то сейчас выделяют множество подтипов нейрональных калиевых каналов и указывают даже на возможность конверсии разных ионных каналов друг в друга. В чём физиологическая роль такого многообразия и как происходит преобразование – толком неизвестно. По каким алгоритмам это моделировать, тем более.
- Иными словами, даже обладая солидной вычислительной мощностью, всё равно придётся сильно огрублять описание физиологических процессов, исходить из множества предположений?
- Безусловно. К тому же сами принципы работы мозга ближе к таковым в аналоговых устройствах, а его пытаются описать в рамках чёткой логики цифровых систем, искусственно привнося поливариантность. Если коснуться частностей, то помимо хорошо известного свойства гистерезиса (зависимости отклика нервной системы от реакции на предыдущие раздражители) можно ещё вспомнить работы Натальи Петровны Бехтеревой. Она показала, что нейромедиаторы могут влиять также и на близко расположенные синапсы. В технике ближайшей аналогией являются паразитные наводки или токи утечки, с которыми всячески борются, а мозг с этим работает – это его нормальное состояние.
В ролике ниже представлена компьютерная анимации работы нервной системы и синаптической передачи.
Стоит оговориться, что в проекте Human Brain смоделировать пытаются всё же работу не всего головного мозга, а только его самой эволюционно молодой части – неокортекса. Пока исследователи вынуждены технически ограничиваться имитацией работы единичных структурно-функциональных элементов коры больших полушарий ГМ – шестислойных нейронных колонок.
Тот факт, что наш мозг (точнее, новая кора) имеет модульную структуру, был впервые подмечен венгерским физиологом Яношем Сентаготаи. Впоследствии он основал школу нейрогистологии. Как раз гистологи и подтвердили структурную повторяемость элементов неокортекса.
- Доводилось слышать мнение о том, что даже чисто морфологически неокортекс – довольно динамичная структура. Каждый нейрон связан с несколькими (от десятка до десятков тысяч) других. Как меняется число и характер взаимосвязей на протяжении жизни? Как это учесть в будущей модели?
- Мне ближе мысль о том, что морфологически число связей остаётся постоянным, а изменения в течение жизни носят функциональный характер. Если у нейрона десять тысяч связей с другими, это вовсе не значит, что он постоянно их все использует. Опять же, мы без особых проблем можем увидеть эти связи структурно, а исследовать их на функциональном уровне куда сложнее.
Свойство модульности новой коры крайне упрощает задачу моделирования работы мозга. Победе в конкурсе мега-грантов Швейцарский институт во многом обязан предыдущему проекту Blue Brain, который стартовал в июле 2005 года при поддержке IBM.
К концу 2007 года были объявлены первые результаты. Используя суперкомпьютер серии Blue Brain c восемью тысячами процессоров и программное обеспечение NEURON, исследователям впервые удалось создать на основе биологических данных модель одной нейронной колонки неокортекса крысы. У человека их счёт идёт на миллионы.
Другой важной особенностью Blue Brain является то, что компьютерная симуляция могла автоматически проводить проверку и калибровку перед каждым тестом. Иначе очередной эксперимент всегда проходил бы под влиянием предыдущих.
- Часто можно услышать мнение о том, что число микротранзисторов в многопроцессорных компьютерах уже сопоставимо с общим числом нейронов в коре больших полушарий мозга. Насколько вообще корректно такое сравнение?
- Оно очень обманчиво. В том же проекте Blue Gene работа одного нейрона с трудом моделировалась одним процессором с миллионами микротранзисторов. Вдобавок отдельными алгоритмами описывались особенности синаптической передачи и свойства нервной ткани в целом.
- Какое значение Human Brain может иметь для решения задач в области искусственного интеллекта?
- С трактовкой термина «искусственный интеллект» до сих пор есть некоторые разногласия. Под ним понимают как программу, максимально точно имитирующую процесс мышления человека (сильный ИИ), так и наборы умных алгоритмов для выполнения отдельных узкоспециализированных функций (слабый ИИ). Специалисты обычно подразумевают второе – например, распознавание образов или выработка стратегии игры в шахматы, а сценаристы – первое (SkyNet, VIKI, GLaDOS).
- Можно ли сказать, что, безотносительно конкретной области применения ИИ, задача сводится к тому, чтобы научить его адекватно (то есть желаемым для нас образом) реагировать на раздражители? Самостоятельно учиться делать это с каждым разом лучше и прогнозировать изменение ситуации в будущем по предшествующему и текущему состоянию?
- В конечном счёте, да. Для «слабого» ИИ некоторая замкнутость и узкая специализация – разумное ограничение, но модели «сильного» ИИ требуют иного подхода. Они пытаются имитировать работу мозга, а он постоянно получает извне поток различных сигналов для анализа. Его модель также должна быть открытой, способной корректно обработать или хотя бы отфильтровать сигнал, не предусмотренный разработчиком.
При распознавании текста «умная» программа преобразует определённую посимвольно последовательность «$e$quIpedal0ph0bia» в слово «sesquipedalophobia». В отличие от человека, у неё не может быть боязни длинных слов. Также она не способна догадаться о том, что это был ваш пароль и его не надо было видоизменять.
Другой пример — программа автономного управления беспилотником. Компьютер дрона управляет рулями высоты, ориентируясь на показания альтиметра (и ещё кучу параметров). Что произойдёт, если определяемые значения высоты во время полёта вдруг станут нулевыми, отрицательными или невозможно большими? В программе классического компьютера возникнет сбой, а ИИ должен распознать ошибку и проигнорировать ложные данные.
- Насколько можно судить сейчас, создаваемая в проекте Human Brain модель будет учитывать необходимость открытости?
- Ещё до получения финансирования они указывали на то, что платформа neurorobotics позволит опробовать полученные модели для автономного управления разными роботами. Думаю, благодаря им модель в итоге и получит набор сенсоров и постоянный поток внешних сигналов.
- Новый проект Human Brain оценён в миллиард евро и десять лет работы многих специалистов. Используемый в нём компьютер наверняка войдёт в первые строки рейтинга TOP 500. Всё это ради грубой модели работы пары нейронных колонок?
- На большее пока трудно рассчитывать, но это очень важный шаг. Сейчас мы более-менее осведомлены о структуре коры головного мозга (дошли уже до молекулярного уровня), но при этом имеем очень поверхностные представления о том, как это всё функционирует. Только не надо думать, что если сейчас мы смоделируем две нейронных колонки, то через десять лет осилим сотню – здесь более сложная зависимость.
Помимо очевидной роли в области нейрофизиологии, такая модель требуется для понимания механизма развития психических заболеваний и разработки принципов их объективной классификации. Также она позволит проводить первичный скрининг активных компонентов будущих фармацевтических препаратов и более эффективно решать задачи в области искусственного интеллекта.
Опубликовано 11 февраля 2013
Под конец прошлой недели на западных форумах и в прессе разгорелся самый настоящий скандал вокруг одного из ключевых элементов планшетки Microsoft Surface Pro. Вы, конечно, слышали об этом устройстве, только что поступившем в продажу: это вторая модель линейки Surface — с процессором x86, обычной MS Windows 8, а потому конкурирующая больше с ультрабуками, нежели с представителями планшетного ряда. Критиков и потенциальных покупателей зацепило поразительное нежелание Microsoft назвать точное время автономной работы новинки. Ни в спецификациях, ни даже на «допросе с пристрастием», устроенном одному из высших лиц корпорации читателями популярного техноресурса Reddit, точной цифры не прозвучало.
Ничего удивительного: в независимых тестах Surface Pro работает от одного заряда батареи около 4 часов — что, скажем прямо, явно недостаточно для топовой, суперсовременной железки, предназначающейся для серьёзных задач. Это, правда, близко к показателям MacBook Air, с которым Microsoft своё новое детище пытается равнять. Но проблема даже не в том, какие устройства Surface Pro превосходит, а каким уступает. Проблема — общая для всех вендоров и любого железа — в том, что вот уже третье десятилетие аккумуляторные батареи топчутся на месте. Не процессоры, не память, не коммуникации стали главным тормозом электроники и техники вообще. Батарейка!
Сегодня именно габариты и возможности аккумуляторных батарей определяют внешний вид и верхнюю границу функциональности всех мобильных устройств, начиная от телефонов и заканчивая носимыми компьютерами. Именно батарея занимает в таких устройствах наибольший объём, и именно с ней приходится «химичить» больше всего — и в прямом, и в переносном смысле, вгоняя конструкцию в запланированные вес и габариты. Батарею лишают оболочки, делают мягкой, совмещают с клавиатурой и корпусом. Но, увы, чем активней эксперименты на изыскательской стадии, тем чаще аккумуляторы становятся причиной головной боли на стадии потребительской. Перегрев, самовозгорание, взрывы аккумуляторных батарей попортили немало крови Apple и сегодня портят её же Самсунгу (вы уже слышали про взорвавшийся Galaxy Note?). И новейший воздушный флот Боинга приземлён по той же самой причине.
Проблема везде одна и та же: литий-ионная технология. Презентованная в начале 90-х годов прошлого века и к настоящему моменту ставшая стандартом де-факто в аккумуляторном мире, она не подчиняется закону Мура. Для неё нет приятной эмпирической зависимости, которая постулировала бы, скажем, удвоение ёмкости каждые полтора года. Литиевые батареи работают в телефонах, в планшетках, ноутбуках, в электромобилях и самолётах, и везде одно и то же: химические компоненты токсичны, активны и пожароопасны; имеют свойство сильно расширяться при нагреве (то есть в периоды высокой нагрузки и заряда), требуют прочной оболочки, средств аварийного сброса давления; не допускают размещения на гибкой подложке и уменьшения толщины ниже определённого предела. Плюс ко всему — плохая переносимость отрицательных температур, сравнительно короткий срок службы и, наконец, высокая цена.
Доведя ресурс литий-ионной технологии до физического предела, мы всё чаще сталкиваемся с её непредсказуемым поведением. Малейшая неувязка способна выбить такую батарею из эксплуатационных норм: ну нет у неё больше запаса прочности! Слышали, как пользователи iPhone жалуются на iOS 6.1? Мелкая ошибка в операционной системе приводит к разряду батареи чуть быстрее запланированного — и делает смартфон бесполезным. А аккумуляторы на Боинг-787? Судя по отзывам экспертов, никаких фатальных конструктивных дефектов в них нет: просто режим работы оказался слегка отличающимся от расчётного — и это превратило батарею в потенциальную бомбу. И Airbus уже подумывает отказаться от Li-Ion в пользу более старых, но и менее опасных технологий накопления электрической энергии.
Но если литий-ионные батареи так неустойчивы, почему же они так популярны? Парадокс объясняется просто. Дело, во-первых, в том, что по совокупности качеств Li-Ion лучше других вписывается в эксплуатационные требования, предъявляемые современной техникой. Скажем, в микроэлектронике такие батареи обеспечивают как минимум день работы, отсутствие так называемого эффекта памяти (свойственного никель-металл-гидридным элементам), умеют быстро подзаряжаться и служат около трёх лет — срок, за который большинство мобильных устройств устаревает и морально, и технически. И, во-вторых, вариантов нет: в то время как сама электроника движется вперёд, аккумуляторы топчутся на месте. Ничего лучше Li-Ion для массового рынка пока не придумано, несмотря на то что альтернатива нужна и микроэлектронике, и автопрому, и авиастроению, и даже энергетике (где растёт потребность в локальных системах хранения электричества, см. «Элон Маск и его Солнечный Город»).
Образно выражаясь, ситуация с аккумуляторами напоминает сейчас большой барьер, у которого скопилась масса народу. Десятки, если не сотни научных групп по всему миру пытаются преодолеть его, работая по множеству направлений. Большинство обнадёживающих новостей уже привычно приходят из Северной Америки. Американская Imprint Energy заменила литий цинком, благодаря чему аккумулятор можно делать сверхтонким и гнущимся (вплоть до сотен микрон на плёночной подложке). В университете Кеттеринга в Канаде сделали ставку на алюминий, надеясь и по ёмкости, и по цене, и по безопасности обойти литий-ионные батареи. В Лаборатории Оак-Ридж от лития отказываться не стали, но экспериментируют с наночастицами, применение которых позволяет поднять на порядок ёмкость и уменьшить пожароопасность. Так же и стартап Seeo, поддержанный в том числе Google, ставит на Li-Ion, но с менее опасным электролитом и более лёгкой и дешёвой конструкцией электродов. И даже само американское Министерство энергетики выделило 120 млн долларов на амбициозный проект с целью «5-5-5″: за пять лет сделать аккумуляторы впятеро мощней и впятеро дешевле.
Я не искал специально, а попросту надёргал сообщений из свежих новостных лент. Но можете мне поверить, такая картина в новостях каждый день на протяжении как минимум уже нескольких лет. Разработок много, они выходят из лабораторий или близки к этому — и ничего удивительного, что оптимисты смотрят в будущее уверенно. Например, уже упоминавшийся Элон Маск заинтересован в прорыве «аккумуляторного барьера» чуть ли не больше любого другого предпринимателя на Земле: Маску принадлежат успешные космический (SpaceX, см. «Первые на орбите»), автомобильный (Tesla Motors, см. «Как сломать Tesla Roadster») и солнечно-энергетический бизнесы — и везде нужны ёмкие, безопасные, дешёвые аккумуляторы. Так вот, Маск уверен, что в ближайшие десять лет аккумуляторный мир ждёт резкое падение цен, и это спровоцирует новую техническую революцию, которая перетряхнёт микроэлектронику, автомобильную, авиа-, космическую промышленность до самых основ.
Интрига в том, что ни Маск, ни кто-либо ещё, конечно же, не знают, ни где именно произойдёт прорыв, ни кто его устроит. И в этом смысле удивляет полное отсутствие новостей из российских институтов. Пусть мы отстали в коммерческом ракетостроении, но химия электролитов не выглядит неподъёмной задачей даже для небольших научных групп. Тем более что задача эта — достойная по всем параметрам. Так почему за неё не берутся наши студенты, наши аспиранты?
В статье использована иллюстрация Razor512
Опубликовано 11 февраля 2013
Побывал на робототехнической международной конференции в Сколково. Одна из целей организаторов, как я понял, была в наглядной демонстрации разрыва между отечественными вузовскими робототехническими поделками и иностранными. Для этого были приглашены крутые западные спецы, рассказавшие о своих достижениях, а всё действо происходило совмещённым с выставкой отечественных достижений. Цель была достигнута: сравнивать было просто нельзя, и я очень надеюсь, что это позволит многим и многим нашим вузовским и эээ… стартаповским людям задуматься над своим действительным местом в мире. Может, после этого размышления и получится создать что-нибудь действительно конкурентоспособное, а не по принципу «на безрыбье и ардуино робот».
Мне запомнилось два высказывания:
Беседы на выставке расстроили. Каждый спец видит не столько хоть какую-то технологическую цепочку, сколько просто одну собственную операцию на ней, да и делает её не слишком хорошо. Гонка за зарубежными роликами из Youtube в попытках повторить хоть что-нибудь, но подешевле. Исключения были редки. Можно сделать скидку на то, что демонстрировались работы студентов. Но где тогда работы их профессоров?!
Услышал много разных баек о том, как всё у нас в России плохо, и с образованием, и с производством. Байки добротные, с разящими наповал примерами. Но кого сейчас этими байками удивишь? Так что даже не буду пересказывать.
Пример того, как роботы с таким подходом могут существенно ухудшить жизнь, показал гардероб Гиперкуба Сколково. Двое гардеробщиков со временем обслуживания одного человека в пятнадцать секунд (семь секунд дойти до свободного крючка, одна секунда повесить, семь секунд на возвращение к очереди) безо всякой автоматизации в Гиперкубе Сколково стали «операторами гардероба» на суперпупернавороченном электрифицированном компьютеризированном гардеробе, где бирка с микросхемой запоминает номер вешалкоместа на хитрой двухэтажной моторизированной системе этих вешалок. В итоге — огромная очередь там, где её могло бы не быть. На входе все только удивлялись такой системе, осматривались, и оценки новшества были осторожными. Но на выходе, когда «оператор гардероба» засовывал карточку-бирку в компьютер, и этот вешалочный конвейер начинал греметь цепями 40 секунд, чтобы подать тебе твою одёжку, стёб по поводу этой показной «роботизации» стоял откровенный.
Интересно было поговорить с Gary Bradsky, который пытался настаивать только на одной теме разговора: разработка системы, которая надёжно распознаёт руки человека. Это позволит принять новые стандарты по безопасности, которые разрешат не возводить забор вокруг каждого работающего робота, что резко удешевит всю промышленную робототехнику. Он жаловался, что большинство проблем, которые они сейчас испытывают, — это не столько софтверные проблемы, именно робототехнические, сколько хардверные проблемы: управление ведётся через промышленные контроллеры, которые ужасны и сильно ограничивают (но есть резоны таки их использовать, если у вас на механической руке много приводов), распознавание объектов ведётся через промышленного (а не жуткого потребительского, как Kinect) качества 3D-оптические системы — но они просто запредельно дороги и т.д.
Его компания демонстрировала разгрузку ящиков в траке со временем на ящик шесть секунд, то есть примерно столько же, сколько это занимает у человека. На рынок они хотят выйти с четырьмя секундами, и цена будет на их «однорукого грузчика» от 100 тысяч до 150 тысяч долларов, и все будут счастливы, кроме, возможно, профсоюза грузчиков. Робототизированая разгрузка-погрузка траков (контейнеров — один чёрт) — это очень крутой прорыв. Это миллионы и миллионы рабочих мест с не самой приятной физической работой.
На конференции было предложено провести конкурс типа DARPA Grand Challenge (проезд автомобилей без водителя по бездорожью), и к нему собирались темы. Это отдельная песня — что предлагалось в качестве тем. Конкурс именно как конкурс (что нужно достичь, в чём именно соревнование) почти никто не предложил. Зато было много радетелей за нашу автомобильную промышленность: страна падшего автомобилизма должна вдруг выдать лучший в мире робот-автомобиль! Я в своём выступлении на эту тему привёл анекдот про три га картопли, которую два года назад пожрал колорадский жук. И посаженных 10 га, которые он пожрал в прошлом году. Так посадим в этом году 50 га картопли, нехай этот жук подавится! Так и наш автопром: заставим его и робот-автомобиль сделать, пусть подавится!
Я предложил две идеи такого конкурса:
Победить на конкурсе Чайковского (ладно, не в основной программе, а в специальной). Робот выходит на сцену с настоящим роялем, на котором лежат ноты. Берёт ноты и играет, художественно интерпретируя. Собственно, все составные части давно на месте: по программам интерпретации музыки проводятся соревнования, ноты прочитать — это уже коммерческий софт давно делает, а вот дальше сугубо робототехнические задачи: анализ сцен (рояль, ноты), и — главное — руки, которые должны и ноты пролистать, и само произведение сыграть с заданным уровнем выразительности. Плохо-то сыграть на рояле может и квадрокоптер, этот видеоролик мы помним. А тут нужно хорошо: люди-то между собой как раз такие конкурсы устраивают.
Нужно сделать робота-трансформера (ни в коем случае не собираемый наподобие лего, а именно «трансформер» — как в мультфильмах, который только по-разному складывается), который представлял бы собой лабораторию по физике. И победит тот, кто создаст учебный курс, закрывающий при помощи такого робота максимальный кусок программ по физике, математике и информатике (объединив эти три обычно рассинхронизированных друг с другом учебных программы в одну). Максимальный кусок — это начать в классе помладше, закончить в классе постарше, при этом закрыв по максимуму все учебные темы плюс факультативный материал.
Не буду тут обосновывать, почему нужно делать именно эти два конкурса, а не конкурс на реализацию «третьей руки для космонавта» или «снегоуборочного комбайна типа Румбы». Только замечу, что зал (полный профессионалов-робототехников, уж какие у нас есть) тепло поддержал конкурс на создание учебника робототехники. Мой же пункт «два» явно говорит: никакой отдельной «робототехники» не нужно, нужны крепкая физика, математика и информатика. Ибо в голове у дитяток укладываются только пары из этих дисциплин (физика с математикой, но без компьютера, компьютер с математикой, но без физики), а все три укладываются с трудом. Уложите все три дисциплины — и вы получите ту самую робототехнику и ещё чуть-чуть сверху. Без базовой подготовки в физике, математике, информатике никакой по-настоящему глубокий курс робототехники невозможен, или вынужденно он будет подменяться «подтягиванием» недоусвоенного ранее. Ну и будет очень специфичным и узким, а не общеобразовательным.
Источник: http://ailev.livejournal.com/1062192.html