Интервью

Елена Чуракова («Т-Платформы») о российских суперкомпьютерах Юрий Ильин

Опубликовано 01 ноября 2010 года

- Когда Т-Платформы появились на свет, и с чего они начинали?

- «Т-Платформы» образовалась в 2002 году в самом конце, в сентябре, называлась компания в ту пору «TYAN-Платформы». Изначальный замысел состоял в том, чтобы продвигать на российский рынок серверы на базе платформ TYAN. Но чрезвычайно быстро стратегия поменялась, и поменялась кардинально. Оказалось, что серверных платформ от одного поставщика мало, а кроме того, подошли к завершению некоторые исследования, которые глава компании Всеволод Опанасенко проводил касательно того, какие ниши вообще свободны на российском IT-рынке, и он посчитал возможным и необходимым развивать в России верхний сегмент рынка, который на тот момент в общем-то развит здесь не был совсем.

Так TYAN-платформы превратились в Т-Платформы, от TYAN осталась одна буква. Тогда в России верхний сегмент был очень мал — даже не уверена, что его вообще можно называть сегментом. Было несколько крупных поставок различных систем — в основном это были «супердома» и мейнфреймы IBM. Но, учитывая динамику развития аналогичного рынка на Западе и рост применения там кластерных систем, Всеволод увидел большие возможности в этой области, и, собственно, со строительства этих кластерных систем и началась наша деятельность.

В 2003 году мы уже сделали для государственной российско-белорусской программы «СКИФ» в сотрудничестве с другими исполнителями программы первый большой суперкомпьютер. Тогда это действительно был суперкомпьютер, он даже попал в Top500, правда, оказался он на 407 месте, но всё-таки для России это была крупнейшая установка, в России до сих пор такого не было.


- А для чего он создавался и применялся?

- Для каких приложений, вы имеете в виду?

- Да.

- Это хороший вопрос. В то время в программе было предусмотрено, помимо собственно создания систем, разработка и развитие нескольких параллельных приложений — тогда это было совершенно новое направление, параллельных приложений русской разработки практически не существовало . По этой программе было создано несколько десятков приложений, которые все запускались на этой машине. Направления — климат, безопасность, аэро-космические исследования, ядерная физика, обработка результатов дистанционного зондирования Земли, молекулярная химия и так далее.

Там были, скажем, такие задачи, как прогноз ветрового переноса загрязнений при лесных пожарах, там были такие задачи, как распараллеливание одной из климатических моделей, которые Гидромет использовал, — модель Лосева, предпринимались попытки использования параллельного ANSYS — пакета инженерных расчётов прочности. В частности, «КАМАЗ» симулировал столкновение кабины грузовика с препятствиями для оптимизации прочностных характеристик конструкции.

Были и весьма забавные, казалось бы, задачи — так, для белорусской легкоатлетической женской сборной проектировались бюстгальтеры: рассчитывали оптимальные характеристики упругости материала. В общем, взяли весьма широкий спектр задач.

Этих усилий, конечно, было недостаточно для того, чтобы в России немедленно появилось большое количество промышленных приложений, которые могли бы работать на параллельных машинах. Промышленные приложения разрабатывались на Западе десятки лет, они активно используются в мире, и степень их параллелизма постепенно растет. Расчет был на то, что весьма многообещающий тогда промышленный сегмент начнёт использовать эти готовые параллельные приложения и применять их для новых разработок. Процесс оказался долгим и сложным.

Для начала у нас промышленность не очень-то пользуется и обычным CAD'ом, не говоря уж о компьютерном инженерном анализе(CAE), где требуются высокопроизводительные вычисления. Не так много изделий проектируется в цифровом виде. Президент в этом году сказал: "Первый самолет, который мы выпускаем в цифре, это «Сухой Суперджет». — то есть, это одно из первых крупных отечественных промышленных изделий, созданных на основе цифровых моделей, а не на ватмане.

В общем-то даже на Западе компаниям, которые давно используют CAD и PLM, не так просто перейти на HPC (высокопроизводительные вычисления). Для того, чтобы начать использовать эти технологии, надо переделать определённым образом — и иногда очень глубоко — весь процесс R&D на предприятии. А это тяжело. Специалисты, которые владеют расчётными технологиями, растятся не один год, естественно.

Забегая вперёд, скажу, что видя эту сложность в развитии сегмента HPC, мы создали в 2009 году дочернюю компанию, которая занимается предоставлением HPC как аутсорсинговой услуги полного цикла. — Далеко не все могут позволить себе собственный суперкомпьютер, и не каждому это нужно: это достаточно дорогое оборудование и ПО, которое нужно постоянно поддерживать, апгрейдить, и TCO достаточно высоко.

Такая машина потребляет довольно много электричества, она требует больших площадей, специфической инфраструктуры, и иногда на проекте суперкомпьютерные вычисления требуются в общей сложности скажем только 3 месяца в году. Ведь процесс проектирование у людей зачастую не сразу меняется революционно — некоторые его части сильно ускоряются с помощью масштабных вычислений, если люди имеют достаточно экспертизы чтобы такую масштабную модель разработать. Цикл R&D сокращается, но во всём цикле PLM высокопроизводительные вычисления — это не 90%.

Поэтому часто люди могут выиграть от возможности арендовать суперкомпьютерные мощности вместе с прикладным ПО для CAE, когда это необходимо, и «Т-Сервисы» предоставляет такую возможность. Однако в случае «Т-Сервисов» речь идёт не только и не столько об аренде, потому что наиболее эффективно — то есть так, чтобы деньги отбивались, — этой арендой пользуются только люди, которые хорошо владеют методиками суперкомпьютерного моделированияи прикладным ПО. Поэтому «Т-Сервисы» делает полный цикл расчётов: строит модель, подбирает ПО, интерпретирует результаты анализов и предоставляет рекомендации, которые следуют из этих результатов.

- То есть в «Т-Сервисах» есть специалисты, которые глубоко разбираются во всех направлениях, которые связаны с высокопроизводительными вычислениями?

- Ну, таких компаний, в которых есть специалисты, разбирающиеся вообще во всех областях, нет, и неизвестно, когда появится. У нас есть костяк сильных специалистов, имеющих большой опыт решения инженерных и промышленных задач — это три большие сферы: гидродинамика, газодинамика и прочностные расчёты. У нас есть специалисты по этим трём направлениям. Сейчас мы развиваем био- и нанонаправления, благодаря проекту, который мы выполняем для РОСНАНО.

В рамках проекта мы должны решить не менее 40 расчетных и модельных задач, половина из которых предназначены для разработок области нано. Свою заявку на решение задачи могут подать не только промышленные предприятия, но и исследовательские организации, при этом Роснано частично финансирует все услуги. Мы проводим конкурентный отбор этих заявок, который продлится до конца ноября, и готовим наиболее перспективные для Экспертного совета Роснано, который утверждает задачи к решению. Мы уже обработали 53 заявки, из них 10 приняты к решению, и очень скоро будет обсуждаться новая порция.

Возвращаясь к истории компании, должна сказать, что первая машина СКИФ К500 потребовала достаточно серьезных собственных разработок. Платы были готовыми, конечно, но, по требованию заказчика, в платформу нужно было интегрировать весьма специфический интерконнект, а также дополнительную отечественную сервисную сеть, а по тем временам это было достаточно серьёзной инженерной разработкой. Белорусские исполнители разработали собственные стойки для этой машины. Так что нельзя сказать, что это были просто купленные платформы, вставленные в шкаф и соединённые проводками. Там всё было несколько сложнее.

У нас в этот период были и другие поставки, но более мелкие, поскольку ничто не может сравниться по размеру с государственными заказами — для того, чтобы появился спрос на машины, кто-то должен на них посмотреть; никогда не бывает такого, чтобы просто кто-то пришёл и сказал: мне поставьте вот такое. Во всём мире самые крупные установки являются государственными заказами. Так было и будет всегда.

Следующей нашей крупной установкой по той же программе СКИФ был «СКИФ К1000» (2004 года). Он был уже в первой сотне Top500, 98-е место. Это были смешные по нынешним временам два терафлопа, но тогда это была первая сотня списка самых мощных компьютеров мира. За очень недолгое время производительность суперкомпьютеров сильно выросла — до этого темпы роста были куда ниже.

Это была платформа нашей собственной разработки, мы подбирали оптимальные компоненты, проводили улучшения системы охлаждения, и получили патенты на полезные модели платформ. Могу сказать, что разработки собственно плат не производилось, за исключение сервисной сети. Платы брались стандартные, но подбор, обеспечение совместимости и эффективной работы стандартных компонентных решений требовали определённой экспертизы, которая есть у производителей серверных платформ, и те исследования, которые мы проводили в то время, позволили нам ее усилить.

Следующей вехой стал 2006 год, когда мы поставили большой суперкомпьютер СКИФ-Cyberia, 12-терафлопный. По сути дела это не было уже программой СКИФ, а СКИФ-Грид ещё не был принят.

В тот момент мы уже почувствовали внимание государства к суперкомпьютерной отрасли. Понятно, что работа велась давно, но это был такой первый момент, когда на открытие СКИФ-Syberia приехал Председатель Госдумы Борис Вячеславович Грызлов, и к установке привлекли большое внимание.

Но это не вылилось в немедленные инвестиции государства в суперкомпьютинг. Да, они заинтересовались темой, для рынка это стало знаковым событием — в смысле, стало в каком-то смысле официально признано, что рынок суперкомпьютеров существует. Но пристальное внимание к этой отрасли начинается только сейчас.

В конце 2006 года мы впервые сделали собственную блейд-платорму. Почему? 1U-платформы — это, конечно, хорошо, но размер установки, которую можно собрать на U-платформах, конечно, очень ограничен, потому что это не слишком высокая плотность вычислений (количество терафлопс на место в стойке), это много проводов, много шкафов, а это высокое тепловыделение, и просто неоптимальная коммуникация между процессорами, большие задержки при обмене данными. Так что для HPC всё чаще стали применять блейды, хотя разрабатывались они изначально не для этого, а для энтерпрайза.

Первая наша блейд-система — это и первая российская блейд-система, до этого никто из наших интеграторов не пытался сделать что-то подобное. Это была первая серьёзная инженерная разработка на тот момент. Она была очень плотной, плотнее, чем у IBM и HP — то есть, на той же площади помещалось большее количество процессоров, чем у конкурентов. Но, это все еще были стандартные платы, стандартная память, стандартный интерконнект — просто всё это было грамотно скомпоновано и уложено. Под заказ были сделаны корпуса блейд-модулей и шасси, которые интегрировали компоненты в единое целое.

В 2008 году, в конце, мы представили новое поколение блейд-систем для HPC, где все платы были уже разработаны нами. Единственное, что было не нашим — микросхемы (процессор и контроллеры интерконнекта прежде всего). Даже модули памяти были наши собственные — то есть, сами чипы стандартные, иначе не было никакой возможности обеспечить совместимость с широким спектром приложений, если у вас собственные чипы памяти или, не дай бог, собственный процессор с другой архитектурой. Кто будет пользоваться этой машиной?

Те институты, которые разработали, скажем, на пару один большой программный пакет и работают только на нем, могут, конечно, позволить себе такие вещи как нестандартные процессоры и память, созданные специально под приложение — такие разработки были и до сих пор ведутся в единичных случаях. Бюджетирование таких организаций конечно взлетает к потолку. Но у нас-то такого нет. Поэтому, конечно, очень важно, чтобы память и процессоры были стандартными, что и осталось... И резисторы с транзисторами собственные разрабатывать никакого смысла конечно не было.

Но зато все электронные платы, которые обеспечили самую высокую на тот момент по отрасли плотность установки, были нашими разработками. И коммутаторы интерконнекта, которые были интегрированы в шасси, тоже были разработаны нами. В основе лежали технологии Mellanox, но платы были разработаны новые.

Высокую плотность удалось обеспечить во многом за счет эффективной системы охлаждения, которую мы разработали. Каждая плата выделяет около 570КВт тепла, и никто не пытался охлаждать такое решение воздухом. Люди экспериментировали и до сих пор экспериментируют с водой, но воздушное охлаждение с такой плотностью не проходило. А мы сделали радиатор, который полностью накрывает всю плату целиком, радиатор моделировали на суперкомпьютере.

Это действительно приходится моделировать, потому что непонятно, из какого материала и как он должен быть устроен, и какую конфигурацию он должен иметь, и в каком месте сколько и чего у него должно быть, чтобы нормально отводилось тепло, и при этом радиатор не был слишком тяжелым.

Мало кто задумывается о том, сколько весит вся эта установка, но если шасси слишком тяжелые — это не практично, потому что фальшполы приходится укреплять, в частности, очень сильно — это дополнительные расходы и не в каждом месте это вообще можно сделать. Поэтому, мы как могли старались сделать оптимальное соотношение между теплопроводимостью в нужных местах и весом.

И до сих пор эта разработка прекрасно нам служит, потому что и наше последнее гибридное решение на NVidia, которое мы показали буквально только что на GTC в Америке,использует тот же самый принцип — это тоже воздушноохлаждаемое шасси с подобным радиатором. Он модифицированный естественно, там другое расположение процессоров и других микросхем на плате, но принцип прекрасный, потому что получилось уместить 32 новейших процессора NVidia Tesla и 32 процессора Intel в шасси высотой 7U, что на GTC люди восприняли очень хорошо, потому что такого больше нет ни у кого. И при этом, воздушное охлаждение...

Следующая после 2006 года, наверное, самая мощная установка была уже в МГУ. Суперкомпьютер «Чебышев» –был создан в рамках программы «СКИФ ГРИД» . Собственно, это самая большая установка, которая была по этой программе создана – это «Чебышев» производительностью 60 терафлопс, который попал на 105е место в TOP-500. Мог стоять выше, но он попал в список только через полгода после установки.

Следующим этапом стал «Ломоносов». «Ломоносов» — это уже собственно приобретение МГУ, не связанное никак с Союзным Государством. Сейчас мы расширям его до 500 с лишним терафлопс, и уже объявлен конкурс на вторую очередь этой машины, где будет 800 терафлопс с гибридной архитектурой. Мы в ближайшее время подаем заявку на участие в нем с нашей новой системой на NVidia, которая называется TB2-TL. Обе очереди этой машины будут объединены единой системной сетью, и он сможет функционировать как единая система мощностью более петафлопса — это будет первая установка с такой производтельностью в России и одна из пока очень немногих в мире.

- А графические процессоры по сравнению с обычными, они какие преимущества имеют, в плане HPC?

- Один графический процессор дает примерно в 4 раза больше пиковой производительности на операциях с двойной точностью, чем обычный, потребляя не сильно больше электричества. В результате имеем в 4 раза более производительную систему с тем же энергопотреблением и примерно той же ценой — гораздо выгоднее для заказчика. Высокая энергоэффективность, то есть хорошее соотношение производительности на ватт потребляемой энергии, сейчас очень важна в отрасли, так как размер систем увеличивается быстро, а энергетические ресурсы в основном ограничены.

Графические процессоры не применялись для HPC изначально, так как раньше они обеспечивали высокую производительность только на операциях с одинарной точностью, которой достаточно, например, для обработки видео, но недостаточно для HPC, где требуется двойная точность и коррекция ошибок. Однако Nvidia его усовершенствовали, и теперь он дает больше пиковой производительности на операциях с двойной точностью чем процессоры с архитектурой x86. Из этого получается две вещи: во-первых, вы можете в один шкаф уместить больше терафлопсов, а во-вторых, вы получаете феноменальное соотношение производительности к энергопотреблению, которое напрямую зависит от плотности.

У нас в стойке с этим решением получается 105 Тфлопс пиковой производительности, тогда как для процессоров х86 это максимум 27Тфлопс. И энергоэффективность получается 1450 мегафлопс на ватт, что на данный момент почти вдвое лучше, чем у самой эффективной на данный момент системы в мире согласно списку Green500, где суперкомпьютеры рейтинга Тор500 ранжируются не по производительности, а по соотношению флопс на ватт.

Это не столько модная тема, сколько действительно технологическая необходимость по одной простой причине: дальнейшее расширение производительности систем, к которому все стремятся, невозможно без принципиально новых решений для улучшения энергоэффективности систем.

Сейчас бессмысленно пытаться строить суперкомпьютер мощностью в экзафлопс (в 1000 раз мощнее чем сейчас) не только потому, что к такой масштабируемости не готовы программные пакеты, но и потому, что такая машина будет иметь энергопотребление сравнимое с потреблением небольшого города.

Эксперты американского Министерства Энергетики, которое поддерживает разработки в области экзафлопс, поставили определенный предел энергопотребления для таких систем — 20 мегаватт. Но при тех технологиях, которые сейчас есть, с учетом их прогнозируемого развития, мы сильно не дотягиваем до этого порога. Экзафлопс будет потреблять на порядок больше, если не будет придумано что-то кардинально другое.

Поэтому, все разработки сейчас направлены на то, как снизить энергопотребление и увеличить вычислительную мощность, которую мы получаем за эту энергию.

Сейчас эффективность лучшей системы в мире — 773 Мегафлопс на ватт. Это система в Суперкомпьютерном центре Юлиха в Германии с очень специфической архитектурой на базе процессоров Cell, которые совместимы с довольно узким спектром приложений и на данный момент больше не выпускаются. Nvidia сейчас обходит всех по этому параметру, но его совместимость с существующими приложениями, конечно, тоже ограничена, хотя и не так сильно.

Приложения нужно адаптировать к архитектуре графических процессоров, хотя в случае с NVidia и средой разработки CUDA это проще, чем с Cell. От того, как разработчик ПО использовал эту архитектуру, ее особенности и возможности, зависит, насколько большое ускорение своих расчетов он реально получит. Сейчас количество адаптированных к NVidia приложений набрало некоторую критическую массу, на наш взгляд, и сентябрьская выставка GTC в Америке это подтвердила. Самый популярный инженерный пакет ANSYS, например, для некоторых задач обеспечил поддержку Tesla, и многие другие вендоры активно движутся в этом направлении.

- А помимо МГУ кто сейчас ваши основные заказчики?

- Пока это в основном университеты и исследовательские институты. В У вузов всегда был высокий интерес к новому оборудованию, у них есть время и человеческие ресурсы чтобы осваивать новые решения. К счастью, например, в 2006 году вузы получили возможность приобретать суперкомпьютеры благодаря поддержке государства: была специальная программа, по которой вузы могли получить средства на развитие инновационных программ, многие из которых включали развитие в области высокопроизводительных вычислений. Томский ГУ был одним из таких вузов и многие их них стали нашими клиентами. Конечно, суперкомпьютерами пользуются и другие государственные организации, которые, например, ведут исследования в области безопасности.

У нас есть и база промышленных заказчиков — это такие предприятия как ЛМЗ, ОКБ «Сатурн», нефтесервисная компания и разработчик ПО для нефтеразведки Paradigm Geophysical, ЦНИИ им. Крылова, с которым мы сейчас сотрудничаем по линии «Т-Сервисов», недавно появились новые заказчики из нефтедобывающего сектора в Казахстане. Однако промышленных заказчиков пока не так много, и это чаще всего КБ и НИИ, а не собственно производственные компании.

Это обусловлено тем, что у коммерческого сегмента с HPC в Росси пока не очень складываются отношения. Пока этими технологиями пользуются те немногие предприятия, которые активно занимаются новыми разработками на мировом уровне. Таких немного, и у некоторых из них давно сформировалась такая вещь, например, как корпоративный стандарт вендора в IT. Например, на предприятии могут стоять рабочие станции IBM либо HP, а также масса другого оборудования, которое производят эти компании. В этом случае за суперкомпьютером они скорее всего обратятся к тому же вендору.

Тем более, если им для промышленных задач не нужна в настоящий момент сверхпроизводительность, высокая плотность или энергоэффективность. Они могут купить стандартную среднюю систему и соответствовать «корпоративному стилю». Наша специализация — это все-таки hi-end, это нечто новаторское, чего не делают другие вендоры, нечто, что тем, кто ставит для себя амбициозные цели в суперкомпьютинге.

Мы, правда, развиваем сейчас и линейку продуктов в среднем диапазоне производительности — там где сейчас лидируют HP, Dell, Supermicro. В будущем году мы выводим на рынок сразу несколько решений для этого сегмента, с очень хорошим соотношением цены и производительности, а также мини-суперкомпьютер в настольном форм-факторе.

В России, собственно говоря, как и во всем мире, существует очень широко сейчас обсуждаемая тема, которую называют missing middle (недостающая середина). Средние и менее производительные решения в основном для них. Это множество компаний, которые применяют компьютерное проектирование, но не перешли еще на высокопроизводительные вычисления. Но, как я уже говорила, для того, чтобы облегчить им этот переход, просто эффективных с точки зрения цены аппаратных решений недостаточно.

В Америке есть сразу несколько механизмов, помогающих компаниям — в основном они касаются доступа к большим суперкомпьютерам на конкурсной основе. В Европе есть свои механизмы. Еврокомиссия например поддерживает масштабный многолетний проект под названием PRACE, в рамках котрого должна быть построена новая европейская суперкомпьютерная инфраструктура и обеспечен доступ к ней, в частности, для промышленности. Науку в этом смысле они поддерживают давно. Например по программе HPC Europa Еврокомиссия оплачивает суперкмопьютерным центрам процессорные часы и некоторые консалтинговые услуги для исследований, которые по конкурсу получили право на использование той или иной машины, а также оплачивает проживание и транспротные расходы для исследователей.

Любой исследователь может подать заявку на проведение исследования на любой машине в Евросоюзе, и получить грант на работу в выбранном суперкомпьютерном центре. PRACE также пытается привлечь промышленность к использованию академических суперкомпьютерных центров, но рабочих механизмов такого рода, удобных для промышленных компаний, пока очень мало.

В Европе есть небольшое количество центров, которые традиционно много считают для промышленности. В Штуттгарте есть государственный суперкомпьютерный центр HLRS, например, который специализируется на промышленных заказчиках. Но он предоставляет только процессорные часы — даже ПО заказчики устанавливают свое. И у него достаточно узкая клиентская база: основные заказчики сейчас это Porsche и Airbus.

- В пресс-релизе о выделении Внешэкономбанком средств говорится, что это сделано с целью выхода на западный рынок. Для чего «Т-Платформам» выходить на западный рынок?

- Дело в том, что в России пока нет уже работающих на данный момент программ, которые нацелены на разработку суперкомпьютерных технологий, как в США и Европе. В Америке их несколько, и там общее финансирование этих программ измеряется миллиардами. Crayи IBM, например, только по одной из программ агентства DARPA получили по 250 млн долларов на новые аппаратные разработки – в результате чего появился, например, суперкомпьютер RoadRunner, который впервые в мире преодолел петафлопсный барьер производительности. У нас такого нет, поэтому, чтобы вкладывать достаточное количество денег в R&D, нужно иметь достаточно большой оборот.

Чтобы его достичь, нужно оперировать на достаточно крупном рынке, большой рынок, где есть не только отдельные крупные сделки, но много и небольших, от реализации которых можно получать определенный стабильный приток средств в течение всего года. У нас рынок устроен в этом смысле не слишком удачно, не только из-за меньшего размера. Большинство крупных государственных и академических тендеров у нас проходят под конец года. Сейчас ситуация совсем жёсткая: конкурсы объявляются в последний момент, и чуть ли не через месяц или два нужно все поставить.

А многие академические тендеры сейчас играются к тому же на условиях полной постоплаты, без авансового платежа. То есть, чтобы поставить систему, мы должны сначала прокредитовать государство на стоимость этой системы. В таких условиях тяжело, практически невозможно работать, Чтобы получить стабильный приток средств, необходим более развитый рынок, где на регулярной основе проводится прогнозируемое количество трендоров, в которых можно участвовать и делать поставки весь год. Именно для этого нам нужен Европейский и мировой рынок — без этого мы не сможем достаточно много средств вкладывать в разработки.

- А не опасаетесь, что на Западе все и так заселено достаточно плотно?

- Нет. В принципе, было бы логично предположить, что там уже все занято, но не все так просто, потому что в Европе, например, количество локальных вендоров, разрабатывающих собственные технологии, очень мало. Фактически на Европейском рынке мы конкурируем с американскими вендорами, а также такими производителями как Bull и Eurotech. Правда, последний появился совсем недавно, и инсталляций в Европе пока нет, а Bull — компания с очень широким спектром продуктов и услуг, традиционно сильная в других сегментах IT-рынка и пока не разрабатывающая решений, специализированных для HPC, особенно для верхнего сегмента.

Поэтому европейское сообщество пользователей, как показали наши переговоры, заинтересовано в появлении альтернативного вендора, и нас они зачастую воспринимают скорее как европейцев — лучше, чем американцев или компании из Юго-Восточной Азии, например. Для них очень важно то, что мы готовы вкладываться в разработку европейских технологий. Например, это касается нашего сотрудничества с Университетом Гейдельберга для выпуска на рынок нового интерконнекта, специализированного для сверхбольших суперкомпьютерных установок.

У нас не было серьезных планов на Америку до выставки GTC. Однако на выставке некоторые крупные заказчики проявляли достаточно серьезную готовность купить решение на базе TB2-TL, для того, чтобы опробовать новую перспективную технологию. И видя живой интерес, мы, конечно, не исключаем возможности выхода на американский рынок, хотя для выхода туда нужно будет решать много вопросов, в том числе и с поддержкой.

- У вас получается такая ситуация, что раз «нет пророка в своем отечестве», то — возвратимся оттуда?

- Да, именно так. Мы пока не можем на российском рынке получать достаточный доход, чтобы продолжать интенсивно развиваться. Получается замкнутый круг. С одной стороны мы ставим себе задачу максимально стимулировать рост отечественного суперкомпьютерного рынка и развитие отечественных технологий. Но создание новых технологий — гораздо более затратная вещь, чем чисто интеграторские проекты на базе готовых решений, уже разработанных кем-то другим. Поэтому в нашей ситуации мы должны выйти на западный рынок, чтобы продолжать создавать российские разработки. По-другому просто не получается.

Кроме того, экспорт российских технологий на Запад принесет пользу не только Западу, но и России. Например, работая с западными заказчиками мы имеем возможность непосредственно наблюдать, как люди используют HPC-системы на практике, и переносить этот опыт и методы в Россию. Это позволит нам предлагать предприятиям оптимальную стратегию развития HPC для их задач, которая будет базироваться на готовом опыте; лучше объяснить и показать, какие выгоды они получат. Потому что даже если у предприятия есть деньги, оно должно иметь возможность просчитать уровень возврата инвестиций, чтобы вложить их в HPC, особенно если речь идет не о настольном «персональном кластере». И просчитать его гораздо проще, если есть доступ к аналогичному опыту.

Для вузов и исследовательских организаций это тоже может быть полезно, так как Европа сейчас заинтересована в совместных разработках, в том числе в сфере высокопроизводительных вычислений, и мы можем здесь служить своего рода проводником. Еврокомиссия, например, с нетерпением ждет того момента, когда сотрудничество с Россией в области исследований и разработок приобретет более реальные очертания и принесет успешные результаты. Наша активность в Европе и усилия, которые мы предпринимаем, чтобы связать европейских и российских пользователей HPC, может послужить поводом к тому, чтобы начать заново, с новой точки.


К оглавлению

ABBYY помогает программистам с переводом Андрей Письменный

Опубликовано 02 ноября 2010 года

Недавно компания ABBYY открыла раздел "Локализация" на сайте Forum Nokia. Он призван помочь разработчикам, готовящимся переводить свои программы на другие языки. Похоже, что для Nokia это один из шагов по поддержке российских производителей ПО (о повышенном внимании к ним можно судить по словам Алексея Кокина, менеджера Nokia по взаимодействию с разработчиками, недавно давшего интервью «Компьютерре»).

Интерес ABBYY к этой затее тоже вполне очевиден — поддержать Language Service и привлечь людей, заинтересованных в локализации программных продуктов. О том, как работает компания и как она связана с основным бизнесом ABBYY, нам рассказал Иван Смольников, генеральный директор ABBYY Language Services.

- В двух словах — какие услуги предоставляет ABBYY Language Service?

Основная деятельность ABBYY Language Services – комплексное лингвистическое обслуживание корпоративных заказчиков, разработка и внедрение инновационных лингвистических сервисов и технологий. Компания занимается локализацией ПО, сайтов, письменным и устным переводом, а также предоставляет другие услуги, связанные с переводом текстов и устной речи. Мы разрабатываем ряд лингвистических технологий: систему проектного управления для отделов перевода крупных компаний (TMS), систему управления терминологией Translation Memory и сводящей эти подсистемы воедино «облачной» системой совместной работы переводчиков, редакторов и прочих специалистов.

- Речь идёт только об английском языке или возможен перевод на другие?

Компания работает более чем с 60 языками, в том числе и с редкими (малайский, македонский, индонезийский и т.п.). Причём языковые направления могут быть как в паре с русским языком, так и «иностранный-иностранный».

- Среди клиентов перечислены довольно крупные компании. Сервис нацелен в первую очередь на них, или небольшие фирмы (частные лица) тоже могут обращаться в ABBYY Language Service?

Объёмные и технологически сложные проекты выполняются в основном для крупных корпораций. У нас обслуживаются более 10 из ТОП-100 мировых брендов. Однако, по факту клиентская база достаточно диверсифицирована. На данный момент компания обслуживает (регулярно или эпизодически) более 10000 клиентов, среди них — самые разные по масштабу компании. Крупных среди них — не более тысячи. У небольших компаний часто бывают очень интересные проекты, например, по локализации компьютерных игр или какого-либо программного обеспечения, на котором специализируется та или иная организация.

Частные лица также могут обращаться в ABBYY Language Service. Чаще всего заказывают экспресс-перевод деловой переписки или небольшой статьи (для этого работает специальный сервис на ABBYY Online), нотариальные заверения перевода личных документов и апостиль.

- Как долго функционирует это направление бизнеса?

Изначально бизнес существовал в качестве независимой компании под брендом «Переведем.ру», которая была основана в 2003 году. С 2007 года компания вошла в группу ABBYY. С тех пор появился новый бренд ABBYY Language Services, а «Переведем.ру» теперь используется как брэнд для сервисов онлайн-перевода и перевода телефонных переговоров.

- Компания ABBYY выпускает электронный словарь, но больше, на первый взгляд, никак не связана с переводом. Как родилась идея начать предоставлять подобные услуги?

ABBYY выпускает не только электронный словарь, но и другие лингвистические технологии, например, Lingvo Content и ABBYY Aligner. Lingvo Content – это система для разработки и управления словарными базами, а ABBYY Aligner – по созданию баз памяти перевода. Сейчас у нас проходит бета-тестирование система для профессиональных переводчиков Lingvo.Pro. Также готовятся к выпуску платформы для управления проектами переводов и система для онлайн-работы переводчиков и редакторов.

- Какие технологии ABBYY используют специалисты Language Service? Сразу представляются централизованные словари на основе Lingvo или ещё что-нибудь высокотехнологичное.

Да, у нас используется целый ряд интересных технологий. Есть два направления – проект-менеджмент и технологии, используемые в процессе перевода.

Система управления бизнес-процессами позволяет автоматизировать все рутинные операции. Взять, к примеру, онлайн-перевод: регистрация заказа, расчёт стоимости и оплата производятся автоматически. Менеджеру обычно остаётся только отправить файл на перевод. Да и для заказчика это удобно – вся информация по проектам хранится на персональной странице клиента, доступной на нашем сайте в любое время.

Что касается переводческих технологий, кроме Lingvo специалисты пользуются различными программами по управлению памятью переводов и терминологией. Это такие программы, как уже упомянутый ABBYY Aligner, централизованная серверная система Translation Memory собственной разработки, серверная система управления корпоративными многоязычными глоссариями, а также онлайн-платформа, обеспечивающая одновременный совместный доступ переводчиков, редакторов, корректоров и менеджеров проектов ко всем перечисленным ресурсам в режиме реального времени.

- Инициатива, связанная с Forum Nokia — единственная в своём роде или есть другие примеры такого сотрудничества?

Инициатива с Forum Nokia – это пилотный проект. Параллельно обсуждаются и другие, но они пока на стадии согласования. Надеемся, эта инициатива будет полезной для российских разработчиков программного обеспечения под мобильные платформы (и не только).

- Планируется ли развитие сотрудничества с Nokia? К примеру, предоставлять разработчикам услуги по переводу в рамках Forum Nokia, а не только консультировать.

Да, конечно. Мы готовы выполнить локализацию приложений для всех желающих участников Forum Nokia. У нас накоплен значительный опыт в локализации под Symbian, он позволяет выполнять такие проекты качественно и с минимальными затратами.


К оглавлению

Загрузка...