Сегодня 19 ноября 2017г
Контакты   Правила использования информации   Карта сайта  

Центр по Науке и Инновациямперейти на сайт Наука и технологии России
Главная Доктрина Отраслевая наука


Расширенный поиск


  • Национальный доклад

  • Академическая наука

  • Отраслевая наука

  • Вузовская наука

  • Инновационная система (инфраструктура)

  • 6 декабря2007

    ИТОГОВАЯ КОНФЕРЕНЦИЯ «Информационно-телекоммуникационные технологии: положение на сегодняшний день и пути дальнейшего развития» (часть 1)

     

    Александр ТИХОНОВ, директор ФГУ «Государственный научно-исследовательский институт информационных технологий и телекоммуникаций»:

    Доброе утро. Вы все знаете, что у нас проходит итоговая конференция по направлению «Информационные коммуникационные технологии» — одному из приоритетных направлений, которое входит в состав ФЦП, чьим заказчиком является Федеральное агентство по науке и инновациям.

    По всем приоритетным направлениям — «живые системы», «безопасность» (я не буду перечислять — наверняка вы это читали, все материалы открыты, у всех на устах) — проходят итоговые конференции. На них в первую очередь присутствуют руководители выполняемых комплексных проектов, которые прошли серьёзные конкурсные процедуры (отбор [был] из многих десятков, а подчас и сотен проектов) — победители и, с другой стороны, сразу возникшие исполнители. Предусматривается в этот день провести итоговые конференции по каждому из направлений, и по тем контрактам, выигранным лотам, которые вы ведёте. Я должен сказать, что одновременно сейчас в здании на Тверской проходит подобная конференция по «живым системам», в ближайшие дни другая пара будет работать в министерстве и агентстве. Т.е. это не случайный и не эксклюзивный для нас момент. Поэтому не будем говорить много, а перейдём к делу.

    У вас есть предполагаемая программа. Я хочу обратить внимание только на то, что нам нужно рассмотреть очень много проектов по данному регламенту, будем его придерживаться. Наша итоговая конференция является неким этапом в годовом отчёте. Здесь присутствуют руководители Федерального агентства по науке и инновациям, которые являются заказчиками. Создана специальная комиссия по «приёмке», её возглавляет Владимир Георгиевич Дроженко. Тем не менее, это один из этапов, потому что есть регламенты работы комиссии: крупные и комплексные проекты будут рассматриваться в первую очередь. Как я понимаю, это не значит, что все остальные проекты останутся без внимания агентств. И это правильно.

    Собственно, я хотел бы закончить введение на этом как заместитель руководителя научной группы. Дело в том, что Иван Иванович Родионов заболел и не может присутствовать на конференции. Вам всем известно, что он является руководителем рабочей группы по данному направлению и членом научно-координационного совета по федеральной программе.

    По большинству направлений, где мы вели работы, организационное сопровождение осуществлялось под управлением Александра Владимировича Суворинова и г-на Козлова. Но поскольку они являются принимающей стороной, они сейчас воздерживаются от комментариев. Я хотел бы предоставить слово профессору Суворинову для дальнейшего выступления.

    Александр СУВОРИНОВ, руководитель управления инновационного развития и инфраструктуры Федерального агентства по науке и инновациям:

    Добрый день, уважаемые товарищи. Начну с того, что «Информационно-телекоммуникационные системы» и федеральная целевая программа, в которой этот приоритет у нас реализуется (название которой указано на данном слайде), 17 октября 2006 года постановлением правительства была принята. И в числе восьми приоритетных направлений, которые утвердил президент в мае 2006 года, было ранее указанные мною «Информационно-телекоммуникационные системы». Для того чтобы перейти к самому направлению, я всё-таки вас познакомлю с тем, каковы результаты ФЦП.

    Видите, на слайде показано, каким образом мы в этом году реализовывали данную программу. Здесь указано и число заявок, поданных по тематике, и сколько конкурсов мы провели, внизу стоит число, сколько всего контрактов было заключено. Здесь уже видно, какой конкурс у нас. Надо сказать, если сравнить с прошлой программой (2005—2006 годы), то в нынешней программе был чуть выше. Более того, дальше вы увидите, что по нашему приоритету ИТС (Информационно-телекоммуникационные системы) конкурс существенно выше. Здесь видно, какое распределение заявок было по направлению ИТС: 768 заявок — седьмая часть всего количества, присланного на конкурс. При этом я имею в виду не лоты, а заявки.

    Финансирование шло следующим образом: вот наше ИТ, приоритетное направление. Мы заключили 112 контрактов, их сумма показана. 41 тысячу мы сэкономили, это в минус агентству. Здесь вы видите распределение по программным мероприятиям. Вот наше направление — 1.4. Вон там написано «минус 32 тысячи» — это внебюджетные средства. Наше следующее направление — 2.4. Здесь тоже всё в порядке, мы перебрали «внебюджетку» на 20 тысяч, выполнили свои обязательства. И направление 5.1 «Информационные инфраструктуры» — тоже всё хорошо по цифрам. Я привёл вам общее состояние с тем, чтобы составить впечатление о программе, показать общие цифры.

    Теперь, по нашим ИТТ. Рабочая группа ориентировалась на три критических технологии РФ, которые тоже были утверждены, когда шло становление приоритетных направлений. Они относились непосредственно к нам: 1) технология обработки, хранения, передачи и защиты информации, 2) технология производства программного обеспечения, 3) технология распределённых вычислений и систем. Я был заместителем председателя рабочей группы, мы придерживались трёх данных технологий. Были сформированы подгруппы, которые рассматривали те заявки, которые к нам поступали. Сегодня мы заслушаем те контракты, которые успеем.

    Я прошу в своих докладах делать акцент на практическую значимость работ, которые выполнялись, и на дальнейшую коммерциализацию: каков итог, куда мы идём в данном проекте. Для нас это очень важно, потому что сегодня мы должны не только заслушать отчёты. Вероятно, мы сегодня услышим и критические замечания в наш адрес: на что нужно обратить внимание, что нами упущено в нашей работе; может быть, сформировать некую тактику проведения конкурсов на 2008—2009 годы в ФЦП.

    Про этап «приёмки» [расскажет] Владимир Георгиевич Дроженко, заместитель начальника управления поисковых исследований новых технологий, который здесь присутствует, он возглавляет комиссию, которая будет осуществлять приём. Дальше хочу пожелать вам полезной дискуссии, обмена мнениями с тем, чтобы мы рассматривали это не только, как отчёт, но и как научную дискуссию, которая помогла бы нам всем в нашей работе. Спасибо за внимание. Желаю всем успешной работы.

    Александр ТИХОНОВ:

    Спасибо, Александр Владимирович.

    Я думаю, что у вас есть программа, будем её придерживаться. Если позволите, мы просто внесём некоторые возможные корректировки по ходу работы, которые не изменят сути дела, и не изменят выполнения регламента. Поэтому без лишних слов: «У меня предусматривается выступление, разрешите к нему приступить». Я ещё раз представлюсь: Я — Тихонов Александр Николаевич, директор Федерального государственного института информационных технологий и телекоммуникаций «Информика». Скажу несколько слов об организационной стороне того, как работала группа, и как в целом как организована работа по направлению ИТТ.

    Рабочая группа, руководителем которой был и остаётся Иван Иванович Родионов, у нас состояла из трёх секций, в соответствии с теми критическими технологиями, которые входили в данное приоритетное направление. Это — «Технология распределённых вычислений и систем», руководителем которой являлся член-корреспондент РАН Воеводин, заместитель директора НИИ «Вычислительный центр МГУ». Это — «Технология производства программного обеспечения», руководителем которой являлся Дмитрий Анатольевич Лощилин, генеральный директор компании Luxoft. Это — «Технология обработки, хранения, передачи данных и защиты информации», данной секцией руководил я.

    Хочу сказать, что мы ориентировались на выполнение, формирование предложений для научно-координационного совета по четырём мероприятиям. Это — мероприятие 1.4 «Проведение проблемно ориентированных поисковых исследований, создание научно-технического задела по перспективным технологиям в области ИТС». Это — мероприятие 2.4 «Осуществление комплексных проектов, в том числе разработка конкурентоспособных технологий, предназначенных для последующей коммерциализации в области ИТС». Это — мероприятие 5.1 «Развитие информационной инфраструктуры, хранение и передача новых знаний». Вообще, по всему направлению в начале 2007 поступило более пяти тысяч заявок. Над этим проектным массивом мы и работали. В секции анализировали, оценивали, фильтровали проекты, осуществляли экспертизу, и дальше после рассмотрения и утверждения предложенных рабочей группой проектов они представлялись в Роснауку, где тоже проводилась оценка данных проектов по тем параметрам и тем критериям, индикаторам, которые предусмотрены в программе. Далее они выносились и утверждались научно-координационным советом под председательством министра образования и науки Андрея Александровича Фурсенко, затем публиковались в бюллетене «Конкурсные торги». Я просто хочу показать динамику: если, к примеру, в 2006 году в рамках этого же направления было выполнено 43 работы, то сейчас их уже 97. По секциям статистика такова: «Технология обработки, хранения, передачи и защиты информации» — 59 проектов, «Технология распределённых вычислений и систем» — 25 проектов, «Технология производства программного обеспечения» — 13 проектов.

    Как видите, больше всего проектов по секции «Технология обработки, хранения, передачи и защиты информации». Исполнителями, которые работали, и победителями конкурсных процедур были представлены институты РАН: Физико-технический институт им. Йоффе, Институт проблем передачи информации, Институт проблем механики, Институт прикладной математики им. Келдыша, Институт программных систем. 36% от общего числа победителей составляли вузы, среди них: МГУ, МИЭМ, МГТУ, МАИ, МИЭТ, МГТУ «СТАНКИН», МЭИ, СПбГИТМО, петербургский Политех — всего 21 университет. Среди других научно-исследовательских организаций могу упомянуть в основном государственные федеральные научно-исследовательские организации и государственные научные центры. В их числе, как вы понимаете, была «Информика». Из того, что я докладываю, — это Федеральный государственный научный центр «Курчатовский институт», это Центр информационных технологий и систем органов исполнительной власти, Государственная публичная научно-техническая библиотека России и ряд других.

    Я в своём выступлении подробно остановлюсь на тех проектах, которые выполняла «Информика». Первым был «Развитие национальной компьютерной сети» (не буду зачитывать [полное его] название). Объём [финансирования] данного проекта составлял 35 миллионов, и наш институт выступал одним из соисполнителей по этому проекту. Головной организацией был Российский научный центр «Курчатовский институт», и Алексей Анатольевич Солдатов, которого вы все знаете, после меня выступит более подробно. Я остановлюсь на неких особенностях, которые, скорее всего, Алексей Анатольевич не предполагал озвучивать. Основу для выполнения этого проекта составляла национальная компьютерная сеть науки и образования, которая представлена на этом слайде. В результате выполнения проекта топология сети, суммарную ёмкость международных каналов сети (а он был ориентирован в том числе и на это) удалось довести до объёма в 25 Гб в секунду, что вдвое позволило превысить тот уровень, который существовал в предыдущем году. Это оказалось возможным после ряда совместных проектов с зарубежными партнёрами. Речь идёт о внешних линках, и такими серьёзными партнёрами, которые в течение выполнения проекта были и остаются, [являются]: Европейская научно-образовательная сеть Geant, NORDUnet (тоже научно-образовательная сеть северных стран Европы — Швеции, Финляндии, Норвегии, Дании).

    Сейчас созданная инфраструктура с увеличенной структурой внешнего европейского выхода и выхода в полномасштабный интернет является «ядром» для возможности выполнения целого ряда комплексных проектов. Они осуществляются в сети. Это проекты [в области] наноиндустрии, ядерной физики, физики высоких энергий, астрономии, геофизики, экологии и целого ряда других. При этом наша страна (в виде научных организаций и университетов) активно включилась и осуществляет сотрудничество по целому ряду всемирных и европейских проектов. В результате выполнения проекта удалось использовать эту сеть в рамках международного проекта создания трансконтинентального кольца для высокопроизводительных вычислений (это проект GLORIAD [Global Ring Network for Advanced Application Development], который был реализован в этом году, и участниками которого, помимо России, являются США, Китай, Канада, Южная Корея, Нидерланды, Дания). То есть сеть в GLORIAD’е позволяет реализовать выход из Хабаровска на Китай, Гонконг, тем самым расширяются возможности использования ресурсов среды высокопроизводительных вычислений для выполнения как российских комплексных проектов, так и международных.

    В сети реализованы современные протоколы, которые по сути дают возможность осуществлять весь комплекс научных и образовательных программ, включая реализацию протокола IPv6 [Internet Protocol version 6], мультикастинга и целого ряда современных технологий и приложений, обеспечивающих услуги в данной сети. Я должен сказать, что среднее число организаций, которые получили доступ к ведущим мировым информационным ресурсам в 2007 году, составляет 450 единиц. По плану проекта их было 200. Я имею в виду организации как корпоративные сообщества, потому что в этих цифрах присутствует точка. А число пользователей, как вы понимаете, гораздо больше. Среднее число ведущих мировых информационных источников, которые стали доступны благодаря реализации проекта, составляет 1 700. План по проекту был 400.

    Теперь я скажу несколько слов о следующем проекте «Развитие и сопровождение корпоративного интернет-портала по научной инновационной деятельности». Основные задачи данного проекта заключались в следующем: актуальное информационное наполнение портала в соответствии с перечнем критических технологий РФ, утверждённым правительством; сбалансированное развитие сетевой информационной инфраструктуры Федерального агентства по науке и инновациям в соответствии с производственными потребностями и действующими нормативными документами. Результаты выполнения данных работ представлены на следующем слайде. Я не буду зачитывать, наверное. В проекте предусматривалось также выполнение работ по развитию и сопровождению телекоммуникационной и информационной инфраструктуры Роснауки. Были разработаны требования к этой системе, предварительные проектные решения, и они были реализованы в составе аппаратно-программного комплекса интернет-сегмента Роснауки. Был разработан комплекс решений, который обеспечил выход в интернет для выделенного сегмента локальной сети Роснауки, соответствующий сервис электронной почты (для интернет-сегмента), антивирусная и антиспамовая защита. Соответственно были разработаны и реализованы принципы бесперебойного штатного функционирования и технических решений, обеспечивающие устойчивость ежесекундной круглосуточной работы сегмента. Технические требования, которые предусматривались в контракте, были полностью выполнены, и сейчас система находится уже в промышленной эксплуатации.

    На следующем слайде изложены результаты моделирования и проектирования опорной инфраструктуры современных высокопроизводительных сетей передачи данных, новое поколение на базовом примере сети «RaNet». Магистральная составляющая проекта «Национальная сеть науки и образования» возложена на сеть Russian UNiversity Network (RUNNet). На технологии IP-сети рассматривались принципы, сформулированы задачи, которые необходимо было решать. Всё это направлено на устойчивое функционирование. Вот технологии, которые решались на проектном и опытном уровне, в эксплуатации на маршруте магистральной сети. Здесь изложены те технологии и протоколы, по которым работала вся моделирующая система. Я, пожалуй, хотел бы сказать одно: в данном проекте предусматривалась реализация подхода, который предполагал разработку моделей (моделирование, т.е. имитацию работ высокопроизводительных телекоммуникационных систем и сетей передач данных нового поколения), проверку их устойчивости, работы комплекса в сети и запуск системы в опытно-промышленную эксплуатацию. Естественно, что система включает в себя ряд подсистем (подсистему расчётов, подсистему инновационного моделирования) и учитывает не только средние показатели интенсивности потоков, но и их пульсацию; оценивает не только загрузку ресурса, но и результирующие параметры, такие как: задержки, потери пакетов, их возврат, устойчивость прохождения пакетов, качество их прохождения и т.п.

    Сейчас я перейду к следующему проекту, в котором принимала участие «Информика», — «Комплекс исследований и разработок по созданию персонально-аппаратных USB-средств для защиты информации от несанкционированного доступа в компьютерных сетях нового поколения». Проект был направлен на проведение научно-исследовательских работ по созданию экспериментального образца изделия, который бы реализовал требования по защите информации от несанкционированного доступа к сетям нового поколения в компьютерных системах. Он включает в себя исследование технологий использования средств защиты информации и методов создания подобных устройств. Он включает анализ прототипов патента на исследование, разработку компонентной структуры, набора базовых функций устройства и, наконец, выбор аппаратной платформы набора программных средств. В завершение проекта предусматривалось, разумеется, завершение проектных работ, и создание макета его опытной эксплуатации. Я хочу сказать, что внедрение этого устройства (по оценкам экспертов) должно было позволить существенно ускорить внедрение современных информационных технологий как в сферу науки, так в сферу образования — всего лишь за счёт защиты критической информации путём использования современных криптографических методов защиты от несанкционированного доступа и упрощения контроля за состоянием компьютерной техники, обнаружения несанкционированных изменений. Здесь на слайдах были показаны и продемонстрированы те этапы работ, которые выполнялись. Поэтапно они были приняты и выполнены, а сейчас речь идёт о комплексной «приёмке» проекта. За последний квартал были проведены дополнительные теоретические исследования, касающиеся разработки архитектуры изделия, общего алгоритма его работы, выбора аппаратной платформы, ну и, наконец, построения различных моделей и объектов исследований. Дальнейшие работы предусматривают введение уже предложенных решений в промышленную эксплуатацию с предварительным завершением опытной эксплуатации, переведением её в промышленную. Благодарю за внимание.

    Александр СУВОРИНОВ:

    Спасибо, Александр Николаевич. Пока господин Тихонов предоставит слово очередному докладчику, я хотел бы обратить внимание на следующий момент: будьте любезны, когда будете выступать на «приёмке», мы будем обращать внимание на выполнение индикаторов. Я об этом забыл сказать. У всех проектов есть индикаторы. Они прозвучали в выступлении Александра Николаевича — количество пользователей сети, и т.п. Хорошо? Спасибо.

    Александр ТИХОНОВ:

    Я хотел бы предоставить слово Алексею Анатольевичу Солдатову, который возглавлял проект «Технологическое развитие национальной компьютерной сети науки и высшей школы нового поколения» (я уже об этом говорил). Прошу вас.

    Алексей СОЛДАТОВ, директор Института информационных систем Российского научного центра «Курчатовский институт»:

    Добрый день. И спасибо за предоставленную возможность выступить.

    Речь идёт именно о проекте, который объединяет все инфраструктуры, это сеть для науки и высшей школы. К ней предъявляются следующие требования: чтобы на качество влияли не только технические параметры, которые определяются пропускной способностью (сколько имеется пользователей, и т.д.), чтобы это было удобно для использования, эффективно. Эффективность и удобство — две основные цели той работы, которая была проведена за прошлый год и за предыдущие годы тоже, потому что всё это делается уже больше 10 лет, эксплуатируется, развивается, и т.д. Цель: развитие и качественное улучшение.

    Два слова о том, по какому пути мы шли, как всё происходило. Начиналось всё с внедрения обычного интернета, чтобы многоуважаемые учёные, студенты, преподаватели имели возможность обмена информации, могли черпать её друг у друга, у коллег, передавать её. Вот это был первый этап, который оказался не столь уж простым. Тем не менее, он пройден. У нас было осознание того факта, что обычный интернет для науки и высшего образования недостаточен, наука требует от сети несколько большего. Тогда нужно было точно выяснить, что же именно требуется, и в конечном итоге, исполнить.

    Мы видим структуру (Александр Николаевич уже демонстрировал её), количественные показатели прошлых лет. Мы охватили на самом деле всю нашу страну и обеспечили связанность сети с международными научно-образовательными сетями. Что касается объёмных показателей, они тоже не так плохи. Уже упоминалось о том, что, по крайней мере, выход в мир мы увеличили существенно за последние год-полтора. Это 10 Гб, 2,5 Гб и т.д. С кем мы работаем? Это действительно NORDUnet, Geant, GLORIAD. Данный проект объединяет образовательные сети нескольких стран, они уже были перечислены: Россия, Китай, Штаты, Корея, Нидерланды, Канада и северные страны [Европы] все вместе. Хочется подчеркнуть, что GLORIAD был открыт именно по инициативе нашей страны. Следовательно, он наш. Public IP — это то, что нужно связывать со всем остальным миром, который может не иметь отношения к науке.

    Здесь мы видим графическое изображение нашего пути (в количественных показателях), за год. Т.е. он отсчитывается не просто с 1999 года. В течение года нормальным образом идёт увеличение реального трафика, который, в частности, проходит по участку сети GLORIAD.

    Структура сети: здесь есть и Москва, Санкт-Петербург, Самара и т.д. Обсуждать её не слишком интересно. Я хотел бы остановиться на том, что всё, что касается Запада (на сегодняшний день это СТМ-16 [синхронный транспортный модуль 16-го порядка со стандартной скоростью передачи данных 2 488 320 кбит/с], СТМ-64 [синхронный транспортный модуль 64-го порядка со стандартной скоростью передачи данных 9 953 280 кбит/с]), а по России — СТМ-1 [синхронный транспортный модуль первого порядка со стандартной скоростью передачи данных 155 520 кбит/с]. У нас складывается следующая ситуация: на сегодня связанность России с Западом на два порядка выше, чем её связанность внутри себя. Я не буду обсуждать причины этого явления, просто хотел бы зафиксировать данный факт. Внутри России у нас пропускные способности для науки и образования в 100 раз меньше того, что мы имеем с Западом, и что имеют нормальные страны в мире. Я скажу следующее: перечисленные названия — это не только группы и организации, с которыми мы работаем. Это наши партнёры, в чьих проектах мы так или иначе участвуем. К примеру, GLIF: Global Lambda Integrated Facility. Что это?

    Сейчас эта технология отрабатывается, отчасти отработана и уже внедряется,. Вся современная связь — это оптика. Она преобразуется в электричество, оно коммутируется и опять переводится в оптику. Очевидная идея: а нельзя ли коммутировать оптику напрямую? Т.е. разбить сигналы по длинам волн и коммутировать напрямую. Я, разумеется, огрубляю, поэтому прошу прощения, если специалистам придётся пережить пару неприятных минут. Но суть заключается именно в этом. Lambda как раз является обозначением того, что это оптика, и сейчас строятся определённые сети, которые обеспечивают «просвистывание» сигнала сквозь многие маршрутизаторы без остановки, и коммутируют связь «точка-точка». Для чего это нужно? Если вы хотите передать терабайтные файлы, то по обычному интернету с обычной технологией IP вы их передадите, но это будет длиться очень долго и станет крайне неэффективно. Т.е. на каждом узле пойдут разбирательства: идти направо или налево, вверх или вниз.

    Вот перечисление проектов, с которыми мы работаем. Что касается оптимизации трафика. Что такое Msk-ex, Spb-ex и т.д.? Это точки локального обмена трафика. Если мы будем с этой улицы на другую улицу в Москве перебрасывать трафик через Петербург, это будет глупо, а если задействовать столицу Штатов — Вашингтон, то это будет ещё глупее. Значит, нужно организовать сеть так, чтобы исключить паразитные и никчёмные «хвосты». Ex — это обозначение для exchange, точки, где происходит обмен локально оптимизированной информацией. CDN [content delivery (или distribution) network] — это система передачи контента, чтобы он тоже лишний раз не передавался из стороны в сторону. MPMS — это выделенные сети. Baltic AST IP IPv6 — это тоже оптимизация протоколов. Ясное дело, что все наши достижения нужно отслеживать, а достижения ли это? Можно ли их измерить? Работают ли каналы? Нет? Если работают, то насколько хорошо? Поэтому была создана система мониторинга, которая здесь представлена (по крайней мере, я могу засвидетельствовать факт её существования), — Moscow Light. Я уже упоминал, что есть некая услуга light pass, предоставление организациям на некоторое время связи «точка-точка» для обмена супербольшими объёмами данных. Moscow Light — обмен «светом», точка, которая была установлена, уже работает и обеспечивает коммутацию световых потоков. Это было апробировано, проверяли из Калифорнии. Схема состоит в том, что к этой точке обмена подключаются все научные сети России, какие только существуют. Это уже технические характеристики: что там есть, какое оборудование, какие услуги, какие протоколы и т.д. По сути, это свидетельствует о том, что мы эволюционируем, выходим в следующий мир. Он уже не интернетовский, а глубже интернета. Именно это требуется науке.

    Здесь — инфраструктура GLORIAD’а по России: по сути дела, он замыкается через Тихий океан и США. Мы видим наши проекты. Эта самоинфраструктура, очевидно, используется не только для переброски файлов, а вообще для физических проектов, для которых и нужна переброска файлов. В частности, я говорю о проекте Itern, в качестве примера приведён проект IGEE [Institute for Global Educational Empowerment], мы участвуем в построении грид-структуры для науки. Это международный проект под эгидой ЕС, однако там участвуют и американцы, и корейцы, и китайцы, и мы тоже. Эта сеть уже построена и работает. Она предъявляет к сети передачи данных требования, которые, к сожалению, современный рядовой промышленный интернет не в силах удовлетворить. На этом я, пожалуй, и закончу выступление. Спасибо за внимание.

    Александр ТИХОНОВ:

    Уважаемые коллеги, Алексей Анатольевич! Я вообще сбежал с трибуны быстрее, чем надо было, не дал возможности вообще, если возникли вопросы, их задать. Давайте сейчас вместе займёмся ответами. Договоримся: будем задавать выступающим 3-4 вопроса общего характера, остальное перенесём на секции, дискуссию в том числе. Пожалуйста! Вопросы по первому блоку проектов, о которых мы с Алексеем Анатольевичем вам рассказывали.

    Вопрос:

    Алексей Анатольевич, вы вообще говорили про оптимизацию сети, в чём она заключается? Какие критерии оптимизации? Трафик, минимизация времени или что-то ещё?

    Алексей СОЛДАТОВ:

    Первое — это работоспособность вообще. Чтобы сеть работала. Я объясню, что сеть — это чуть-чуть хуже, чем труба. В трубу льёшь, и если льёшь больше, чем вмещается, то протекает ровно столько, сколько протекает. Здесь хуже, потому что как только один пакет становится лишним, идёт запрос на повтор данного пакета, и у вас идёт срыв. Чтобы не допустить этого срыва, можно чуть-чуть не доходить до самого верха. Вот первый уровень оптимизации. Следующий уровень оптимизации — это то, что я говорил о контенте, чтобы не перекачивать лишнее содержимое. Он ловится, фиксируется. Отслеживается, какой контент куда идёт. К примеру, много кому нужны учебники. Определённая книга нужна в Самаре двадцати студентам, а находится она в МГУ. 20 раз перекачивать эту копию глупо. Было одно скачивание: почему бы не оставить книгу у себя? Может быть, ещё кому-нибудь понадобится? Оптимизация по этой части.

    Александр ТИХОНОВ:

    Анализ к наиболее обращаемым ресурсам даёт впоследствии возможность для того, что на профессиональном языке называется «операция кэширования».

    Алексей СОЛДАТОВ:

    Да, прокси и кэширования. Оптимизация структур… Я уже говорил, чтобы использовать все точки обмена информацией, которые вообще существуют. Чем больше их есть, тем лучше: тогда мы гоняем трафик, не засоряя и не тратя канальные ресурсы. По времени (тут вы тоже абсолютно правы) технология light pass очень помогает.

    Что из себя представляет обычный интернет? Вы разбиваете ваш файл на маленькие пакеты, а после этого передаёте. Каждый пакет несёт в себе информацию на тему, куда его дальше передавать. Каждое оборудование на пути этого пакета смотрит, в какую сторону его передавать (в ту или в эту), а после уже передаёт. Представляете, сколько работы происходит? Сколько времени, сколько сбоев происходит, если вам надо передать терабайты из одной точки в другую? Поэтому разработана технология, с помощью которой единожды устанавливается временное соединение, а после этого ловится всё без вопросов — откуда оно идёт.

    Александр ТИХОНОВ:

    Есть ещё какие-нибудь вопросы? Всё, спасибо.

    Алексей СОЛДАТОВ:

    Спасибо ещё раз.

    Александр ТИХОНОВ:

    Уважаемые коллеги, я предоставляю слово для выступления Владимиру Валентиновичу Воеводину, члену-корреспонденту РАН. Он возглавлял, я повторюсь, секцию технологии распределённых вычислений и систем, является заместителем директора Научно-исследовательского вычислительного центра МГУ. Насчёт вопросов вы знаете, я более полугода не председательствовал в столь представительном собрании — навык теряется. Я просто хотел бы попросить присутствующих, когда задаются вопросы не в протокольном порядке, представляться, поскольку у нас это отчётный документ. Несмотря на то, что президиум слегка опустел, наш самый главный начальник здесь. Чтобы в протоколе всё отражалось, для облегчения ведения записи убедительно прошу вас представляться. Владимир Валентинович, пожалуйста!

    Владимир ВОЕВОДИН, заместитель директора по науке Научно-исследовательского вычислительного центра Московского государственного университета им. М.В. Ломоносова:

    Добрый день, дорогие коллеги. Я позволю себе, наверное, построить свой доклад немного по-другому. Мы сегодня услышим отчёты по тем проектам, которые велись в течение года, по выигранным конкурсам, будет возможность их оценить, посмотреть, что хорошо, а что плохо. В любом случае нам нужно двигаться дальше. И хотелось бы посмотреть вокруг, взглянуть на критические, болевые, точки предметной области — в той секции, которую я представляю. И, конечно же, раз мы говорим о технологиях определённых вычислительных систем, то основу всего этого составляют компьютерные технологии. В рамках данного направления выполнялось много проектов, много ещё будет выполнено. Но нужно определиться с приоритетами, чтобы двигаться согласованно. Я прекрасно понимаю, что здесь сидит исключительно квалифицированная аудитория, тем не менее, для того, чтобы всё-таки определиться с какими-то понятиями, позволю себе буквально два слова. С тем, чтобы мы одинаково воспринимали и проблематику, и предметную область. Что же мы будем понимать под тем классом компьютеров и тем классом проблем, о котором сейчас пойдёт речь? Типичный персональный компьютер нынешнего года (не важно, какой бренд, какой производитель, на основе какого процессора сделан) — это примерно 3—5 миллиардов операций в секунду. Вот память дисков: 1 гигабайт и 200 гигабайт. Типичные параметры, будь то обычный компьютер, сервер или ноутбук, что-то вокруг этого. Конечно, это не наша область, мы будем говорить про высокопроизводительные вычисления.

    Один из примеров: 2002 год. Закончился японский национальный проект по созданию суперкомпьютера Earth Simulator («Симулятор Земли»). Производительность — 35 тысяч миллиардов операций в секунду против 30, которые мы сейчас имеем в рамках персонального компьютера. Естественно, все остальные параметры точно так же масштабируются (не может быть компьютер с огромной производительностью и мизерной оперативной памятью). Поэтому все основные параметры согласованы: 10 терабайт оперативной памяти, ленты — 1,5 петабайта. И действительно, получился проект национального масштаба, поскольку подобные системы являются прямым интересом и прерогативой государства. Компьютер, который нынче занимает первое место, — IBM Blue Gene, самая большая вычислительная система современности, больше 200 тысяч процессоров, объединённых в рамках одной системы. Это 478 тысяч миллиардов операций в секунду. Опять-таки, можно сравнить, что лежит с одной стороны — обычная компьютерная техника с её 3-5 миллиардами, и 478 тысяч миллиардов. Ясно, что это техника особая, определяющая развитие всего компьютерного мира. Суперкомпьютерный мир обладает этой особенностью, совершенно верно! Он — зачинатель моды, здесь много чего рождается, а потом приходит на массовый компьютерный [рынок]. Понятно, что с этой техникой нужно обращаться специальным образом.

    Первый вопрос, который возникает: зачем нам, по сути дела, нужны суперкомпьютерные технологии? Отвечать можно по-разному, но давайте попробуем посмотреть с точки зрения промышленности, науки, образования, где возникают проблемы и какого рода? Я возьму за основу лишь один из возможных сценариев. В начале этого года в США была объявлена очень интересная программа, которая имеет некую предысторию, но развивается активно, только начиная с 2007. Она называется INCITE, идёт под эгидой министерства энергетики. Причём выделяются не деньги, а процессоро-часы. Ставится лишь одно условие: «Делайте альянс». Альянс — представителей промышленности, науки и существующих суперкомпьютерных центров (мощных, хорошо работающих, с налаженной инфраструктурой). Бюджет программы — 95 миллионов процессоро-часов. При этом выделяются, конечно, на тех компьютерах, которые представляют самый передовой класс. Здесь показан примерный список — от 1,5 до 200 терафлопс. Это колоссальная вычислительная система, просто так к ней доступ не получить. Много это или мало — 95 миллионов процессоро-часов? Достаточно сделать простое сравнение: целый год у нас самым мощным компьютером был «СКИФ Cyberia» в Томском университете. 95 миллионов процессоро-часов — это 10 таких компьютеров, целый год работающих только на выполнение данной программы. Интересен тот факт, что заявок было подано в два раза больше. Востребованность всего этого колоссальная. Причём, обратите внимание: программа построена исключительно умно, потому что одновременно убито несколько зайцев, в частности задача установления контактов между промышленностью, наукой и компьютерными центрами. Да, в промышленности есть реальные постановки задач, которые могут решаться представителями науки, но они приходят в готовые суперкомпьютерные центры с прекрасной инфраструктурой. И не нужно проходить мучительный начальный процесс освоения. Поэтому я и говорю, что альянс трёх групп сделан очень не случайно. Второе, что очень важно: обеспечивается постепенный переход к новым технологиям. С какой стати коммерческая фирма возьмёт и купит компьютеры из того диапазона, о котором я рассказывал? Никогда такого не будет. Но они работают на этих установках, они приучаются к новым технологиям, к новым задачам и к тем проблемам, которые возникают. Последнее: кроме того, они могут «пощупать» задачи совершенно нового масштаба, чего просто так сделать не могут. Процесс непростой, но здесь они его переживают достаточно спокойно для себя.

    Нужно ли это науке? Честно говоря, мой вопрос — риторический. Наука вообще является особой областью, она с благодарностью принимает всё то, что помогает ей продвигаться вперёд. Суперкомпьютер — это уникальный инструмент. Дополнительным аргументом является то, что наука всегда была теоретической, экспериментальной, но сейчас вовсю заявила о себе третья составляющая — вычислительная. По существу, суперкомпьютер представляет собой лабораторную установку: её можно перенастроить под ту задачу, которую требуется выполнить. Более того, многие задачи и решить невозможно без использования компьютерного моделирования. Один из примеров, показанных здесь, — это глобальные изменения климата. Поставить натурный эксперимент просто не представляется возможным. Важно и то, что развитие вычислительной математики, вычислительных методов в целом сейчас таково, что во многих случаях есть возможность переходить от моделирования к полному воспроизведению того или иного процесса — уникальная ситуация, которая появилась и благодаря развитию математики, и благодаря развитию компьютерных технологий.

    Ну, а вопрос: нужны ли образованию суперкомпьютерные технологи, достаточно очевиден. Нужны хотя бы потому, что это требуется и промышленности, и науке; подготовка кадров — колоссальная проблема. Это одна из тяжелейших проблем, с которой нам сейчас, в России необходимо так или иначе бороться, и решать её.

    Теперь кратко о том, где это всё используется. Сейчас специально был сделан акцент на коммерциализацию, на использование в промышленности, в реальном секторе. Есть ли здесь хорошие успешные примеры? Их огромное количество, нужно лишь посмотреть по сторонам. На самом деле, сложнее найти то место, где это не используется. Вот лишь несколько примеров. Нефтяная область: используется любой большой нефтяной компанией, поскольку необходимо моделирование нефтяного резервуара. Как можно определить вычислительную сложность простого модельного расчёта? 2 500 миллиардов операций для получений всего лишь одного подобного расчёта. Изменились параметры модели — просчёт нужно делать по новой. Изменились входные данные — то же самое. Сейчас, разумеется, никто не говорит о том, чтобы поставить такие расчёты в режим реального времени, хотя потребность есть — реальное использование. Довольно нетрадиционная область применения: мы привыкли к мультфильмам, которые всегда ассоциировались с творчеством или хотя бы с новыми технологиями, связанными с тем, что человека обвешивают датчиками, после этого он выполняет движения, которые должен совершить персонаж, и они переносятся в анимацию. Сейчас технологии меняются и прекрасный тому пример — «Шрек-3», мультфильм, который видели многие. По существу ему можно дать подзаголовок «Шрек Третий, суперкомпьютерный». Вот здесь предоставлены данные, которые недавно анонсировала компания Dreamworks, — практически вся работа по анимации делается на основе математических моделей, а сложность показана тут. 24 кадра в секунду, столько-то кадров в фильме. В среднем — два часа на обработку одного кадра. Данные говорят о 20 миллионах процессоро-часов — то, что было затрачено на производство «Шрека-3». Его невозможно сделать в разумные сроки на обычной технике, и они это понимают. Вот компьютер, который использовался в компании Dreamworks: 8 тысяч процессорных ядер, работающих только на эту индустрию, на данный конкретный фильм. Прекрасный доклад недавно сделал представитель фирмы Whirlpool — все мы знаем её, это производитель домашней техники. Обратите внимание на название: «Высокопроизводительные вычисления на кухне и в прачечной». Вообще-то говоря, ни одна фирма столь открыто не говорит об использовании суперкомпьютерных технологий на себя, потому что это конкурентное преимущество. С какой стати она будет это разглашать, если она сообразила, что можно использовать результаты компьютерного моделирования для улучшения качества продукции. Можно было бы и помолчать. Плюс в том, что эта компания участвовала в той самой программе INCITE, и она рассказывала о результатах выполнения своего проекта. «Да, мы хотим, чтобы стиральная машина выполняла свои функции, и вдобавок к тому, хотим, чтобы она работала тихо». Это можно делать с использованием математического моделирования при помощи суперкомпьютерной техники. В противном случае проект не осуществить никак. Область, знакомая всем, — компьютерное моделирование, которое позволяет намного сократить расходы в производстве автомобилей. Да, это результаты моделирования, но они в точности, изумительно совпадают с тем, что происходит и получается в результате натурного эксперимента. Осуществляется значительное сокращение расходов, сроков производства. Очень интересный экспонат на последней суперкомпьютерной выставке представил Штутгартский суперкомпьютерный центр: они пригнали новую модель «мерседеса» и показывали буквально в режиме онлайн. Вон там сзади стоит компьютерная панель, можно выбрать любую область этого автомобиля. Здесь же, в онлайне, происходит расчёт (разумеется, с использованием суперкомпьютерной техники), который показывает и параметры прочности, и обтекание автомобиля, и весь этот автомобиль. А в целом набор задач, набор областей, где используются подобные технологии, колоссальный. Нам на это нужно обязательно обратить внимание.

    Александр ТИХОНОВ:

    Сейчас прокладка Северного Балтийского [ред. — Северо-Европейского] газопровода идёт просто в реальном режиме, на обработке суперкомпьютером. Вчера фрагмент показали по телевидению, но вы же понимаете, что подобным образом это и работает.

    Владимир ВОЕВОДИН:

    Подобная информация регулярно проходит, без неё никуда. Жизнь ведёт в эту сторону. Здесь показано лишь небольшое количество примеров, где это реально используется на практике, нужно только обратить внимание на то, что да, всё двигается в эту сторону, и это нужно взять в качестве основной центральной точки (точки отсчёта). Безусловно, многие государства просто строят политику на том, что это должно браться в качестве отправной точки. Вы уж извините, я буду в пример приводить Америку, которая всё-таки здесь на шаг или на полшага впереди. Я сейчас демонстрирую всего лишь титульные листы некоторых документов, которые готовятся комиссиями при президенте, их названия говорят сами за себя. «Вычислительная наука», «Обеспечение конкурентоспособности Америки», «Инвестирование в американское будущее», «Кибер-инфраструктура». Вот это всё кладётся на уровень государственной политики, разрабатывается государственными органами при участии профессионалов в конкретных предметных областях. Вообще говоря, нужно задуматься, чтобы и у нас была — хотя бы на уровне критических технологий — технология, связанная с высокопроизводительными системами и их приложениями. Сейчас без этого уже никуда.

    Давайте немного поговорим о том, где находятся болевые точки в самой области, и на что имеет смысл обратить внимание, когда мы будем рассматривать новые заявки, проекты; а они уже начинают поступать, ведь программа задумана на много лет. Этим всё равно придётся заниматься. Вот базовый уровень, на основе которого строятся суперкомпьютерные системы. Их можно условно расположить на некоторой прямой: с одной стороны, классические универсальные процессоры, с другой — специализированные плис-компьютеры [ПЛИС: программируемая логическая интегральная схема] на основе FPGA. Всё имеет свои плюсы и минусы. Что мы имеем в области классических процессоров — это прекрасная программная инфраструктура. Там есть наработки, которые развиваются годами. И если нам нужно быстро получить результат, мы там это можем сделать. Что касается плис-компьютеров — уникальные технологии, которые позволяют адаптировать структуру компьютера под реальную задачу. Здесь есть хорошие наработки, хорошие результаты. А идея-то на самом деле очень простая. С какой стати развивается только универсальная архитектура? Почему любую задачу можно одинаково эффективно решить на универсальном процессоре? В том же самом транспорте, автомобилестроении пришли к выводу, что каждой задаче, каждой функции должен отвечать свой автомобиль. Есть бензовоз, есть каток, есть такси, есть автобус — каждый выполняет свою функцию. Конечно, можно, как в компьютерах, соорудить нечто среднее: небольшой грузовик, в котором есть кабина, с его помощью можно будет укладывать асфальт. Но это же неудобно! Идея заложена здесь. По сути дела, архитектура компьютеров должна учитывать структуру задачи, и это можно реализовать на основе FPGA-компьютеров. Но мы можем получить эффективную реализацию. Основная проблема, с которой сейчас столкнулись и российские, и мировые исследователи (в мире, кстати, сейчас идёт бум использования плис-компьютеров), использовать [их] крайне сложно, нет программной инфраструктуры, нет понимания того, как взять программу или алгоритм, и быстро, легко адаптировать к архитектуре FPGA-компьютеров. Это серьёзная проблема, на которую нужно обратить внимание.

    Если упоминать об универсальных процессорах, основное направление таково: всё становится многоядерным. Компьютерный мир стал полностью параллельным. Происходит изменение сравнимо с тем, которое случилось в середине 1950-х годов: люди только осваивали компьютерную грамотность, но теперь нужно делать новый шаг, осваивать новую, параллельную компьютерную грамотность. Уже понятно, что это не просто надолго, а навсегда. Intel анонсировал 80-ядерный процессор в начале этого года, опытный образец был продемонстрирован. Сейчас у нас на столах нет проблем — двух-, четырёхядерные, и дальше это будет только развиваться. Всё! От параллелизма никуда не уйти со всеми вытекающими отсюда последствиями — и на разработку программного обеспечения, и на функционирование программ.

    Дальше суперкомпьютерные системы, отталкиваясь от этой основы, строятся естественным образом. Формируется какое-то количество базовых элементов над общей памятью, получаемых с компьютера [серии] MP. Если не хватает производительности (а наращивать бесконечно с общей памятью мы не можем), делаем компьютеры с распределённой памятью, есть и кластерные системы, и проетарные. Потом это объединяется в грид-сегменты, в распределённые вычислительные среды. Вот так сейчас и происходит развитие суперкомпьютерной техники в мире.

    Несколько примеров: месяц назад фирма Nec анонсировала новый векторный компьютер, который является последователем того самого Earth Simulator’a, о котором я упомянул в самом начале. Производительность максимальной конфигурации — до 820 терафлопс. Фантастические цифры! Планы Японии на следующие годы, где формируются альянсы основных трёх компьютерных производителей (Nec, Fujitsu, Hitachi) — это петафлопс. На всякий случай: петафлопс — это десять в пятнадцатой степени. Вообще, основная мысль, которая сейчас «сквозит» в суперкомпьютерной мировой отрасли, это готовность к петафлопным вычислениям. Проблема совершенно нового качества. Когда в использование даётся машина, в которой 100 тысяч процессоров, все проблемы обостряются до невозможности. Представьте себе разработку программного обеспечения, представьте себе её отладку. Какими они должны быть? Какие должны использоваться технологии? Могут ли здесь применяться формальные методы? Могут и должны — но как они должны быть устроены, когда речь идёт о системах подобного уровня? Здесь каждый элемент должен масштабироваться. Готовность к петафлопным вычислениям — серьёзная проблема. Здесь требуется ревизия всей инфраструктуры.

    Другое направление: опять-таки месяц назад фирма Cray анонсировала новый компьютер. С одной стороны, развитие традиционной линейки ХТ, массивно-параллельных, но здесь принципиально новый шаг, и абсолютно разумный. Всегда в суперкомпьютерной области было так, что мы свои программы адаптировали к архитектуре компьютера. Но это неправильно, должно быть с точностью наоборот! Компания выдвинула концепцию адаптивных вычислений, когда архитектура компьютера подстраивается под структуру задачи. Всё должно быть во имя задач и во имя прикладников. Здесь эта линия прослеживается, поскольку в рамках одной системы есть и классические многоядерные процессоры, есть и векторные процессоры, есть FPGA-ускорители. То, что будет выгодно использовать для конкретной задачи, то и будет задействовано в рамках данной системы. Этот лозунг «Архитектура компьютеров по структуре алгоритма» должен, безусловно, приниматься в расчёт, поскольку именно так сейчас развивается вычислительная техника.

    Несколько слов относительно технологий параллельного программирования. Крайне важная тема, поскольку это ключевая и больная точка. Здесь нарисована общая цепочка «когда мы решаем задачи на компьютере»: задача, метод, алгоритм, выбирается технология программирования, записывается программа, компилятор и, наконец, всё это исполняется на компьютере. Ключевое звено (недаром оно стоит в центре) — это технологии параллельного программирования. Все пришли к пониманию: невозможно всё сделать на основе MPI, на основе OpenMP, нужны новые подходы, новые парадигмы. Все основные компьютерные игроки работают в этом направлении, причём — не могу не отметить — при колоссальной поддержке государства. Компания Cray развивает проект Chapel. Компания Sun Microsystems развивает проект Fortress. Компания IBM развивает проект «X-10». И всё рассматривается с точки зрения трёх основных критериев: эффективность (можно ли создавать эффективные программы, поскольку в HPC [High-performance clusters: высокопроизводительные кластеры] только это и имеет смысл), переносимость (будут ли созданы уникальные программы, или они могут нивелировать в рамках суперкомпьютерных семей) и, разумеется, продуктивность (труд программиста: сколько усилий нужно положить на то, чтобы создать хорошую параллельную программу). Необходимы технологии параллельного программирования. На данный момент достойных вариантов нет. Все понимают, что это кризис в данной области. Есть очень интересные результаты и направления. В частности, тот проект, который предложила компания Sun Microsystems (вот то, что здесь показано), является параллельной программой на языке Fortress. Обратите внимание, это почти выжимка из учебника математики [о] вычислительном методе сопряжённого градиента. К этому человек, работающий прикладным программистом, привык, но он должен ставиться во главу угла, потому что основное — это задача, то, для чего служит суперкомпьютерная система, которая является, по сути дела, инструментом. Это параллельная программа, здесь масса проблем, связанных с эффективностью. Но то, что человек будет быстро проходить этап от формулировки задачи до получения результата, несомненно. Эта запись, по крайней мере, привычна. Направление, которое активно развивается и у нас в России, — создание хороших прикладных пакетов, которые могут работать на систему терафлопного уровня. И для пользователя это тоже прекрасный вариант, потому что он мыслит в терминах своей прикладной задачи. Ему нужно согнуть балку — он формулирует именно в терминах свойств материала [параметры] того изменения, которое нужно с балкой произвести. Дальше — это задание входных данных: по существу пользователь нажимает кнопку и не задумывается, а как реализована математика; какие вычислительные методы применяются; как идёт процесс распараллеливания? Это уже сделали профессионалы в своей области — они ему предоставили всё в качестве готового продукта. Это пример комплекса FlowVision. Приятно то, что он развивается у нас в России, и подобное направление востребовано с учётом того колоссального интеллектуального потенциала, который имеет и российская школа вычислительной математики, и российская наука в целом.

    Последнее, наверное, о чём хотелось бы сказать: безусловно, проблема комплексная, и здесь уже назрел вопрос о необходимости аккуратной разработки стратегии развития внедрения высокопроизводительных вычислений в научно-технологическом комплексе. Нужен отдельный документ (по аналогии с теми огромными, о которых я только упоминал применительно к США), который затронет и решение реальных задач, и внедрение в российскую экономику. Здесь же будет развитие грид-технологий. Все смежные вопросы, которые определяют суперкомпьютерную инфраструктуру, здесь должны быть представлены. Спасибо!

    Александр ТИХОНОВ:

    Спасибо, Владимир Валентинович. Пожалуйста, вопросы!

    Дмитрий КУРАКИН, заместитель директора ФГУ «Государственный НИИ информационных технологий и телекоммуникаций»:

    Владимир Валентинович, вы — руководитель секции №2, «Технологии распределительных вычислительных систем». Сейчас вы сказали о тех направлениях, которые должны реализовываться в мире. Но как та тематика работ, которая была в секции, скоррелированна с этими направлениями? Вы довольны тем охватом работ по второй секции или нужно было усилить какую-то недостающую часть? Или уменьшить? Расскажите, пожалуйста, о секции, и как отражается сухой результат данных работ?

    Владимир ВОЕВОДИН:

    Что значит «доволен или не доволен»? Есть понимание того, куда нужно двигаться. Дальше формулировались некоторые приоритеты. Естественно, потом шли реальные предложения. Мы же не можем сказать: «Вы решаете такую задачу». Должен быть коллектив, который в состоянии её решить. Из того набора заявок, которые предлагались, — да, многие лежали в этом направлении. Да, есть интересные разработки в области технологий параллельного программирования, в области построения грид-систем, в области создания прикладных пакетов. «Доволен — не доволен» — это будет видно только по результатам того, что люди сделают в конце, по результатам отчётов. Тогда уже можно будет подводить некоторые итоги. Да, безусловно, у нас есть направления, которые не представлены, но мы должны их обозначить, чтобы люди видели приоритеты, куда нужно двигаться.

    Александр ТИХОНОВ:

    Пожалуйста, ещё вопросы. Нет? Спасибо. Я хотел предупредить вас, господа, что Дмитрий Анатольевич Лощинин сегодня улетел в командировку — не смог отменить её — по работе, поэтому его заместитель, Королёв Сергей Владимирович, выступит от секции «Технология производств программного обеспечения». Пожалуйста, Сергей Владимирович!

    Сергей КОРОЛЁВ, заместитель директора компании Luxoft:

    Добрый день! Меня зовут Сергей Королёв, я помогал Дмитрию Анатольевичу в организационных работах по секции «Технология производства программного обеспечения», и хотел поделиться некоторыми особенностями работы нашей секции, теми принципами, по которым мы выбирали заявки, которые наша секция предлагала к выполнению (вернее, к внедрению конкурсов). Мне показалось, что в отличие от других секций, в нашей секции было значительно больше представителей бизнеса. Помимо представителей венчурного фонда, являющихся специалистами в области инвестиций (это тоже важный момент, когда государство вкладывает деньги в проект, надо понимать, для чего это делается; одна из задач была — не просто поддерживать научные исследования, но и такие, которые имеют шансы на дальнейшую коммерциализацию; важный индикатор целевой программы — объём продукции, который можно получить благодаря выполненным проектам), в нашей секции работали три руководителя известных компаний, которые как раз производят программное обеспечение.

    Производство программного обеспечения, наверное, является одной из тех областей ИТ, в которой имеются результаты не только на уровне России, но и на мировом.

    Например, представители и руководители компании Parallel Graphic (ранее — компания «ПараГраф») ещё в начале 90-х годов создали свою технологию распознавания рукописного текста компании Apple. Может быть, не все помнят: широко распространённые сейчас карманные компьютеры впервые появились под названием Newton, за авторством компании Apple. И там использовались технологии «ПараГрафа». Сейчас они используются компанией Microsoft для своих компьютеров, в планшетной версии Windows, для распознавания рукописного текста. Дальше, помимо этой технологии, технология трёхмерного моделирования была создана известной компанией Silicon Graphics. С её применением разрабатывались многие спецэффекты Голливуда. И такая компания обратила внимание на российские технологии, для того чтобы использовать их в другом сегменте — моделировании трёхмерных объектов.

    Другой представитель, более вам известный, — руководитель «Лаборатории Касперского». Это больше технологическое направление, успех производства компьютерных технологий, которые получают развитие в мировом масштабе. Вы все знаете, что «Касперский» — самый распространённый и коммерчески успешный антивирус в России. В мире он тоже удачно развивается и конкурирует.

    Третий представитель — собственно, директор нашей компании Luxoft Дмитрий Лощинин. Может быть, не все знают: мы не разрабатываем продукты, как Касперский, или какие-то технологии, как «ПараГраф». Мы занимаемся предоставлением сервиса по разработке программного обеспечения. Данная деятельность больше известна как «заказное программирование». В мире наиболее известны успехи Индии в этом направлении. Опыт нашей компании, полученный в 1999 году, показывает, что мы можем благополучно конкурировать и в нём, несмотря на то, что наши затраты (из-за того, что зарплаты и бизнес-обстановка сильно отличаются от индийских) значительно больше. Тем не менее, мы составляем конкуренцию. Во многом благодаря тому, что не занимаемся тем, чем сильна индустрия: ставишь чётко задачу, а дальше они её тривиальным способом решают. Благодаря национальной образовательной системе и особенностям российских программистов, в частности, использованию некоторых технологий, мы в наших сервисах предоставляем такие услуги, которые не находят исполнителей в Индии. Те, кто раньше работал с индийскими компаниями, также начал работать и с нами. Это — некоторое вступление, чтобы показать то, что конечной целью любого научного исследования является его реализация.

    И мы при анализе заявок пытались найти такие, которые имеют предпосылки для подобной реализации. Помогли нам в этом непростом деле и некоторые рекомендации рабочей группы. При анализе заявок надо было не только поддерживать данную конкретную группу, но и попробовать обобщить все заявки, поступившие на конкурс, сформулировать некий лот, который объединял бы тенденции. При этом мы формулировали четыре лота и предусмотрели в них возможность финансирования до 12 проектов. Количество заявок, которое мы уже имели по этим направлениям, было меньшим. Мы поступили так для того, чтобы после того, как будет объявлен конкурс, существовала возможность для других коллективов, не сформировавших заявку, увидеть обобщённое название работы и подать новую заявку, которая также была бы рассмотрена и профинансирована. Я могу сказать, что у нас было довольно много предложений внутри секции, и в конечном итоге состав заявок наполовину отличался от того, что рассматривалось вначале. В результате дискуссии внутри секции мы рекомендовали заявки, поданные к использованию, но в обобщённые лоты вошли иные заявки (не те, которые предполагались). Окончательно мы сформировали четыре лота. [Первый —] это разработки в области уже существующих языков программирования и моделирование программного обеспечения, технологии инструментальных средств проектирования программ. Второй лот — разработка технологий верификации программного обеспечения. Третий — программное обеспечение и средства поддержки технологий разработки программного обеспечения телекоммуникационных систем нового поколения. И четвёртый — технология разработки распределённых программных систем, получение и использование знаний. Помимо этих заявок были поддержаны некоторые индивидуальные заявки. И хотя по нашему направлению, как говорил Александр Владимирович в своём начальном выступлении, выполняется меньше проектов, чем рекомендовано другими секциями, я могу сказать, что, по крайней мере, мы рекомендовали количество проектов, которое было в три раза больше, чем то, что было в конечном итоге профинансировано. Поскольку есть ещё и другие механизмы, помимо рекомендаций нашей секции, дальнейшего отбора и финансирования программ. Спасибо. Если есть какие-то вопросы, прошу их задавать.

    Александр ТИХОНОВ:

    Да, пожалуйста. Какие вопросы? Нет? Спасибо. Уважаемые коллеги, как вы видите из имеющейся у вас бумаги по регламенту и порядку, у нас сейчас — слегка раньше, но не хуже — будет перерыв. Поскольку дальше у нас идут доклады и выступления руководителей контрактов, или, как здесь сформулировано, «победителей конкурсов». Я к этому отношусь гораздо протокольнее: контракт — он и есть контракт, победил ты или нет, дальше наступает худший этап. Момент победы очень краток и быстро заканчивается необходимостью выполнения условий обеспечения контракта.

    Так вот. Сейчас — кофе-брейк, а потом мы продолжаем. Давайте договоримся: первая секция у нас работает здесь Владимир Валентинович, вы с вашей секцией на первом этаже. Если вы проходили КПП, то с правой стороны есть надписи; вот этот зал вам предоставлен для работы. И третья у нас в фойе; самый удачный вариант, потому что там — кофе. Планировалось, что у нас на кофе-брейк отведено полчаса (по программе). Мы начнём в 12:15 работу секций. Пометьте себе, что мы попросту начинаем раньше. Я не сказал: нужно отметить командировочных. Все формальности с документами будут улажены.

      Версия для печати
    обсудить в форуме   Обсудить в форуме
      Перейти в живой журнал: STRF.livejournal.com



    Аннотации тематических блоков
    В гуманитарную область – с математическим расчетом
    3 февраля 2006
    Существуют ли формулы, с помощью которых можно рассчитать последствия социальных явлений? Эконофизический подход к финансам, который в последние годы становится все более популярным, может стать значительно более прибыльным, чем традиционное прогнозирование, утверждают учёные

    Фундаментальные деньги
    27 декабря2007
    Под новый год сбылась надежда учёных: президент России Владимир Путин одобрил программу фундаментальных научных исследований государственных академий наук на 2008—2012 годы с бюджетом почти в 254,5 миллиарда рублей. Академики отстояли право самостоятельно распоряжаться деньгами, и обязались в течение пяти лет представить не только новые знания, но и решения многих организационных проблем науки, включая увеличение притока молодёжи в сферу фундаментальных исследований

    ИТОГОВАЯ КОНФЕРЕНЦИЯ «Информационно-телекоммуникационные технологии: положение на сегодняшний день и пути дальнейшего развития» (часть 1)
    6 декабря2007

    От физики к предпринимательству
    14 февраля 2008

    В Московском физико-техническом институте начали готовить специалистов, способных не только создавать, но и внедрять наукоёмкие технологии. Аналогов этому проекту в России пока нет. В скором времени в вузе планируют утвердить новый образовательный стандарт «Наукоёмкие технологии и экономика инноваций», тем самым добившись официального признания новой специальности

    Наука 2.0
    15 февраля 2008

    Парадоксально, но факт: изначально веб задумывался для обмена, прежде всего, научной информацией, однако до недавних пор учёное сообщество осваивало интернет — в профессиональных целях — довольно неспешно. Ситуация меняется на наших глазах: «социальные» интернет-технологии ускоряют диффузию научных знаний



    © Электронное издание «Наука и технологии России».
    Свидетельство о регистрации средства массовой информации Эл №ФС77-29914 от 12 октября 2007 года.
    При использовании размещенных на сайте материалов ссылка на источник обязательна.
    Редакция: +7(495)930-87-07; infostrf.ru
    Rambler's Top100 Разработка Metric