Печатная версия
Архив / Поиск

Archives
Archives
Archiv

Редакция
и контакты

К 50-летию СО РАН
Фотогалерея
Приложения
Научные СМИ
Портал СО РАН

© «Наука в Сибири», 2024

Сайт разработан
Институтом вычислительных
технологий СО РАН

При перепечатке материалов
или использованиии
опубликованной
в «НВС» информации
ссылка на газету обязательна

Наука в Сибири Выходит с 4 июля 1961 г.
On-line версия: www.sbras.info | Архив c 1961 по текущий год (в формате pdf), упорядоченный по годам см. здесь
 
в оглавлениеN 45 (2930) 14 ноября 2013 г.

УХАБЫ НА ДОРОЖНОЙ КАРТЕ
МАТЕМАТИЧЕСКОГО МОДЕЛИРОВАНИЯ

В.П. Ильин, главный научный сотрудник ИВМиМГ СО РАН,
доктор физико-математических наук,
профессор НГУ, руководитель проекта РФФИ № 11-01-00205

Введение.
Успехи порождают проблемы

Иллюстрация

Согласно закону Мура о компьютерной эволюции, 2013 год является приблизительной «медианой» постпетафлопcного периода: 2008 г. — время появления первого в мире «петафлопника», а через 11 лет, в 2019 г., прогнозируется рождение экзафлопной машины (1 экзафлопс = 103 петафлопс (пфлопс) = 106 терафлопс (тфлопс) = 109 гигафлопс (гфлопс) = 1018 «усреднённых» арифметических операций с плавающей запятой в секунду). На текущий момент всё идёт по плану. Согласно объявленному в ноябре 2012 г. списку суперкомпьютеров ТОР-500, в мире тогда имелось 23 многопроцессорные вычислительные системы (МВС) с производительностью выше 1 пфлопс: 10 — в США, 4 — в Японии, по 2 — в Германии, Китае, Великобритании и Франции, 1 — в Италии.

Вопрос измерения быстродействия МВС сам по себе является дискуссионным, но единственной общепринятой на сегодняшний день меркой является средняя скорость выполнения арифметических операций при решении алгебраических задач с помощью широко известного пакета прикладных программ (ППП) LINPACK. Другие ключевые характеристики — это теоретическое, или пиковое, быстродействие, объём оперативной памяти, количество вычислительных ядер и потребляемая электрическая мощность. Например, самый мощный в мире компьютер ТИТАН, расположенный в Окриждской Национальной лаборатории (США), имеет теоретическую скорость 27,1 пфлопс и 17,6 пфлопс — «в линпаках», 560640 ядер, память — 0,71 петабайт = 7,1×1014 байт (один байт состоит из восьми двоичных разрядов) и энергопотребление 8,2 мегаватт. Для сравнения приведём показатели находящегося на 26-й позиции в списке ТОР-500 российского компьютера ЛОМОНОСОВ из МГУ: скорость в «линпаках» — 0,9 пфлопс, теоретическое быстродействие — 1,7 пфлопс, число ядер — 78669, что свидетельствует об относительном отставании наших темпов роста, в том числе за последние 3–4 года.

На 2014 г. в мире уже запланировано появление компьютера с реальным быстродействием более 100 пфлопс, так что «пришествие» экзафлопника в 2019 г. наверняка состоится, и закон Мура не будет нарушен. При этом кардинального изменения архитектуры не ожидается, да и частота передачи сигналов остается по-прежнему на уровне нескольких гигагерц. В ближайшем будущем МВС — это кластерная сеть из многопроцессорных узлов гетерогенного типа, в которых процессоры, в свою очередь, состоят из множества вычислительных ядер и делятся на два основных вида: универсальные (центральные процессорные устройства) или специализированные ускорители (графические процессорные устройства, а также ПЛИС — программируемые логические интегральные схемы). Наибольшие хлопоты представляет оперативная память, которая распределена по узлам, обеспечивает общий доступ из «своих» процессоров и имеет многоуровневую иерархическую структуру. В развитии суперкомпьютеров наблюдается закономерность — с увеличением быстродействия почти пропорционально возрастает объём хранимых данных, и эта полумистическая связь между совсем разными, казалось бы, категориями оказывается практически всегда оправданной.

Взрывной количественный рост технического оборудования привносит качественно новую ситуацию для математика-программиста. Во-первых, согласно теории вероятности становится вполне реальным отказ какого-либо устройства во время исполнения алгоритма, и это необходимо учитывать при программировании. Во-вторых, стоимость электроэнергии оказывается очень существенной в общих расходах на эксплуатацию суперкомпьютера. Серьёзность ситуации совсем не шуточная, так как при сохранении нынешнего отношения «быстродействие / мощность» на уровне 2 гфлопс/вт экзафлопная машина потребует более 100 мегаватт, а это уже небольшая, но электростанция. Снижение энергопотребления в несколько раз — одна из главных технических целей компьютерных конструкторов, а самые оптимистические прогнозы здесь — уменьшить количество мегаватт до 20.

В этой связи важно отметить, что коммуникационные операции — намного более энергозатратные, чем арифметические. Отсюда возникает новая проблема построения наиболее «дешёвых» алгоритмов в необычном смысле этого слова, т.е. требующих наименьших обменов данными. Вообще говоря, сокращение коммуникационных потерь — это традиционная задача теории и практики параллельных высокопроизводительных вычислений, но формулируемая в плане минимизации времени решения задачи или выполнения алгоритма на МВС. А это уже другая оптимизационная проблема для многопроцессорного компьютера. Например, если межпроцессорный обмен какого-то объёма данных совместить во времени с реализацией арифметических действий, то ускорения вычислений мы достигнем, но энергозатраты при этом останутся неизменными, так как сами коммуникации не уменьшаются.

Наука «теоретическое программирование» пока далека от возможности дать практические рекомендации по эффективному программированию на сложнейших компьютерных устройствах, поскольку сама модель таких вычислений фактически отсутствует (сапожник без сапог). Поэтому качественная реализация параллельных алгоритмов — это сложная эмпирическая работа, требующая большого объёма технических знаний, опыта, терпения и не предназначена для слабонервных.

Естественно, что суперкомпьютер петафлопного уровня должен становиться центром коллективного пользования, другими словами — центром обработки данных (ЦОД, или Data Center), а сами расчёты могут проводиться в режиме удалённого доступа через Интернет. Такие технологии «облачных» вычислений (Cloud Computing) уже становятся реальностью, и при этом пользователю зачастую предлагается не просто машинное время, а вычислительные услуги с программным обеспечением для решения требуемых задач (SaaS — Software as a Service). Теперь какой-либо отраслевой организации или университету нет смысла заводить собственный дорогостоящий вычислительный центр и структурную службу, а лучше обращаться к «облаку».

Следует отметить, что если за последние 11 лет компьютерные мощности увеличились в 1000 раз, то отнюдь нельзя сказать, что за этот период выросла массовость эффективного применения математического моделирования хотя бы в 100 раз, в том числе и в России. В дальнейшем мы как раз будем интересоваться отечественной ситуацией, которую можно оценить и по уровню публикаций на соответствующие темы, и по характеру конференций, и по профессиональному общению. Сейчас в России несколько десятков «суперкомпьютеров» с быстродействием от 10 до 100 тфлопс, которые публикуются в списке ТОП-50, включающем страны СНГ. Вопрос количественной оценки «роста моделирования» очень непростой. Здесь можно даже вспомнить печальный опыт общесоюзной кампании «АСУ-низация всей страны» в 1970–1980 годы, когда директор завода или предприятия ставил у себя ЭВМ и рапортовал о внедрении автоматизированной системы управления производством, хотя как раз последнее на 90 % было блефом.

Сейчас в мире существует многомиллиардный рынок прикладных программных пакетов для математического моделирования самых разных процессов и явлений. Как правило, такие ППП разрабатываются коллективами из многих десятков человек в течение нескольких десятилетий. Широко известны, например, коммерческие продукты MSC NASTRAN, ANSYS, COMSOL, которые успешно используются в задачах гидро-газодинамики, упруго-пластичности, электрофизики и т.д. Как правило, идеологически — это закрытые инновации, почти не приспособленные к модификации пользователями, желающими их адаптировать к своим конкретным условиям. Кроме того, в Интернете имеется большое количество общедоступных программных библиотек и вычислительно-информационных инструментариев, решающих некоторые необходимые, но частные проблемы моделирования. Грубо говоря, имеется огромный программный «зоопарк», и конечному пользователю надо потратить слишком много времени для изучения объёмных технических материалов, что практически невозможно для эксперта в предметной профессиональной области.

Ситуация усугубляется, когда речь идет о необходимости эффективного распараллеливания алгоритмов на современных МВС сложнейшей архитектуры. С одной стороны, это неизбежно повышает требования к уровню знаний пользователя, но главное — разработчикам фактически приходится создавать новое поколение прикладного математического и программного обеспечения, рассчитанного на эффективное использование миллионов вычислительных процессоров и ядер. Именно данная проблема ставится во главу угла в дорожной карте IESP — Международного проекта экзамасштабного программирования, возглавляемого общепризнанным мировым авторитетом Джеком Донгаррой. Сейчас эта деятельность расширяется за счёт EESI — Европейской экзапроблемной инициативы, а также подключения национальных экзамасштабных программ Японии и Китая. На сегодняшний день проведено около десятка рабочих совещаний (Workshops) мировых экспертов. В Интернете можно найти результаты обсуждения ими актуальных вопросов создания удобного программного окружения для пета- и экзасистем, развития модели кооперации вычислительного сообщества, обучения новым парадигмам программирования и т.д.

В Российской Федерации наибольшую организационную активность осуществляет возглавляемый академиком В. А. Садовничим Суперкомпьютерный консорциум университетов России, основанный в 2008 г. и включающий около 60 постоянных и ассоциированных членов, среди которых ведущие университеты РФ, институты РАН, а также коммерческие компании, активно работающие в области суперкомпьютерных технологий.

По инициативе Консорциума проводятся научные конференции, молодёжные школы и рабочие совещания, выпускаются книги и аналитические обзоры, а в 2010–2012 гг. был осуществлён проект «Суперкомпьютерное образование» Комиссии при Президенте РФ по модернизации и технологическому развитию экономики России. В рамках этого проекта создана сеть научно-образовательных центров суперкомпьютерных технологий (НОЦ СКТ) на базе восьми университетов по всем федеральным округам. Разработан Свод знаний и умений (компетенций), а также сформированы учебные курсы, программы повышения квалификации и проведены многочисленные образовательные мероприятия с вовлечением средств массовой информации.

Надо сказать, что эти безусловно полезные мероприятия оставляют ряд вопросов. Почему в сеть НОЦ СКТ не включен Новосибирск — столица Сибирского отделения РАН и колыбель отечественной информатики? Где «потерялась» научная фундаментальная составляющая высокопроизводительных вычислений? Что будет после завершения разового трёхлетнего проекта Комиссии? И где вообще активная организующая роль Министерства образования и науки РФ в плане создания российского экзафлопника, о котором сообщалось в СМИ ещё пару лет назад?

Конечно, проблема кадров в области высокопроизводительных вычислений является критической, поскольку цивилизованное сообщество оказалось не готово к техническому прорыву в производстве суперкомпьютеров. Для преодоления этой болезни роста нужны не только адекватные фундаментальные достижения в математике и информатике, но и целенаправленные скоординированные усилия в создании новых массовых профессий — как разработчиков математического и прикладного программного обеспечения, так и его квалифицированных пользователей, включая вооруженных современными информационными технологиями физиков, химиков, биологов, машиностроителей и т.д.

Четыре ипостаси математики

Главная особенность развития высокопроизводительных вычислений (по-английски HPC — High Performance Computing) заключается в том, что человечество получило доселе невиданные возможности решения сверхзадач — прямых и обратных, междисциплинарных, с реальной адекватностью моделей и высоким разрешением результатов, с обработкой огромных объемов данных, — которые открывают новые пути к прорывным фундаментальным знаниям и технологическим инновациям.

В этом историческом процессе ключевую роль играет математизация всех научно-производственных сфер, причём в большинстве случаев технологический прогресс в какой-то отрасли тесно связан именно с тем, насколько успешно здесь применяются компьютерные расчёты.

Понятно, что сегодня роли и технологии внедрения математики должны быть переосмыслены. В США именно с этой целью создана Рабочая группа по «экзаматематике» (EMWG — Exascale Mathematics Working Group). Перед входящими в неё экспертами поставлены следующие задачи:

— проанализировать потенциальные расхождения в понимании миссии прикладной математики для экзавычислений;

— идентифицировать новые алгоритмические подходы, которые ориентированы на экзамасштабные вызовы;

— осмыслить математические возможности для решения новых фундаментальных проблем, посредством интегрирования различных математических дисциплин;

— сформировать целостную кооперативную концепцию экзаматематических исследований, которая включала бы диалог учёных из прикладных областей с учёными-вычислителями.

Чтобы вникнуть в суть поставленных вопросов, мы представим четыре ипостаси математики, которая, как известно, является и царицей наук, и слугой всех наук.

Начнём рассмотрение с теоретической математики, которая закладывает для нас основания о сути изучаемых проблем. Речь идёт о формировании, изучении и обосновании математической модели процесса или явления: естественного происхождения, научно-технического или социального. Надо сказать, что за последние десятилетия произошло идеологическое сближение теоретических физиков и математиков, и здесь на стыке наук получены замечательные результаты в области топологических методов, гомологий, внешней алгебры и дифференциальных форм, гамильтонова формализма, прикладной теории групп, дифференциально-геометрического исчислениия и т.д. Эти достижения только относительно недавно начали внедряться в приложения, и их широкое воплощение в алгоритмы как раз совпадает исторически с переходом на пета- и экза-компьютеры.

Вторая инкарнация — это вычислительная математика, обеспечивающая нас методами и технологиями получения приближённых численных решений. Данный этап заключается в превращении математической модели в вычислительную модель. Отметим, что эта фундаментальная наука неизбежно пересекается со смежной областью — информатикой, а структурно делится на свою теоретическую и экспериментальную части. Если в первом случае мы имеем теоремы об аппроксимации, устойчивости, гарантированных оценках точности, вычислительной ресурсоёмкости и т.д., то вторая часть — это обязательная проверка теории практикой. В более чем полувековой эпохе перманентной компьютерной революции численные методы переживают бурное развитие, и последние десятилетия не являются исключением. Дискретные формы и внешние конечно-элементные исчисления, методы преобразования графов и символьные вычисления, геометрические численные интеграторы, симплектические алгоритмы решения гамильтоновых систем — вот неполный перечень новых направлений, которые в совокупности с недавними, но ставшими уже классическими достижениями ХХ столетия (вычислительная алгебра, аппроксимационные принципы, методы оптимизации и т.д.), составляют современное поколение алгоритмов решения уравнений математической физики.

Важно подчеркнуть, что как теоретическая, так и вычислительная математика представляют весь свод математических знаний по прикладным задачам, но каждая из них имеет дело со своими объектами, терминами и целями исследований. А поскольку науки не стоят на месте, то в нашем случае следует исключительно значимый для практики вывод: совокупности математических и вычислительных моделей представляют не закостеневшие, а динамически меняющиеся структуры, и данная объективная сущность должна гибко поддерживаться средствами их реализации. Что касается численных методов, то с ними ситуация «усугубляется» необходимостью их распараллеливания и инвариантного отображения на архитектуры непрерывно меняющихся суперкомпьютеров.

Фундаментальные проблемы
вычислительного эксперимента

Главная ипостась в рассматриваемой нами цепочке — это математическое моделирование, т.е. проведение численных экспериментальных исследований, которые осуществляются на конкретной МВС средствами прикладного программного обеспечения, пока нами преднамеренно пропускаемого для последующего пристрастного рассмотрения. Системное программное обеспечение не является предметом нашего анализа и представляется как составная часть компьютера, создающая внешнюю операционную обстановку.

Понятие компьютерного, или вычислительного, моделирования является фундаментальным и заслуживает особого внимания. Создание моделей, методов и технологий очень важно и интересно, но венцом математического творчества является изучение прикладного предметного объекта. Вычислительные эксперименты могут иметь самый разный исследовательский характер, но в первую очередь должны быть проведены методические расчёты на специально подобранных примерах, которые могли бы охарактеризовать качество применяемого орудия моделирования. Здесь спецификациями являются адекватность модели, погрешности и устойчивость методов, оценки и контроль гарантированной точности, вычислительная сложность и ресурсоёмкость расчётов. Нахождение этих характеристик сродни градуировке, или калибровке, инструментария, который определяет производительность последующей работы и является неотъемлемой частью любой инженерной деятельности, без которой моделирование может отражать не явления реального мира, а виртуальные артефакты.

Что касается содержательных вычислений экстремального масштаба, то здесь можно в первую очередь выделить расчёты, направленные на получение новых фундаментальных знаний. Например, популярная сейчас проблема — моделирование эволюции или столкновения галактик, и задачи такого рода могут при желании полностью загрузить ресурсы любого суперкомпьютера. Среди практических суперзадач есть не менее критические, и сюда относятся прогностические проблемы, которые в принципе вряд ли будут решены окончательно: долгосрочный прогноз погоды и климата, землетрясений и экономических кризисов, а также различных техногенных катастроф. Наиболее востребованными должны быть «рутинные» проблемы: георазведка углеводородов и других полезных ископаемых, медицинские и фармакологические проблемы, материаловедение и нанотехнологии, традиционные и перспективные виды энергетики, проектирование новой техники в машиностроении, электронике, химических технологиях и т.д. Условия эффективности математических инноваций в таких массовых приложениях — это отнюдь не тривиальная проблема для достижения успешного результата.

Уместно привести наглядный пример междисциплинарной обратной суперзадачи о комплексной нефтеразведке на основе совместного анализа формируемых различными источниками сейсмических и электромагнитных полей, которые описываются системами дифференциальных уравнений Ламе и Максвелла. В данном случае геофизик проводит физические измерения генерируемых полей, а также из своих профессиональных или интуитивных соображений задает начальную модель изучаемой среды и проводит расчёты полей с помощью имеющегося у него ППП, т.е. решает прямую задачу. Затем вычисляется целевой функционал, характеризующий расхождение натурных и расчётных данных, по некоторым правилам формируется новая модель среды, повторяется решение прямой задачи и так процесс повторяется, пока целевой функционал не уменьшится до приемлемой величины. При успешном завершении этих последовательных приближений мы получаем искомые геометрические и материальные свойства моделируемой геоструктуры. Ресурсоёмкость такого компьютерного эксперимента определяется количеством решаемых прямых задач и их алгебраической размерностью, а эти величины могут достигать многих тысяч и миллиардов соответственно.

Потенциально применение моделирования — это повышение производительности труда, снижение себестоимости и повышение качества продукции, уменьшение рисков и другие факторы, которые должны поднять планку востребованности суперкомпьютерных расчетов на небывалую высоту, чего в реальной жизни пока не происходит. Здесь можно назвать две основные причины. Первая — качество инструментов моделирования, на чем мы подробно остановимся позже.

Кадры решают всё

Вторая проблема заключается в кадрах, являющихся экспертами в прикладных областях и призванных сделать квалифицированное моделирование своим непременным атрибутом профессиональной деятельности.

Здесь надо развеять имеющиеся заблуждения, которые можно выразить строчкой «беда, коль пироги начнет печи сапожник» и которым подвержены зачастую даже высококвалифицированные специалисты в своих научных или производственных отраслях (будем их условно называть физиками). Типичные рассуждения звучат так: «Мы сами всё запрограммируем и посчитаем» или «Дайте нам программиста, и мы с ним всё промоделируем». При этом зачастую добавляется или подразумевается: «Всё равно математики ничего не понимают в наших задачах». Последнее утверждение, к сожалению, имеет место, и для этого есть объективные обстоятельства.

Академик В.И. Арнольд много ратовал за единство теоретической физики и математики, предупреждал об опасности разрыва между этими науками и с ужасом констатировал появление поколения математиков, которые не читали «Ландау и Лившица». Действительно, данный уникальный многотомник, на котором зижделась мировая физика конца прошедшего столетия, не читается студентамм и математических факультетов. Сейчас маловероятно появление энциклопедистов — уникальный людей, являющихся носителями всех знаний своей эпохи. И по этой же причине физику всей своей реальной жизни не хватит на то, чтобы профессионально овладеть современными вычислительными методами и технологиями. Поэтому физик, пытающийся по сермяжному сам промоделировать свои сложнейшие процессы — это атавизм прошлого века. Существует и другая крайность: от математика-вычислителя требуют провести расчёты, образно говоря, завтра, хотя физическая задача может требовать действительно непростого вхождения в суть проблемы. И здесь фактически возникает необходимость преодоления возникшего языкового барьера между физиками и математиками.

Чтобы понять серьёзность такого положения, достаточно вспомнить библейскую притчу о Вавилонской башне, которая не была достроена только из-за того, что её созидатели по Божьему повелению стали говорить на разных языках и не смогли понимать друг друга. А нашим аналогом Башни является Свод знаний, который мы строим общими усилиями.

Историческая практика показывает, что смешение языков не является чрезвычайной ситуацией, поскольку она легко преодолевается с помощью переводчиков, которые знают по крайней мере два языка, и для этого даже не надо полиглотов. Можно, кстати, вспомнить, что спасительная, казалось бы, идея всеобщего единого языка эсперанто не нашла мировой поддержки.

В научном плане процесс общения заключается в обмене информацией и по определению является прерогативой информатики. В этом профессиональном кругу одни из самых популярных терминов — это трансляторы, конверторы, интерфейсы, в том числе «дружественный пользовательский интерфейс», — которые как раз и осуществляют взаимосогласованность разных программ или диалог между программой и человеком. Недаром одно из самых знаменитых определений Никлауса Вирта есть «программа = алгоритмы + структуры данных». Это утверждение в последние годы только актуализируется и проявляется в появлении современных технологий создания предметных специализированных языков (Domain Specific Language).

Вычислительная
интегрированная среда

Теперь обратимся к опущенной изначально инкарнации, миссия которой состоит в том, чтобы убрать существующие барьеры между математиками-вычислителями и практиками-«модельерами». Речь идёт о создании для последних не просто «спасательного круга» в океане алгоритмической и программистской информации, а вполне комфортного операционного окружения, «закрывающего» от физика излишние для него детали и кардинально повышающего эффективность работы конечного пользователя. Мы рассматриваем формирование вычислительной инструментальной среды, или базовой системы моделирования (БСМ), которая представляла бы общедоступный набор высокопроизводительных методов и технологий, поддерживающих все основные стадии крупномасштабного численного эксперимента:

— геометрическое и функциональное моделирование, т.е. интерактивное описание и модификация исходных постановок задач со сложными геометрическими объектами и контрастными материальными свойствами сред, задаваемых системами дифференциальных и/или интегральных уравнений, начально-краевыми условиями и целевыми функционалами для обратных задач;

— построение адаптивных неструктурированных сеток с возможностями локальных сгущений, многосеточных подходов и автоматической сбалансированной декомпозиции подобластей в целях распараллеливания;

— сеточные и спектральные аппроксимации исходных задач, включая методы конечных объёмов и конечных элементов (МКО и МКЭ) высокой точности;

— решение получаемых систем линейных и нелинейных алгебраических уравнений сверхвысоких порядков с масштабируемым распараллеливанием на МВС;

— оптимизационные алгоритмы условной минимизации для решения обратных задач;

— постобработка и визуализация результатов расчёта;

— управление вычислительным процессом и средства принятия решений.

Совокупность программных реализаций этих инструментальных компонент представляет собой экосистему, не ориентированную на конкретные задачи. Но различные прикладные пакеты могут быть оперативно собраны из таких «строительных» блоков, наподобие интеллектуального детского конструктора LEGO. Подчеркнем, что отдельные компоненты данного программного окружения могут разрабатываться независимыми группами, а внутренние интерфейсы должны обеспечиваться согласованными структурами данных (геометрическими и функциональными, сеточными и алгебраическими, и т.д.).

Необходимо отметить, что сейчас в Интернете имеется информация об аналогичных проектах, например, OpenFOAM, SALOME и DUNE, однако эти разработки основаны на более ограниченных концепциях, поскольку ориентированы на определенные классы задач и алгоритмов. Кроме того, мини-прототипом БСМ можно считать BLAS — базовую систему для линейной алгебры, активно используемую во всём компьютерном мире и постепенно расширяемую различными авторами.

БСМ предполагается рассчитанной на длительный жизненный цикл и удовлетворяющей некоторым естественным требованиям:

— обеспечение высокого разрешения расчётов с автоматическим контролем гарантированной точности численных решений, а также отсутствие программных ограничений на число степеней свободы в практических задачах;

— отображение структуры алгоритмов на архитектуру гетерогенных МВС и масштабируемый параллелизм на всех стадиях вычислительного эксперимента, без программных ограничений на количество процессоров и ядер;

— расширяемость состава математических моделей, алгоритмов и технологий, поддерживающая адаптацию программного обеспечения к динамической эволюции постановок задач, численных методов и компьютерных платформ;

— совместимость с внешними программами (включая САПРовские комплексы) на основе множественности представлений и конвертации форматов данных;

— поддержка интеллектуальных возможностей конфигурационного управления приложениями на основе концепции метамоделей и проблемно-ориентированных языков программирования.

Принципиальным моментом является то, что базовая система моделирования создается как проект вычислительного сообщества, открытый и к согласованному участию в нём различных групп разработчиков, и к доступному использованию его содержания в конкретных приложениях, т.е. в соответствии с концепцией открытых систем (Open Source). Это, однако, не противоречит тому, что на основе БСМ могут осуществляться коммерческие продукты и услуги.

Объём предполагаемых в таком проекте работ, естественно, невозможно осуществить без строгой координации и широкой (в том числе международной) кооперации, с вовлечением ведущих математиков и программистов. Реальная организация такого окружения, естественно, может осуществляться в альянсе с имеющимися подобными проектами типа упомянутых выше OpenFOAM и DUNE, а также при активном использовании распространенных в Интернете вычислительно-информационных инструментариев (генераторов сеток, алгебраических решателей и др.).

Проблема подготовки дефицитных и крайне ценных кадров с навыками в моделировании может решаться с помощью создания обучающих и демонстрационных версий БСМ, организации учебных курсов, повышения квалификации по технологиям вычислительного эксперимента, издания методических материалов и т.д.

В стратегическом плане создание интегрированной среды должно привнести смену парадигмы вычислений, обусловленную переходом количества в качество, по мере драматического приближения к экза-масштабам компьютерного оборудования. На повестке дня стоит переход к малоизведанным потоковым принципам обработки данных (модель dataflow), призванным решить проблему синхронизации процессов и извлечь максимум возможного из параллелизма алгоритмов.

Заключение. Что делать?

Резюмируя, можно кратко поговорить на означенную в заголовке традиционную российскую тему. В данном случае задача ставится следующим образом: «Как поднять востребованность экстремального моделирования, т.е. значительно активизировать применение высокопроизводительных суперкомпьютеров для решения суперзадач в интересах фундаментальных прорывных проблем и создания новых эффективных отраслевых технологий на основе их математизации и информатизации»? Мы приведем три тезисных соображения по указанному вопросу.

Во-первых, необходимо изменить стереотип физика-теоретика, который в прошлом веке ассоциировался с человеком, вооруженным справочником таблиц, рядов и интегралов, логарифмической линейкой и ручкой. Сейчас уровень компетенции физика требует знания и умения пользоваться современными функциональными возможностями математического и программного обеспечения суперкомпьютеров. То же самое относится и к отраслевым менеджерам, ответственным за научно-технический прогресс в производствах. Конечно, речь не идёт об утопической цели подготовки всезнаек, но о формировании минимума суперкомпьютерного образования, который «должен знать каждый».

Во-вторых, необходимо создать новое поколение наукоёмкого программного обеспечения, которое стало бы массовым, эффективным и высокопроизводительным орудием моделирования (что-то вроде знаменитого автомата Калашникова, который в разных модификациях производится в мире уже около 60 лет). Главные три качества формируемой инфраструктуры — динамическая поддержка современных вычислительных методов и технологий, эффективная адаптация к непрерывно меняющимся суперкомпьютерным платформам и комфортные эксплуатационные характеристики. Непременное условие реализуемости такой большой разработки — фактически беспрецедентная кооперация и координация её участников, а также интегрированность самых многообразных инструментальных компонент и приложений.

Успешность рассматриваемого суперпроекта определяется не только вычислительно-информационными аспектами, но и организационно-финансовыми. Здесь, безусловно, требуется решать много непростых вопросов, и мы можем лишь обозначить некоторые из них. Про подготовку кадров для суперкомпьютерных технологий мы уже говорили, и образовательные стратегии не очень просто, но в целом просматриваются. Открытыми же являются вопросы национальной поддержки и частных инвестиций, а также заинтересованности компаний — разработчиков информационных технологий и «тяжёлых» игроков на рынке производства суперкомпьютеров. Сложность заключается в том, что речь идёт о стратегической программной разработке, от которой перспектива получения «быстрых» денег отнюдь не очевидна.

Ключевой проблемой остается повседневное внедрение современных принципов математического моделирования в такие высокотехнологичные производства как электроника, машиностроение, металлургия, новые материалы, разведка и добыча полезных ископаемых и т.д. Результат тут зависит от осознания руководствами госкорпораций и «олигархами» того факта, что тотальные интеллектуальные супервычисления — это реальное ближайшее будущее. А те из круга лиц, принимающих решения, которые первыми придут к такому открытию, станут лидерами новой волны научно-технической революции. И если атрибуты недавних информационных потрясений социального масштаба — Интернет и мобильный телефон — базируются на операциях хранения и передачи данных, то теперь к ним добавляется третье звено — вычислительные преобразования.

стр. 6-8

в оглавление

Версия для печати  
(постоянный адрес статьи) 

http://www.sbras.ru/HBC/hbc.phtml?9+702+1