Sec.Ru Интернет портал по безопасности
Мой Sec.Ru
Логин
или e-mail
Пароль
Забыли пароль?
Рейтинг@Mail.ru


Новости и статьи по безопасности
ПубликацииСтатьи→ Сопутствующие системы

03 сентября 2004

А. Леваков. Суперкомпьютерные технологии и проекты в США. Часть 3.

А. Леваков

Jet Info online N 12 (115)/2002

Часть 3

Суперкомпьютеры и моделирование климата

Всех нас интересует прогноз погоды, и порой мы испытываем большие неудобства от его недостоверности, ругая на чем свет стоит метеослужбу — опять компьютер ошибся. Но можно ли точно прогнозировать климат на Земле? Вопрос этот далеко не праздный, учитывая потрясшие Европу, Россию и Китай в 2002 году наводнения, смерчи и ураганы, материальный ущерб от которых оценивается в десятки $млрд., не говоря уже о человеческих жертвах взбунтовавшейся стихии.

В конце марта 1985 года произошло загадочное исчезновение советского ученого, находившегося в Испании в качестве участника международного симпозиума по проблемам моделирования климата. История эта, походившая на классический шпионский детектив, не получила широкой огласки по ряду причин. Прежде всего, пропавший 46-ти летний Владимир Александров к тому времени получил официальный отказ на въезд в США, где он до этого уже успел побывать несколько раз в качестве эксперта и даже поработать в течение нескольких месяцев в одной из ведущих научных лабораторий [1]. Кроме того, представители советской дипломатической миссии в Мадриде не проявили, как это принято в таких случаях, повышенного интереса к судьбе своего соотечественника, а испанская полиция не проводила расследования по факту исчезновения иностранного поданного. Люди, хорошо знавшие ученого как жизнерадостного, активного и целеустремленного человека, буквально за несколько дней до его исчезновения почувствовали разительную перемену не только в его поведении, но и в самом внешнем облике пропавшего доктора наук. По словам очевидцев "он был в прострации и сильном опьянении, его как будто подменили" [2]. Это тем более настораживает, если вспомнить о том, что моральный облик советских граждан, и тем более ученых, находившихся за рубежом, всегда был предметом особого внимания. Чем же занимался Владимир Александров в СССР и США, и почему его столь таинственное исчезновение в Испании не нашло никакого отклика ни у одной из сторон?

В начале 80-х годов, мы уже упоминали об этом, военно-политическое противостояние Восток-Запад достигло своего апогея: угроза глобальной ядерной войны между СССР и США, обвинявших друг друга в наращивании своего военного потенциала, стала реальной на столько, что по обе стороны океана днем и ночью сверхмощные компьютеры проигрывали обмены ракетно-ядерными ударами, подбирая оптимальные варианты уничтожения крупных административно-промышленных и военных объектов двух сверхдержав [3]. Решение американского руководства начать НИОКР по программе "звездных войн" с целью изучения возможности развертывания лазерного оружия в космосе для уничтожения ракет противника, первые испытательные полеты транспортной космической системы многоразового пользования "Шаттл" и новых межконтинентальных баллистических ракет "МХ" и "Трайдент" лишний раз убеждали советское руководство в реальности подготовки американцев не только к "ограниченной", но и "затяжной" ядерной войне [4]. В ответ на размещение модернизированных баллистических ракет средней дальности "Першинг-2" в Европе, откуда они могли в течение 7 минут долететь до Москвы, у берегов США появились советские атомные подводные лодки, готовые в любую минуту нанести быстрый и сокрушительный ответный удар.

Между тем, в Советском Союзе группа ученых во главе с академиком Н.Моисеевым, среди которых был и Владимир Александров, в инициативном порядке разработала первую в мировой практике математическую модель теплового баланса воздушных и океанских масс — "Гея" и использовала ее для определения губительных последствий глобальной ядерной войны для климата планеты.

Сама идея подобных расчетов была выдвинута американским астрономом Карлом Саганом, выразившим серьезную озабоченность возможными последствиями сильных лесных пожаров в результате обмена ядерными ударами между СССР и США. Результаты трудоемких многодневных расчетов, проведенные в Вычислительном центре Академии наук летом 1983 года на отечественном суперкомпьютере БЭСМ-6, ошеломили даже прагматичных математиков, для которых мегатонны ядерных боезарядов равномерно взорванных над поверхностью земного шара в этот момент не ассоциировались с миллионами человеческих жизней: ученых интересовало распределение средней температуры поверхности мирового океана и атмосферы Земли.

Динамика теплового баланса воздушных и океанских масс, просчитанная на модели с упреждением на несколько месяцев вперед после обмена ядерными ударами, красноречиво свидетельствовала о том, что планету ожидает катастрофа: пылевые облака закроют доступ солнечным лучам, температура в приземных слоях атмосферы понизится, а на высоте горных ледников, наоборот, сильно возрастет, что вызовет наводнения континентального масштаба, океан из-за своей большой теплоемкости будет остывать гораздо медленнее, на фоне контраста температур сильно изменится направление циркуляции воздушных масс, средняя температура воздуха понизится на несколько десятков градусов, снег и град с радиоактивными осадками накроют привычные к теплу экваториальные широты, Европа покроется толстым слоем льда и пепла (Рис. 18). Иными словами, тепловая машина Земли, как ее называют физики, работающая на принципах классической термодинамики, не выдержит такого мощного однократного выделения ядерной энергии, нарушит свой устоявшийся миллионами лет режим работы и начнет работать как ... холодильная установка [5].

Рисунок 18. Изменение температуры воздуха у поверхности Земли на 30-40-й день после ядерного конфликта
Кликните по рисунку для увеличения масштаба

Вот эти результаты, получившие в США название эффекта "ядерной ночи", а в СССР — "ядерной зимы" и озвучил молодой доктор физмат наук Владимир Александров на симпозиуме в Испании, где о нем уже к тому времени знали как об ученом с мировым именем. В октябре 1983 г. в Вашингтоне состоялась научная конференция, посвященная оценке последствий возможной ядерной войны. На ней с докладами выступили К. Саган [6] и В. В. Александров, изложивший модель, технику ее анализа и результаты расчетов [7].

Существенно, что американцы смогли сделать анализ возможной динамики атмосферных изменений лишь для первого месяца после обмена ядерными ударами, а коллектив ВЦ АН СССР смог дать картину целого года. Американцы имели более совершенную модель динамики атмосферы, но она не была состыкована с моделью динамики океана. В работе ВЦ АН СССР модели были проще, но объединены в целостную систему. Их оказалось достаточно для выявления того фундаментального факта, что в результате ядерной войны произойдут такие качественные изменения биосферы, которые исключат возможность жизни на Земле человека [8].

Отладку системы моделей В. В. Александров провел в течение восьми месяцев в США в центре климатологических исследований. Для этого руководитель американской климатологической программы профессор Бирли выделил необходимые средства, включая допуск советского ученого к самому мощному суперкомпьютеру того времени — "Cray-XMP". Так в руках американцев оказался ключ к первой в мировой практике математической модели взаимодействия океана и атмосферы, а советская наука понесла очередную, невосполнимую утрату.

Большинство зарубежных и отечественных ученых склоняются к мысли о том, что исчезновение В.Александрова было выгодно, прежде всего, спецслужбам, выполнявшим заказ военно-промышленного комплекса: слишком большой шум был поднят в прессе, последствия которого, в конечном итоге, под нажимом мировой общественности привели к встрече в Рейкъявике весной 1986 г. Михаила Горбачева и Рональда Рейгана, положившей конец безумной ядерной гонке. Доктор В.Александров — автор уникальной математической модели, человек, доказавший с помощью суперкомпьютера губительные последствия ядерной войны для планеты, оказался в положении гонимого пророка, изгоя по обе стороны океана, и бесследно исчез на темных улицах Мадрида.

Интересно, что град, внезапно обрушившийся на Испанию в августе 2002 г., снег, выпавший в сентябре в Германии, шквальные ливни и наводнение в Европе, смерчи на юге России, сход ледника в горах Северной Осетии — все тот же закономерный результат математического баланса тепловой энергии воздушных и океанских масс, впервые рассчитанного нашим ученым.

В Национальном аэрокосмическом агентстве США НАСА установлены высокопроизводительные 1024-х и 512-ти процессорные системы, являющиеся плодом совместных усилий НАСА и компании Silicon Graphics. Суперкомпьютеры используются учеными для оценки влияния природных явлений и деятельности человека на планетарный климат, а также для прогнозирования его изменений. На новых системах геофизические приложения выполняются в несколько раз быстрее, чем на ранее применявшихся: проект, связанный с моделированием климатических изменений, на который ранее ушло бы шесть месяцев, удалось завершить всего за два.

Национальный центр атмосферных исследований выбрал компанию IBM для установки самого мощного суперкомпьютера, который когда-либо использовался в интересах прогнозирования климата на планете. Компьютер, получивший условное название "Голубое небо" (Blue Sky), должен был полностью смонтирован к концу 2002 г. на основе многопроцессорной вычислительной системы, которая по оценкам специалистов должна иметь пиковое значение производительности до 7 Тфлоп и внешней памятью объемом 31,5 Тбайт. С помощью сверхмощного суперкомпьютера ученые на основе математического моделирования смогут оценивать влияние глобальных и региональных изменений климата, а так же засухи, вихревых потоков воздуха, лесных пожаров, химического состава атмосферы и других факторов на продолжительность времени созревания урожая, смещение поясов урожайности, распределение низких температур и уровней осадков в зимнее время.

Компьютеры, произведенные IBM, входят в число 500 самых мощных суперкомпьютеров в мире, учет которых ведут американский университет шт. Теннеси и немецкий университет г. Мангейм. О высоком рейтинге IBM в классе суперкомпьютеров говорит тот факт, что 225 позиций в этом списке занимают ее машины, среди которых в первую пятерку входят такие известные гиганты как ASCI White (Национальная лаборатория Лоуренса Ливермора) и DeepBlue, обыгравший в 1997 г. чемпиона мира Г.Каспарова.

Приведем только некоторые характеристики суперЭВМ ASCI White — одного из самых засекреченных компьютеров в мире, вычислительные мощности которого используются в интересах американской программы технической модернизации и безопасного хранения ядерного оружия.

Пиковая производительность флагмана американской и мировой суперкомпьютерной индустрии на сегодняшний день составляет 12,3 Тфлоп и превышает суммарную пиковую производительность всех четырех главных вычислительных центров коллективного пользования сети DREN. В состав вычислительной системы входят 8192 процессора серии RS6000 SP Power, работающих на частоте 375 Мгц. Емкость оперативной памяти суперЭВМ составляет 6 Тбайт, а внешней — 160 Тбайт, что позволяет хранить информацию 6 библиотек Конгресса США. Вся система размещается почти в 200 шкафах-стойках в помещении площадью равной двум баскетбольным площадкам. Вес оборудования достигает 106 тонн. К 2005 г. эта система будет иметь пиковую производительность в 100 Тфлоп.

Компания IBM является также лидером по суммарной производительности всех своих суперкомпьютеров, которая в настоящее время составляет величину порядка 49 Тфлоп.

Список литературы

  1. Lawrence Livermore Laboratory. Nuclear Winter Study Papers, 1972-1993: Guide. Environmental Science and Public Policy Archives. Harvard College Library. Harvard University 11 March 2002.
  2. "Missing: the curious case of Vladimir Alexandrov", Andrew C. Revkin.
  3. Robert C.Aldridge. First strike! The Pentagon's Strategy For Nuclear War. Pluto Press, 1983.
  4. Daniel Ford. The button. The nuclear trigger — does it work? London, Unwin paperbacks, 1985.
  5. Моисеев Н.Экология человечества глазами математика, 1988 г.
  6. "Nuclear war and climatic catastrophe: some policy implications", Carl Sagan.
  7. On modelling of the climatic consequences of nuclear war", V.V. Alexandrov, G.L. Stenchikov.
  8. Моисеев Н.Н., В.В. Александров, А.М. Тарко. Человек и биосфера. — М., 1985.

Суперкомпьютеры в университетах

Университет шт. Флорида закупил для своих студентов, обучающихся на факультете вычислительной техники и информационных технологий, суперкомпьютер фирмы IBM стоимостью $8 млн. Модель RS/6000 SP обладает теоретической пиковой производительностью до 2,5 Тфлоп. Для того, чтобы выполнить такой объем вычислений в ручную на простом калькуляторе человеку понадобиться 2 млн. лет. После окончательной сборки к концу 2001 г. вычислительная система объединила 680 микропроцессоров на медной шине данных с высокой электрической проводимостью. Для хранения данных суперкомпьютер оснащен внешним накопителем объемом до 413 Тбайт.

Среди научно-исследовательских проектов, в которых предполагается использовать данный суперкомпьютер, можно выделить как наиболее значимые: прогнозирование ураганов и торнадо, анализ кодов ДНК, создание компьютеров и робототехнических устройств, адаптирующихся к условиям внешней среды на основе искусственного интеллекта, управление воздушным движением и телекоммуникационным трафиком, прогноз рынка и выработка стратегий минимального риска и др.

Факультет вычислительной техники и информационных технологий, образованный в 1999 г., готовит специалистов следующего поколения, которых будут отличать глубокие знания прикладных методов вычислительной математики, практические навыки в проведении междисциплинарных системных исследований в таких областях как физика, биология, климатология, гидрология и материаловедение с помощью вычислительных экспериментов на суперкомпьютерах. Учитывая особенности климата шт. Флорида, не трудно понять заинтересованность местных властей, предпринимателей и жителей в исследованиях, связанных с прогнозированием ураганов и наводнений, а также их последствиями для работы воздушного и наземного транспорта, энергетической системы, водопроводной сети, телекоммуникаций, которые постоянно подвергаются ударам стихии со стороны Атлантического океана и Мексиканского залива.

В другом штате, расположенном за тысячи миль от континентальной части США, на живописных Гавайских островах студенты и аспиранты местного университета исследуют с помощью суперкомпьютера строение и динамику воздушных масс Тихого океана, постигая тайны зарождения гигантских ураганов, опустошительных смерчей и грозных цунами — в переводе с японского "больших волн в гавани", главной причиной образования которых являются подводные землетрясения.

Скорость цунами для Тихого океана со средней глубиной землетрясения 4 км составляет величину порядка 700 км/ч. Даже если источник сейсмических колебаний находится далеко, времени для размышлений остается мало. При этом плотность кинетической энергии волны убывает по минимальному закону — обратно пропорционально квадратному корню из расстояния. Полная энергия цунами практически не уменьшается и может составить до 10% от энергии землетрясения.

До применения суперкомпьютеров для моделирования цунами сейсмический прогноз оправдывался лишь в 5% случаев. Учитывая, что ложные тревоги помимо больших экономических затрат, связанных с эвакуацией населения, рождают и недоверие к ним, не трудно понять важность этой проблемы и в психологическом аспекте: чилийское цунами 1960 г. послужили причиной гибели свыше 60 человек из числа тех 15% жителей г. Хило на Гавайях, которые игнорировали объявленную тревогу.

Кроме сейсмического метода регистрации в принципе возможны и другие (например, аэрокосмическая съемка). Тем не менее выделить в открытом океане волну длиной десятки и сотни километров, а высотой всего лишь один-два метра практически невозможно. Только на походе к береговой черте цунами обнаруживает себя, тормозя, набирая высоту и концентрируя энергию, распределенную ранее на огромной площади.

Вот почему так необходим оперативный и долгосрочный прогноз активности цунами в динамике. Такой основой служит математическое моделирование с высокоточной визуализацией на основе вычислительного эксперимента. После немалых трудов ученые подошли к решению этой проблемы, разработав экономичные вычислительные алгоритмы и комплексы программ, с помощью которых можно быстро проследить на математической модели за развитием цунами от места зарождения до прибрежной зоны Рис. 19. Математические модели и методики расчетов калибруются с помощью восстановления картины развития типичных по условиям возбуждения реальных цунами. Так вычислительный эксперимент с математической моделью на суперкомпьютере позволяет оперативно и достаточно надежно предупреждать об опасности население островов в Тихом океане [1].

Рисунок 19. Волновая картина цунами в Тихом океане, полученная с помощью суперкомпьютера

Серьезную проблему для климата Земли представляет эффект тихоокеaнского течения "Эль-Ниньо" — "Млaденец Христос", который также в последние годы в США активно изучают с помощью вычислительных экспериментов на суперкомпьютерах. Феномен "Эль-Ниньо" заключается в резком повышении температуры (на 5-9 °С) поверхностного слоя воды на востоке Тихого океана (в тропической и центральной частях) на площади порядка 10 7км2. Предварительная оценка энергии, выбрасываемой океаном в атмосферу в районе действия "Эль-Ниньо" за сутки, составляет величину порядка 4,3*1021 Дж, что соизмеримо с энергией всей атмосферы ~1022 Дж. Полученные результаты моделирования взаимодействия океана и атмосферы позволяют прийти к заключению, что энергия "Эль-Ниньо" в состоянии привести к возмущениям всю атмосферу Земли, что и приводит к экологическим катастрофам, имеющим место в последние годы: засухам, пожарам, ливневым дождям, вызывающим затопление огромных территорий густонаселенных районов, что приводит к гибели людей и уничтожению скота и урожая в разных районах Земли. Природный феномен "Эль-Ниньо" оказывает заметное влияние и на состояние мировой экономики. По данным американских специалистов в 1982—83гг. экономический ущерб от его последствий составил $13 млрд. [2]

В университете шт. Гавайи, своеобразной Мекке высокопроизводительных вычислений, установлен один из самых известных в мире компьютеров IBM — знаменитый "Голубой Гавайи", чей предшественник — "Deep Blue" обыграл в 1997 г. чемпиона мира по шахматам Гарри Каспарова, бросившего вызов не столько машинному разуму, сколько параллельной архитектуре суперкомпьютера, в арсенале которой сегодня насчитывается 32 процессора серии Power-2, 16 Гбайт оперативной и 493 Гбайт внешней памяти.

Список литературы

  1. Самарский А., А. Михайлов. Компьютеры и жизнь, Москва, "Педагогика", 1987 г.
  2. Хунджуа Г.Г. "Феномен Эль-Ниньо".

Суперкомпьютеры и космические исследования

17 июня 2002 года американскими астрономами, работающими в рамках проекта LINEAR (Lincoln Laboratory Near Earth Asteroid Research) был обнаружен новый астероид, орбита которого пересекает орбиту Земли. Новый астероид, получивший в НАСА обозначение 2002 MN, имеет диаметр всего лишь 100 метров.

После вычисления его орбиты, оказалось, что за 3 дня до своего открытия он пролетел на расстоянии всего в 120 тысяч километров от Земли, что примерно в 3 раза меньше расстояния до Луны. Именно это расстояние выбрано в НАСА в качестве критического параметра орбиты опасных космических тел.

По статистике космические тела внеземного происхождения размерами от 10 до 100 м пересекают орбиту Земли каждые 10 лет. При этом тело диаметром 10 м со скоростью 20 км/с при столкновении будет обладать кинетической энергией эквивалентной взрыву 100 Килотонн тринитротолуола (5 атомным бомбам сброшенным на Хиросиму), а при диаметре в 100 м его энергия может достичь 100 Мегатонн. Основную опасность представляют тела, содержащие металлические породы: даже гигантские камни при вхождении в плотные слои атмосферы распадаются на мелкие фрагменты и их свободное падение обычно сопровождается воздушным взрывом и красочным фейерверком, видимым на расстоянии до 600 км. Однако при увеличении физических размеров и кинетической энергии внеземные тела успевают пролететь до нижних слоев атмосферы, а энергия ударной волны от взрыва при этом существенно увеличивается. По хронологическим данным метеонаблюдений установлено, что торможение Тунгусского метеорита, упавшего в Сибири летом 1908 г. и имевшего диаметр около 60 м, произошло примерно на высоте 8 км, что повлекло взрыв мощностью от 12 до 20 Мегатонн. При этом лесной массив в радиусе 20 км был полностью уничтожен, а следы ударной волны наблюдались на расстоянии до 40 км. Именно эта озабоченность опасностью столкновения с астероидами и метеоритами стала одной из главных тем слушаний в Конгрессе США в начале 90-х годов, когда была принята так называемая программа "Предупреждения об астероидной и метеоритной опасности" (Spaceguard Survey). Согласно расчетам американских астрономов астероидный пояс Земли насчитывает около 2000 объектов, из которых на сегодня обнаружено только 200.

И здесь будет уместно напомнить, что формальное под нажимом общественности закрытие программы "звездных войн", обусловленное с одной стороны технологическими причинами (отсутствием в начале 90-х годов мощных, компактных и надежных компьютеров), а с другой — политическими (развалом Варшавского договора и СССР) в действительности оказалось блефом: работы по созданию сверхвысокопроизводительных вычислительных систем не прекращались, равно как и ограниченные испытания прототипов противоракетных систем. Более того, у сторонников идеи создания ограниченной национальной ПРО в придачу к баллистическим ракетам Ирака и КНДР появились еще два главных козыря — астероидная и метеоритная опасность. Хотя никто из них никогда всерьез не утверждал, что для уничтожения астероида может быть использована подобная техника (до сих пор астероид можно было только взорвать с помощью ядерного боезаряда, как это делает герой фильма "Армагеддон", или изменить его траекторию, что так же больше похоже на сценарий фантастического триллера), тем не менее в представлении большинства американцев более реальной является как ни странно именно космическая угроза.

Для создания глобальной системы предупреждения о столкновении с внеземными космическими телами потребуются усилия всего мирового сообщества, поскольку постоянное наблюдение за объектами в космосе должно вестись с помощью оптических и радиотелескопов как на околоземной орбите, так и на земле во всех полушариях. При этом телескопы должны вести наблюдения в автоматическом режиме сканирования небесного пространства на площади 6000 кв. градусов, а большая часть полученной информации будет обрабатываться непосредственно на месте их установки.

Многолетний практический опыт использования телескопа Spacewatch Telescope, установленного в астрономической обсерватории университета шт. Аризона, для слежения за опасными космическими телами показывает, что вычислительная система, обрабатывающая сигналы светодиодной решетки, установленной в плоскости окуляра, способна обнаружить до 10000 объектов при экспозиции 165 с. или 60 объектов в с. При этом требуемая производительность системы для обнаружения космических объектов должна быть не менее 30000 объектов на кв.град. при соотношении их видимых угловых размеров и зерна светодиодной решетки 1 угл.с./пиксель. Кроме того, автоматическое сканирование в режиме реального времени предполагает увеличение производительности как минимум на порядок. Таким образом, для гарантированного обнаружения потенциально опасных космических тел необходимо увеличение производительности существующей вычислительной системы телескопа в 2000-3000 раз, что возможно только с использованием технологии высокопаралельной обработки данных — суперкомпьютеров. Заметим, что таких телескопов должно быть не менее 6, а их вычислительные системы должны быть объединены в единую сеть с общей базой данных многолетних астрономических наблюдений.

Но не только астероиды и метеориты стимулируют развитие суперкомпьютерных проектов в космических исследованиях, проводимых в США. Немалая доля сложных вычислений приходится на обработку информации, собираемой многочисленными межпланетными зондами и спутниками, на основе которой изучается строение солнечной системы и ее планет, прогнозируется геомагнитная обстановка на Земле и состояние ледяного покрова. Особый интерес для ученых, занятых в этих проектах, представляют трехмерные изображения поверхности Марса и Луны — потенциальных объектов для изучения и освоения космического пространства.

Разработка космических станций, аппаратов и их носителей для выполнения длительных полетов в околоземном и межпланетном пространстве так же является одной из важнейших и сложнейших инженерно-конструкторских задач, для решения которой используются суперкомпьютеры. Сегодня НАСА не только проектирует и испытывает на компьютерных стендах в ходе вычислительных экспериментов новую технику, но и создает для своих нужд с помощью вычислительной химии новые молекулярные соединения и материалы, программируя их свойства в требуемых диапазонах (Рис. 20).

Рисунок 20. Высокоточная визуализация молекулярного соединения, полученная на суперкомпьютере

В настоящее время НАСА активно ведет работы по созданию собственной сети суперкомпьютеров на основе технологии "решетки" (Information Power Grid). В рамках проекта "Вычислительной аэродинамики" программы "Высокопроизводительных вычислений" HPCC/CAS (High Performance Computing and Communications Program's Computational Aerosciences Project) космическое ведомство США развернуло в Центре полетов кластерную сеть из трех суперкомпьютеров SGI 2000, включающую в свой состав 384 процессора. Ядро системы будет составлять самый большой в мире суперкомпьютер серии SGI 2000 (512 процессоров) с общей оперативной памятью в 196 Гбайт и внешней памятью — 1,74 Тбайт.

Суперкомпьютеры для бизнеса

Но не только военные, спецслужбы, ученые и инженеры используют в США суперкомпьютеры в своих профессиональных интересах. Бизнес уверенно прогрессирует в этом наукоемком секторе применения высоких технологий, отвоевывая шаг за шагом ведущие позиции у пионеров высокопроизводительных вычислений: свыше 52% всех суперкомпьютеров, входящих в список 500 самых быстродействующих ЭВМ на земном шаре, сегодня заняты в маркетинге, торговле, финансах, телекоммуникациях и других секторах частного предпринимательства.

Лидер складской индустрии на мировом рынке услуг в сфере снабжения, американская компания Staples Inc., доходы которой превышают $9 млрд. в год, закупила мощный суперкомпьютер IBM серии SP для повышения эффективности и снижения себестоимости своих торгово-закупочных операций. Основу суперкомпьютера составляет 64-х процессорная вычислительная система, с помощью которой распределенная база данных (DB2), организованная на основе механизма репликации, ежедневно обновляется на общем жестком магнитном носителе объемом 4 Тбайт. Тем самым, пользователи (50 тысяч сотрудников) получают оперативный доступ к глобальному информационному ресурсу для получения сведений о ценах, объемах и номенклатуре поставок, сроках отгрузки по всем филиалам компании (свыше 1200) во всем мире (США, Канаде, Великобритании, Германии, Нидерландах, Португалии и др. странах), на основе которых они могут делать краткосрочные и долгосрочные прогнозы деловой активности клиентов, планировать транспортные операции, отслеживать прохождение грузов.

Статистика и анализ тенденций развития суперкомпьютеров в США

Для того, чтобы лучше понять суть происходящего в такой бурно развивающейся области информационных технологий как высокопроизводительные вычисления, воспользуемся богатым арсеналом современных методов математической статистики или, как их принято называть сейчас, технологией многомерного анализа данных. Статистика позволяет компактно описать данные, понять их структуру, провести классификацию, увидеть закономерности в хаосе случайных явлений. Даже простейшие методы визуального и разведочного анализа данных позволяют существенно прояснить сложную ситуацию, первоначально поражающую нагромождением цифр [1].

При проведении исследований ограничимся выборочными объектами ЭВТ (Электронно-вычислительная техника) — вычислительными центрами коллективного пользования (ВЦКП) уже известной нам сети суперкомпьютеров DREN, данные о которой приведены в серии ежегодно публикуемых отчетов Управления перспективных исследований Пентагона DARPA[2]. Следует иметь ввиду, что с позиций теории математической статистики такого рода исследования всегда носят выборочный характер, поскольку генеральная совокупность объектов или, как ее еще называют, популяция достаточно велика: список 500 самых мощных суперкомпьютеров мира является далеко не полным, в силу того, что многие объекты ЭВТ этого класса засекречены.

Кроме того, очерченный нами круг объектов ЭВТ является во всех отношениях репрезентативным, поскольку и по своему объему, и по своим характеристикам отражает те тенденции, которые происходят в области высокопроизводительных вычислений как в военных, так и в гражданских проектах США. Например, суммарная пиковая производительность 22 суперкомпьютеров, установленных в 4 вычислительных центрах коллективного пользования сети DREN, составляла на начало 2002 г. почти 12 Тфлоп или 22% от общей производительности всех суперкомпьютеров США. Номенклатура фирм-производителей, собиравших суперкомпьютеры для этих вычислительных центров, также говорит сама за себя — IBM, Cray, SGI, Compaq, Sun. Вместе с тем, полученные в ходе исследований данные с достаточной степенью надежности можно будет распространить и на другие объекты ЭВТ данного класса.

Итак, ограничив область и круг объектов исследования, перейдем непосредственно к тем вопросам, которые больше всего сейчас волнуют экономистов и бизнесменов, ученых и инженеров, политиков и военных, словом тех людей, кто так или иначе заинтересован в суперкомпьютерах и их применении в конкретных проектах. А вопросы эти более чем очевидны: какой суммарной пиковой производительностью, оперативной и внешней памятью будут обладать суперкомпьютеры той или иной страны через несколько лет и за счет чего? Следует заметить, что поставленные вопросы далеко не так банальны с точки зрения ответов на них, поскольку прогноз, который нам предстоит дать, носит, во-первых, стратегический, а, во-вторых, вероятностный характер: достаточно перечитать еще раз страницы истории и вдуматься в их последствия. Тем не менее, принимаясь за столь неблагодарный труд, не будем ни преувеличивать своих возможностей, ни преуменьшать той цели, которую мы поставили перед собой. Вначале рассмотрим, в каких пределах изменяются основные интересующие нас характеристики (оперативная память, количество процессоров, пиковая производительность) суперкомпьютеров с течением времени. На диаграммах размаха или так называемых графиках "ящики-усы" представлены диапазоны вариации выбранных нами переменных, которые построены отдельно по годам. В качестве основных показателей вариации выбраны следующие описательные статистики: минимальное и максимальное значения переменной, нижняя (25%) и верхняя (75%) квартили, медиана распределения. Медиана и квартили делят диапазон значений переменной на четыре равные части, показывая тем самым, где находятся 25%, 50% и 75% значений переменной.

Анализ диаграммы (Рис. 21) показывает, что к началу 2002 г. произошло резкое увеличение не только максимального значения пиковой производительности (почти в 2 раза), но и верхней квартили диапазона, в который попадают 75% всех значений производительности (в 7 раз) и соответственно медианы (в 5 раз). Заметим, что на протяжении предшествующих трех лет с 1998 по 2000 гг. значения этих показателей вариации оставались практически на одном уровне, хотя максимальное значение диапазона непрерывно увеличивалось. Суммируя вышеизложенное, можно утверждать, что произошедшие к началу 2002 г. изменения в пиковой производительности отражают не только количественные, но и качественные перемены в сфере высокопроизводительных вычислений, которые были подготовлены в предшествующие три года. Ниже мы более подробно рассмотрим этот аспект, используя другие методы анализа.

Рисунок 21. Диаграмма размаха значений пиковой производительности суперкомпьютеров вычислительных центров коллективного пользования сети DREN по годам
Кликните по рисунку для увеличения масштаба

Существенные изменения в увеличении производительности суперкомпьютеров ВЦКП сети DREN осуществлялись в основном за счет наращивания объема оперативной памяти и количества процессоров. Однако при этом следует иметь ввиду, что здесь наблюдается несколько иная картина, для которой характерны свои нюансы, связанные с архитектурой компьютеров.

Так, например, диаграмма размаха значений емкости оперативной памяти (Рис. 22) наглядно демонстрирует экспериментальный путь выбора архитектуры, для которого характерны колебания (взлеты и падения) всех выбранных нами статистик, в то время как на диаграмме размаха значений количества процессоров (Рис. 23) отчетливо просматривается плановое начало — неуклонный рост.

Рисунок 22. Диаграмма размаха значений емкости оперативной памяти суперкомпьютеров вычислительных центров коллективного пользования сети DREN по годам
Кликните по рисунку для увеличения масштаба

Рисунок 23. Диаграмма размаха значений количества процессоров суперкомпьютеров вычислительных центров коллективного пользования сети DREN по годам
Кликните по рисунку для увеличения масштаба

Таким образом, на примере диаграмм размаха мы наглядно увидели, что достигнутый резкий скачок в производительности суперкомпьютеров ВЦКП сети DREN на рубеже конца 2001 и начала 2002 гг. стал результатом многолетних совместных усилий ученых, конструкторов и инженеров, плоды работы которых привели к наращиванию потенциальных возможностей в области высокопроизводительных вычислений (Рис. 24).

Рисунок 24. Динамика увеличения суммарной производительности суперкомпьютеров вычислительных центров коллективного пользования сети DREN по годам
Кликните по рисунку для увеличения масштаба

Далее рассмотрим, как меняется зависимость пиковой производительности от объема оперативной памяти и количества процессоров в вычислительных системах по годам. С этой целью построим соответствующие регрессионные модели, оценим их адекватность и достоверность. Таким образом, для проведения регрессионного анализа в качестве зависимой переменной выберем значение пиковой производительности, а в качестве независимых (предикторов) — значения объема оперативной памяти и количества процессоров.

Полученные с помощью автоматизированной системы анализа данных STATISTICA линейные регрессионные модели представлены на Рис. 25 и Рис. 26.

Рисунок 25. Диаграммы рассеивания пиковых значений производительности в зависимости от объема оперативной памяти по годам
Кликните по рисунку для увеличения масштаба

Рисунок 26. Диаграммы рассеивания пиковых значений производительности в зависимости от количества процессоров по годам
Кликните по рисунку для увеличения масштаба

На диаграмме (Рис. 25) представлены пиковые значения производительности в зависимости от объема оперативной памяти по годам, а также регрессионные прямые и их 95% доверительные интервалы. Анализ диаграмм показывает снижение разброса значений и увеличение коэффициента наклона регрессионной прямой, что дает основания говорить не о простом наращивании объема оперативной памяти, а о качественном улучшении архитектуры компьютеров. Иными словами, отдача от капиталовложений в дорогостоящую оперативную память становится эффективной с точки зрения увеличения производительности. Аналогичная картина наблюдается и на регрессионных прямых, построенных для определения зависимости производительности от количества процессоров (Рис. 26), хотя они имеют и свои особенности.

Диаграммы рассеивания и регрессионные прямые, построенные для значений производительности в зависимости от количества процессоров в целом дают основания говорить о тех же тенденциях — уменьшении разброса и увеличении коэффициента наклона регрессионной прямой. Однако при этом видно, что начиная с 1999 г. наклон регрессионной прямой практически не меняется или изменяется незначительно. Это свидетельствует о том, что простое наращивание количества процессоров без увеличения оперативной памяти является эффективным только в ограниченных пределах.

Для того, чтобы убедиться в этом обратимся к анализу коэффициентов корреляции производительности с объемом оперативной памяти и количеством процессоров. В статистике корреляция определяет степень, с которой значения двух переменных пропорциональны друг другу. Диаграмма изменения значений указанных коэффициентов корреляции по годам представлена на Рис. 27.

Рисунок 27. Динамики изменения коэффициентов линейной парной корреляции пиковой производительности с объемом оперативной памяти и количеством процессоров
Кликните по рисунку для увеличения масштаба

Анализ диаграммы показывает, что увеличение степени связи между производительностью и объемом оперативной памятью в указанный период было более ярко выраженной тенденцией по сравнению с ростом количества процессоров. В тоже время из диаграммы видно, что к началу 2002 гг. связь между производительностью и этими основными характеристиками архитектуры стала практически равноценной, что подтверждает достигнутый качественный рост эффективности суперкомпьютеров.

На основе нелинейной аппроксимации промежуточных значений пиковой производительности ВЦКП сети DREN и их последующей экстраполяции можно построить прогнозный тренд, достоверность которого составляет на ближайшие 5 лет 97% (Рис. 28).

Рисунок 28. Нелинейная аппроксимация прогнозного тренда увеличения суммарной пиковой производительности суперкомпьютеров вычислительных центров коллективного пользования сети DREN
Кликните по рисунку для увеличения масштаба

Анализ полученного прогнозного тренда изменения суммарной пиковой производительности ВЦКП сети DREN показывает, что к 2007 году можно ожидать повышение общей вычислительной мощности ресурсов суперкомпьютеров, входящих в их состав, с 12 до 43 Тфлоп или почти в 4 раза, что вполне согласуется с известным законом Мура. Интересно и то, что полученная прогнозная оценка не противоречит принятым еще администрацией Клинтона в 1996 г. нормативным цифрам плана программы развития высокопроизводительных вычислений в интересах безопасного хранения ядерных вооружений, согласно которым к 2004 году предполагалось достичь производительности суперЭВМ в 100 Тфлоп [3].

Таким образом, только на примере выбранных нами в интересах исследования 22 объектов ЭВТ можно видеть, что потенциал решения научных и инженерных задач, связанных с большими объемами высокопроизводительных вычислений, в США через пять лет будет существенно увеличен. Участие военных и гражданских научно-исследовательских центров и университетов в совместных проектах, широкий обмен программным обеспечением и глобальный высокоскоростной доступ 1 к вычислительным ресурсам коллективного пользования дают основания говорить не только о сохранении лидерства США в области развития суперкомпьютерных проектов, но и их эффективном использовании в интересах достижения научного, технологического, экономического и военного превосходства над всеми странами мира.

Список литературы

  1. Боровиков В. STATISTICA: искусство анализа данных на компьютере. Для профессионалов, "Питер", 2001 г.
  2. DOD High Performance Computing Modernization Program 1997, 1998, 1999, 2000, 2002.
  3. Accelerated Strategic Computing Initiative.Program Plan. U.S. Department of Energy Defense Programs: Lawrence Livermore National Laboratory, Los Alamos National Laboratory, Sandia National Laboratories. September 1996.
1 В рамках проекта GIG-BE (Global Information Grid Bandwidth Expansion) Пентагон планирует в 2003-2004 гг. увеличить скорость передачи данных для своих глобальных информационных сетей до 10 Гбит в с. Стоимость проекта оценивается в $877 млн. (GCN, Vol.21 No.29, 09/23/02)

Вместо послесловия

Охватывая одним взглядом далеко не исчерпывающим образом представленную в нашем ретроспективном и аналитическом исследовании полную драматических событий историю развития и современное состояние суперкомпьютеров, их применения в крупномасштабных научно-технических и военно-стратегических проектах США, мы видим, что опыт прошлого в этой области, быть может как нигде, заслуживает самого пристального изучения и переосмысления.

Изначально авантюрная по своим военно-политическим последствиям и фантастическая по технологиям программа "звездных войн" Пентагона после своего формального закрытия в начале 90-х годов плавно и без лишнего шума перешла в исследовательскую программу НАСА предупреждения об астероидной и метеоритной опасности, а спустя еще 10 лет — вновь в чисто военный проект по созданию ограниченной системы национальной ПРО. При этом американцы сумели не только сохранить результаты НИОКР в области суперкомпьютерных технологий, но и достигнуть в них существенного прогресса, который и позволил администрации Буша столь смело и безапелляционно выйти из договора 1972 года 1. И это только один пример двойного (военного и гражданского) использования высоких технологий в США!

Напротив, добровольно отказавшись от достигнутых весомых результатов НИОКР в области суперкомпьютерных проектов в начале 90-х годов, отпустив ценнейших специалистов на вольные хлеба и пойдя по пути массовой информатизации народного хозяйства за счет закупки и сборки из импортных комплектующих дешевых персональных компьютеров, мы, в конечном итоге, в значительной степени потеряли технологическую основу для эффективного развития аэрокосмической, судостроительной и автомобильной промышленности.

Перед лицом неуклонно набирающей свои обороты безудержной гонки за обладание самыми мощными вычислительными ресурсами в мире стоит задуматься и над тем, по какому пути пойдет отечественная индустрия высоких технологий, в которой всегда находились люди, способные на БЭСМ-6 сделать то, чего в США не могли сделать на "Cray-XMP". Будем ли мы копировать у американцев свои собственные идеи в области архитектуры суперкомпьютеров десятилетней давности или находить новые, столь свойственные нам по духу, нетрадиционные решения?

Кто знает, быть может главное преимущество того, кто сегодня так почти безнадежно отстал и заключается в его дерзком желании догнать самоуверенного лидера. И разве опыт Японии, которая сегодня буквально дышит в затылок и наступает на пятки США, разрабатывая собственные суперкомпьютеры, не подтверждает эту крамольную для прагматичного ума мысль?! Во всяком случае очень хочется в это верить.

1 Accelerated Strategic Computing Initiative.Program Plan. U.S. Department of Energy Defense Programs: Lawrence Livermore National Laboratory, Los Alamos National Laboratory, Sandia National Laboratories. September 1996.


Когда верстался номер

В ответ на вызов, брошенный японской корпорацией NEC, объявившей летом 2002 г. о создании самого мощного суперкомпьютера в мире с векторной архитектурой и производительностью в 38 Тфлоп — "Симулятора земли", американская корпорация IBM объявила о заключении контракта с Министерством энергетики США на сумму в $290 млн, по условиям которого в 2005 году Национальная лаборатория им. Лоуренса Ливермора (шт.Калифорния), в рамках долгосрочной исследовательской программы в области моделирования условий хранения ядерного оружия, получит два матричных суперкомпьютера с пиковой производительностью в 100 и 360 Тфлоп, имеющих в своем составе 12544 и 65000 процессоров, оперативную память объемом 50 и 16 Тбайт и внешнюю дисковую память — 2000 и 400 Тбайт соответственно 1.

1 В рамках проекта GIG-BE (Global Information Grid Bandwidth Expansion) Пентагон планирует в 2003-2004 гг. увеличить скорость передачи данных для своих глобальных информационных сетей до 10 Гбит/с. Стоимость проекта оценивается в $877 млн. (GCN, Vol.21 No.29, 09/23/02)


Об авторе: А. Леваков, кандидат технических наук, профессор, окончил факультет АСУ и ЭВМ Военной академии им. Петра Великого, длительное время работал в Центральном институте научно-технической информации, специалист в области компьютерного моделирования.

Источник: Jet Info online

Просмотров: 1511

Гипермаркет систем безопасности для поставщиков оборудования
  • бесплатное размещение прайс-листа
  • оплата за результат (за клики на позиции из прайс-листа)
  • автоматическая синхронизация цен в Гипермаркете и на сайте компании
  • крупнейшая целевая аудитория
  • 1000 бонусом на счет каждому, разместившему прайс!

Ваши комментарии:

Для того, чтобы оставлять коментарии, Вам нужно авторизоваться на Sec.Ru. Если У Вас еще нет аккаунта, пройдите процедуру регистрации.



Информация

  • Реклама на Sec.Ru неплохо поднимает

    Портал знает толк в рекламе. Множество марок начинали свой путь на Sec.Ru. Огромное количество из них стали по-настоящему хорошо продаваться. Реклама на Sec.Ru может и из вашей компании сделать общеизвестный бренд.

    Картинка: Jpg, 100x150, 9,42 Кбайт

    Запуск!
  • 5 000 рублей ежемесячно

    Каждому их трех лучших авторов научных/аналитических статей, впервые опубликованных на SEC.RU

    Картинка: Jpg, 100x150, 19,24 Кбайт

    5 000 рублей ежемесячно

Отраслевые СМИ

Все права защищены 2002 – 2014
Rambler's Top100 �������@Mail.ru
Get Adobe Flash player