Создание центра высокопроизводительных вычислений на базе кластерной системы и высокоскоростной корпоративной сети




Скачать 55.43 Kb.
Дата 08.09.2016
Размер 55.43 Kb.

СОЗДАНИЕ ЦЕНТРА ВЫСОКОПРОИЗВОДИТЕЛЬНЫХ ВЫЧИСЛЕНИЙ НА БАЗЕ КЛАСТЕРНОЙ СИСТЕМЫ И ВЫСОКОСКОРОСТНОЙ КОРПОРАТИВНОЙ СЕТИ

SETTING UP OF THE CENTER FOR HIGH SPEED COMPUTATIONS ON THE BASIS OF A CLUSTER SYSTEM AND A HIGH SPEED CORPORATE NETWORK

И.П.Иванов

Московский государственный технический университет им. Н.Э.Баумана, Москва

Тел.: (095) 263-68-07, факс: (095) 261-13-78, e-mail: [email protected]


В настоящее время развитие наукоемких и высокотехнологичных отраслей невозможно без применения высокопроизводительных компьютерных систем. Практически во всех сферах науки и техники требуется решение NP-полных задач, связанных с оптимизацией вариантов. Подобные задачи не могут быть решены за приемлемое время на современных персональных компьютерах, несмотря на стремительное повышение их технических характеристик. Именно поэтому персональные компьютеры во многих разделах науки и техники не могут составить конкуренции высокопроизводительным ЭВМ. Сюда следует отнести многие задачи в области моделирования, систем автоматизированного проектирования, исследования операций и т.д. В России и за рубежом развитию высокопроизводительных компьютерных систем уделяется постоянное неослабевающее внимание. Суперкомпьютерные ресурсы рассматриваются как важнейший элемент единой системы информационных технологий, и их развитие координируется с развитием систем телекоммуникаций и наукоемких отраслей. Проведенный обзор и систематизация суперкомпьютерных ресурсов России и передовых в области информационных технологий стран мира, позволили выявить основные тенденции в организации собственно высокопроизводительных центров. Их технического и программного обеспечения, а также доступа к их ресурсам. Анализ этой информации позволяет сделать выводы о том, что все множество исследований в области параллельных информационных технологий группируется по следующим направлениям:

  • исследования, связанные с разработкой новых архитектур построения и реализации аппаратных платформ высокопроизводительных вычислительных систем и соответствующего программно-математического обеспечения;

  • реализация известных и разработка новых алгоритмов решения широкого круга прикладных NP-полных задач в различных областях науки и техники. А также возможностей применения параллельных информационных технологий для решения новых классов задач регионального и общемирового уровня;

  • разработка приложений и поддержка многопрофильных баз данных, как конкретного тематического характера для реализации информационно-справочных систем автоматизированного управления различными организационными структурами, а также обеспечения доступа к ним. В том числе и по каналам Интернет.

Первые два направления и частично третье (в части разработки приложений и ведения баз данных общего назначения) могут быть решены лишь созданием и развитием отдельных суперкомпьютерных центров. Однако обеспечение доступа к суперкомпьютерным центрам (в том числе и по каналам Интернет) является, на наш взгляд, серьезной проблемой, препятствующей внедрению технологий параллельной обработки информации как в исследовательскую работу, так и в повседневную практическую деятельность для организаций, не имеющих современных высокопроизводительных центров, даже при наличие у них ЛВС с высокоскоростными магистралями. В качестве примера рассмотрим МГТУ им. Н.Э.Баумана, в котором переход на технологию Gigabit Ethernet позволил поднять состояние ИВС до уровня лучших мировых LAN с точки зрения пропускной способности каналов связи. Существующий канал выхода в Интернет (ВОЛС, Ethernet, 10 Мбит/с) и планируемый выход в сеть РосНИИРОС по технологии АТМ дает возможность установить скорость обмена информацией с суперкомпьютерными центрами (обладающими внешними каналами связи такого же скоростного уровня) организаций Москвы и Санкт-Петербурга (100 Мбит/с, что на 2-3 порядка ниже производительности систем. Если к тому же учесть, что университет является узлом СМОС и его каналами пользуются как сторонние организации, так и многие сотни пользователей Интернет самого МГТУ им. Н.Э.Баумана (преподаватели, сотрудники и студенты), то эту цифру следует уменьшить еще на порядок (в лучшем случае при принятии соответствующих мер по фильтрации исходящего и входящего трафиков). Поэтому вряд ли целесообразно в этой ситуации проводить какие либо исследования в области эффективности организации вычислений с параллельным использованием оборудования сети университета и какого-либо суперкомпьютерного центра.

Очевидно, что использовать информационные ресурсы центров для размещения хранения своих баз данных, необходимых для повседневной академической и административной деятельности, также не реально из-за лавинообразного увеличения числа пользователей, которым потребуются доступ ко все тем же каналам. Таким образом доступ по каналам Интернет к суперкомпьютерным центрам оказывается полезным лишь для отдельных исследователей (исследовательских групп) при решении некоторых задач в области суперкомпьютерных технологий. Проблема может быть решена путем прокладывания выделенного скоростного канала связи ЛВС МГТУ им. Н.Э.Баумана с одним из центров, что в совокупности с канальной аппаратурой по стоимости оказывается выше, чем создание собственного центра высокоскоростных вычислений для решения целого ряда задач математического моделирование, автоматизированного проектирования, геоинформационных технологий и т.д. Одновременно ресурсы этого центра позволят существенно повысить уровень информатизации административной деятельности вуза, так как уже сегодня ряд информационных систем нуждаются в увеличении емкости доступных накопителей информации. Еще одной предпосылкой организации центра является решение Ученого Совета и приказ Ректора об организации специальности "Высокопроизводительные компьютерные системы и технологии", по которой прием абитуриентов на обучение начинается уже в 2001 году.

Организация учебной и научной работы студентов этой и смежной с ней специализации на база суперкомпьютерных центров других организаций крайне неудобно. Наконец, тот факт, что МГТУ им. Н.Э.Баумана является узлом СМОС и к нему проложены магистральные ВОЛС (имеющие резервные волокна) многих научных и учебных организаций северо-восточного региона Москвы, также следует отнести к списку доводов в пользу создания университетского суперкомпьютерного центра, так как его информационные ресурсы окажутся доступными для этих организаций по выделенным скоростным каналам связи.

Несмотря на все большее количество суперкомпьютерных центров как в России, так и во всем остальном мире четкого определения понятия "суперкомпьютерный центр" до сих пор не существует. Следствием этого является то разнообразие оборудования, которое имеет место, например, в оснащении российских центров, список которых составлялся по принципу "все вычислительные системы с пиковой производительностью выше 1 GFLOPS". Архитектура таких вычислительных систем может различаться самым существенным образом, так как сюда могут быть включены и суперкомпьютеры (Croy Y-MP/8E РОСГИДРОМЕТа), и маинфреймы среднего и малого уровня (DEC AlphaServer 8200 ИФВЭ, SGI Origin 200 РОСГИДРОМЕТа), и мощные многопроцессорные кластерные системы (НР 9000 V-class МСЦ) и т.д. Последние суперкомпьютерные центры России организуются, как правило, на базе кластерных систем. Этот факт объясняется легкой масштабируемостью кластеров при достаточно низких первичных затратах на их создание, т.е. их высокой экономичностью. Технико-экономическое сравнение проектов нескольких вариантов кластерных систем проведенная совместно с сотрудниками ОАО "НИЦЭВТ", определила наиболее предпочтительный из них. В настоящее время осуществляется монтаж кластерной системы которая структурно представляет собой 12 вычислительных узлов, собранных на базе процессора Pentium-III 800 Mhz, объединенных по интерфейсу SCI с помощью адаптеров PSB32 D311/D312. Схемой соединения узлов является двумерный (2D) тор. Каждый узел состоит из двухпроцессорного CPU 2(PIII-800 EB смонтированного на материнской плате SuperMicro PIII DLE и включает 512 Mb оперативной памяти, SDRAM ECC REG 133, HDD 10 Gb IDE, FDD 1.44 Mb, SLOT1, Adapter D311/D312, CASE RASK MOUNT 24 ATX 250 VA. Конструктивно все 12 узлов размещаются в монтажной стойке 19( (38 U). Все вычислительные узлы по топологической схеме "звезда" коммутатором Ethernet DES-1016 соединяются с управляющей станцией предназначенной для выполнения сервисных функций и функций коммуникационного сервера по отношению к узлам кластера и имеющей следующую конфигурацию: CPU PIII-600, M/B ASUS CUBX-L FPGA, RAM 128 Mb, HDD 20 Gb IBM 100 UDMA, FDD 1.44 Mb, 32 Mb Matrox G400, CD-ROM 50-X, Keyboard PS/2, Mouse PS/2 Adapter Ethernet 3Com 905TX, Case Miditower ATX, Monitor 17" LG 775FT. Вся кластерная система снабжается тремя бесперебойными источниками питания UPS 1400 VA RaskMount 24. Суммарная пиковая производительность составит 9600 MFLOPS, общий объем RAM – 6277 Mb. Система будет функционировать под ОС Linux с компилятором MPI.





База данных защищена авторским правом ©infoeto.ru 2022
обратиться к администрации
Как написать курсовую работу | Как написать хороший реферат
    Главная страница