Разработка методологии переноса вычислительно сложных spmd задач на gpe grid




Скачать 341.43 Kb.
Дата25.08.2016
Размер341.43 Kb.
САНКТ-ПЕТЕРБУРГСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ

Математико-механический факультет

Кафедра системного программирования

Разработка методологии переноса вычислительно сложных SPMD задач на GPE Grid
Дипломная работа студента 544 группы

Власова Всеволода Сергеевича


Научный руководитель,

аспирант…………………………………………………………/.. /


Рецензент,

профессор……………………………………………………../О.Н.Граничин /


“Допустить к защите”

Заведующий кафедрой,

профессор………………………………………………………./А.Н. Терехов/

Санкт-Петербург

2007 г.

Аннотация

Большое количество задач, которые необходимо решать в различных областях науки (физические расчеты, создание лекарств), на финансовых рынках (построение моделей, просчет вариантов) и в других сферах, решаются с помощью программ, реализующих модель программирования Single Program Multi Data (SPMD).

В последнее время широкое распространение получили грид-системы, позволяющие запускать задачи в гетерогенной сети. Компания Intel ведет разработку такого продукта Grid Programming Environment (GPE), обладающего рядом уникальных свойств, таких как кроссплатформенность (благодаря реализации на Java), возможность запуска сложного рабочего потока (workflow), который может быть создан с помощью языка программирования высокого уровня (Java) или c помощью графического интерфейса.

Разработана методология, позволяющая переносить SPMD задачи на GPE Grid, состоящая из среды (надстройка над GPE API на Java) и описания приемов программирования под GPE.

На основе разработанной методологии реализован пример переноса задачи на грид. Использовано приложение Quaternions, разработанное на математико-механическом факультете, позволяющее создавать изображение множества инвариантных точек рациональных отображений.

Проанализированы достоинства-недостатки GPE, связанные как с работой всей инфраструктуры, так и с удобством использования предоставляемого API.


Введение
Что такое грид?

Грид – географически распределеная инфраструктура, объединяющая множество ресурсов разных типов (процессоры, долговременная и оперативная память, хранилища и базы данных, сети), доступ к которым пользователь может получить из любой точки, независимо от места их расположения. Грид предполагает коллективный разделяемый режим доступа к ресурсам и к связанным с ними услугам в рамках глобально распределенных виртуальных организаций, состоящих из предприятий и отдельных специалистов, совместно использующих общие ресурсы. В каждой виртуальной организации имеется своя собственная политика поведения участников, которые должны соблюдать установленные правила. Виртуальная организация может образовываться динамически и иметь ограниченное время существования.

Первые полнофункциональные прототипы грид-систем относятся к проекту Distributed Computing System (DCS) project начала 70-х годов, над которым велись работы в Калифорнийском Университете под руководством Дэвида Фарбера. Технология описывалась как “Кольцо (сеть) работающее как одна очень гибкая система, на которой отдельные узлы (компьютеры) могут запрашивать задачи”. Эта схема очень похожа на то, как вычислительные возможности ипользуется на гриде. Однако в 80х годах, эта технология была практически заброшена, так как трудности администрирования и безопасности связанные с выполнением вашей задачи на компьютере, которым вы не можете управлять, казались (и до сих пор кажутся некоторым) непреодолимыми.

Идеи грид были собраны вместе Яном Фостером, Карлом Кессельманом и Стивом Тьюком, так называемыми “отцами грид”. Они стояли и у истоков разработки первого стандарта конструирования грид-систем, свободно распространяемого программного инструмента с открытым кодом Globus Toolkit. Этот стандарт объединил не только управление процессорным временем, но и управление хранением данных, обеспечением безопасности, движениями данных, контроль состояний, а также инструментарий для разработки дополнительных сервисов. Он основан на той же инфраструктуре, включая переговоры о соглашении, механизмы уведомления, триггерные сервисы и агрегирование информации Термин грид имеет более далекие последствия, чем принято считать. В то время как Globus Toolkit остается стандартом де-факто для создания решений на базе грид, было создано большое количество других средств, которые включают в себя определенное подмножество сервисов необходимых для создания промышленного грида.

Для дальнейшего развития Globus Toolkit в 1999 году была создана специальная организация Global Grid Forum (GGF), в которую наряду с академическими организациями вошли многие производители компьютерных систем и программного обеспечения.

В 2002 году GGF и корпорацией IBM в рамках версии Globus Toolkit 3.0 была представлена новая системная разработка Open Grid Services Architecture (OGSA), инкорпорировавшая в грид понятия и стандарты веб-сервисов. В этой архитектуре грид-сервис определяется как специальный тип веб-сервиса, благодаря чему становится возможной работа с ресурсами грид на базе стандартных интернет-протоколов.

В своей статье “Что такое грид? Три критерия” в 2002 году Ян Фостер приводит простой список критериев, в соответствии с которым, грид – это система которая:


  • координирует использование ресурсов при отсутствии централизованного управления этими ресурсами (Грид интегрирует и координирует ресурсы и пользователей, которые находятся в разных местах, например, персональный компьютер пользователя и центральный компьютер, разные административные отделения одной компании или разные компании, и направляет участникам уведомления о гарантиях, страховке, платежах, членстве и т.д. Если это не так, мы имеем дело с локальной системой управления);

  • использует стандартные, открытые, универсальные протоколы и интерфейсы (Грид строится на базе многоцелевых протоколов и интерфейсов, позволяющих решать такие фундаментальные задачи как аутентификация, авторизация, обнаружение ресурсов и доступ к ресурсам. Если это не так, мы имеем дело со специализированной прикладной системой);

  • должна нетривиальным образом обеспечивать высококачественное обслуживание (грид позволяет использовать входящие в его состав ресурсы таким образом, чтобы обеспечивалось высокое качество обслуживания, касающееся, например, таких параметров, как время отклика, пропускная способность, доступность и надежность, а совместное использование ресурсов различных типов, готовых соответствовать сложным запросам пользователей, делает выгоду от использования комбинированной системы значительно выше, чем от суммы ее отдельных частей).

В настоящее время считается, что ключевыми свойствами грида являются:

  • грид работает с вычислениями;

  • грид работает с данными;

  • грид обеспечивает безопасность;

  • грид предоставляет информационную систему (возможность мониторинга выполнения работ в гриде);

  • грид обеспечивает поддержку различных сред программирования.


Суть работы
В настоящее время распределенные параллельные вычисления широко используются для решения задач в самых разных сферах, начиная от науки и кончая финансовыми рынками. Физические задачи требуют сложных расчетов, в медицине требуется моделировать лекарства с прогнозируемыми свойствами, расчет химических реакторов позволяет избежать ошибок в испытаниях, аэромеханические расчеты плохо обтекаемых тел, все эти задачи требуют не только большие вычислительные мощности, но и качественную инфраструктуру для удобства запуска и надежности работы. Широко распространенным приемом программного моделирования этих задач является модель программирования Single Program Multi Data (SPMD). Так называют прием параллельного программирования, когда при запуске создается фиксированное число одинаковых заданий, причем создание и уничтожение задания в процессе работы не допускается. Название связано с тем, что в результате одна и та же программа запускается с различными входными данными.

Многие подобные задачи уже сейчас решаются с использованием существующих грид-технологий, однако эта отрасль бурно развивается, и появляются новые программные решения. Компания Intel ведет разработку такого продукта Grid Programming Environment (GPE), основанного на Globus Toolkit и обладающего рядом уникальных свойств. К ним можно отнести кроссплатформенность, которая обеспечивается использованием Java. Большинство современных грид-систем могут работать только под Linux, используя специфическое программное обеспечение. Это несколько ограничивает возможности их применения. Кроме этого поддерживает возможность запуска сложного рабочего потока (workflow), который может быть создан с помощью языка программирования высокого уровня (Java) или c помощью графического интерфейса. Для представления рабочего потока используется базирующийся на XML язык JSDL, являющийся одни из открытых стандартов в области грид-технологий.

В связи с вышесказанным интересна проблема переноса SPMD приложений, как основных задач, для которых используются грид-системы, на GPE. Была разработана методология, решающая эту проблему. Создана программная оболочка, представляющая собой надстройку над GPE API на Java, и позволяющая переносить на GPE приложения, представленные в виде набора программ определенного вида. Описаны приемы программирования под GPE API, использованные при разработке оболочки.

В качестве примера применения созданной методологии, был реализован пример переноса задачи на GPE. Использовано приложение Quaternions, разработанное на математико-механическом факультете, позволяющее создавать изображение множества инвариантных точек рациональных отображений. Вначале приложение было адаптировано для переноса в грид, после чего было успешно портировано с использованием разработанной технологии.

В лаборатории Intel на математико-механическом факультете был развернут экспериментальный грид на основе GPE, в котором оно было запущено и протестировано. В результате были определены трудности, возникающие при работе с GPE, как связанные с общей работой всей инфраструктуры, так и касающиеся применения предоставляемого продуктом API. Выработана конструктивная критика технологии, предложены возможные пути решения.

Одной из серьезных проблем является работа брокера – программной компоненты, которая распределяет задания между целевыми системами в грид. При работе приложения выяснилось, что возможна ситуация, когда половина задач выполняется на одной целевой системе, в то время как остальные простаивают. Созданная разработка может быть применена как тестовое окружение для работ по созданию адаптивного брокера, которые ведутся в рамках студенческого исследовательcкого проекта Grid Deploy & Development.


Структура работы

Области применения и действующие проекты

< добавить рассказ о действующих проектах распределенных вычислений, о том насколько они соответствуют концепции грид.

SETI@HOME

Sun Grid

Etc.

>перенести в ПРИЛОЖЕНИЯ

Постановка задачи
Цель работы и постановка задачи
Целью работы в широком смысле является минимизация времени необходимом для выполнения SPMD программы, решающей поставленную задачу. Исследована возможность достижения этой цели с помощью GPE. Поэтому в узком смысле, целью работы было создание методологии переноса сложных вычислительных SPMD задач на грид-систему GPE. Была поставлена задача разработки удобного и простого в использовании способа переноса на GPE GRID задач, которые можно условно разделить на следующие части:

  1. Разделение;

Исходные данные обрабатываются с помощью программы SPLIT, которая создает заданное количество подзадач, каждая из которых может быть решена по отдельности (например, решение конкретной задачи для небольшого интервала значений);

  1. Вычисление;

Все полученные задачи независимо параллельно (в идеальном случае) решаются с помощью программы CALCULATE, которая решает исходную задачу в заданных рамках и выдает результаты;

  1. Объединение;

Все полученные результаты объединяются с помощью программы COMBINE, которая по набору решений частичных задач, создает решение общей задачи и возвращает его как общий результат.
Математические основы задачи
Для оценки эффективности работы приложения на гриде была составлена теоретическая формула, позволяющая оценить время работы приложения на гриде, при условии, что все целевые системы имеют одинаковую производительность. Зафиксируем задачу, и будем варьировать количество целевых систем в гриде и количество подзадач, на которые делится исходная задача. Будем считать, что подзадачи имеют одинаковую стоимость выполнения. Это позволит представить формулу в виде:
,

где



  • n – число подзадач;

  • m – число целевых систем;

  • I(n, m) – время, связанное с накладными расходами на работу инфраструктуры (пересылка файлов, брокеринг и т.д.);

  • Tsplit(n) – время работы разделения;

  • Tcalculate(n) – время работы каждой из подзадач при вычислении;

  • Tcombine(n) – время работы объединения;

  • B(n, m) – параметр, показывающий эффективность брокеринга, равен максимальному количеству подзадач вычисления, попавших на одну целевую систему. Очевидно, что значением данного параметра может быть любое целое число от 1 до n. В идеальном случае, этот параметр не должен превосходить [n/m] + 1, однако в реальности, может быть существенно больше.

Время работы исходного приложения можно оценить как


,
причем можно считать, что зависимость значений Tsplit и Tcombine от числа подзадач несущественна, а сами значения достаточно малы. Значение Tcalculate(n) обратно пропорционально n, поэтому функция nTcalculate (n) – константа. Таким образом, можно считать, что если общее время решения задачи на одной системе в последовательном режиме оставляет T, то время работы на гриде будет близко к значению
.
Соответственно, оценивать производительность работы приложения на грид-системе можно по двум параметрам:

  • качество работы брокера;

  • скорость работы самой системы.

Качество работы брокера для такой задачи можно оценить как относительное замедление работы приложения на гриде по сравнению с грид-системой с идеальным брокером:
.

Актуальность работы
Грид-технологии являются очень мощным и перспективным средством для проведения различных исследований, моделирований или вычислений любого рода. Пример проекта SETI@home (анализ сигналов из космоса с целью поиска следов внеземных цивилизаций) показывает, что грид-системы способны достигать производительности сравнимой с самыми мощными суперкомпьютерами и даже опережать их. Так самый мощный на сегодняшний день суперкомпьютер (по версии top500.org) имеют теоретический предел производительности в 360 терафлопс, в то время как система BOINC, на которой базируется SETI@home, достигает сейчас производительности в более чем 500 терафлопс.

Большая часть сложных вычислительных задач, которые требуется решать на подобных системах, может быть реализована в виде SPMD приложений. В том же SETI@home одни и те же действия производятся над различными данными. В настоящее время существует достаточно большое количество различных грид-систем, решающих подобные задачи (небольшой обзор приведен в приложении) и обладающих разной функциональностью, возможностями и требованиями к системам, где они используются. Уникальность GPE заключается в том, что данная грид-система позволяет:



  • устанавливать программное обеспечение целевой системы на компьютере под управлением любой операционной системы;

  • выполнять на целевой системе любые программы (которые могут быть запущены в установленной операционной системе, при условии, что они зарегистрированы в контейнере грид-системы)

  • программно создавать описание рабочего потока (workflow) приложения.

Таким образом, GPE, теоретически, позволяет создать систему, использующую процессоры простаивающих компьютеров, позволяющую решать любые задачи, автоматически распределяя задачи по целевым системам, позволяя создавать сложные схемы рабочего потока.

Задача переноса SPMD приложений на GPE является базовой в процессе осваивания этой технологии и изучении я ее реальных возхможностей.


Описание рабочего приложения Quaternions
В качестве рабочего примера была выбрана программа Quaternions, разработанная на МатМехе. Quaternions – программа для построения инвариантных множеств рациональных отображений. Она позволяет строить изображения по заданному набору параметров. В зависимости от точности построений (количество разбиений по расстоянию, количество итераций) и разрешения изображения время работы программы может быть достаточно большим, что бы можно было изучать улучшение производительности при работе на гриде по сравнению с производительностью оригинальной программы. Более подробно про данное приложение можно узнать из работы [номер работы].


Методология программирования под GPE Grid
Основные интерфейсы GPE, GridBean

Одним из основных понятий в программировании под GPE, является GridBean.


GridBean – это объект, который отвечает за

  • генерацию описания работы для grid сервисов;

  • предоставление графического интерфейса пользователя для входных данных;

  • предоставление графического интерфейса пользователя для выходных данных;

  • предоставление интерфейса для взаимодействия пользователя с grid сервисами.

Он делится на два модуля, один из которых отвечает за генерацию описания работы, а второй предоставляет графический интерфейс пользователя.


Для того чтобы воспользоваться GPE, необходимо (в простейшем случае) спроектировать свой GridBean и запустить его на Application Client. В данной главе описывается процесс разработки GridBean для решения поставленной задачи.
-
Основной задачей GridBean является генерация описания работы для грид-сервисов. Для этого должен быть реализован специальный метод, который, заполняет переданное ему пустое описание работы необходимыми данными. Работа описывается объектом JSDLJob, который может быть двух основных типов: GPEJob и GPEWorkflowJob.
В первом случае речь идет об так называемой атомарной работе (Atomic Job) – такая работа заключается в простом вызове заданного приложения на указанной (пользователем, в случае запуска такой работы на клиенте, или брокером, в случае если эта работа запускается в рамках более сложного рабочего процесса) целевой системе. Для этого вида работы необходимо указать название и версию запускаемого приложения, а также выставить необходимые значения параметров. Кроме этого, можно настроить экспорт и импорт файлов в данной целевой системе. Это необходимо при использовании сложного потока управления, когда разные работы зависят от файлов, которые могут быть созданы другими работами и, впоследствии, переданы с одной целевой системы на другую. Об этом будет подробнее рассказано ниже.
Нужно отметить, что приложение, которое указывается в атомарной работе, должно быть прописано в настройках используемой целевой системы. Для этого используется специальный конфигурационный файл, в котором для каждого приложения можно указать команду, которую оно будет запускать. Параметры прописывается в виде [PARAMETER_NAME].
Более сложным случаем описания работы является описание рабочего потока управления (Workflow Job). Такая работа может запускаться только на специальных целевых системах (Workflow Target System), для этого на них должно быть прописано специальное приложение WORKFLOW версии 1.0. В дальнейшем будет описан процесс разработки описания Workflow.
После создания GridBean, его можно загрузить в Application Client, задать необходимые параметры и отправить выполняться на целевую систему. При этом, вызывается вышеописанный метод, генерерирующий описание работы, после чего на базе полученного объекта JSDLJob создается описание работы в формате JSDL, стандартном языке описания работ на базе XML.

Программирование потока управления
Поток управления для GPEWorkflowJob задается с помощью метода
setProcess(Workflow, Action).
Интерфейс Action является родительским для всех классов, которые используются при описании потока управления, ниже следует список его наследников:

  • Sequence

последовательность действий, позволяет задавать набор действий Action, которые будут выполняться последовательно;

  • While

циклический оператор, позволяет задать условие (на языке XPath) и действие Action, которое будет выполняться до тех пор, пока верно условие;

  • Switch

условный оператор, позволяет задать набор объектов Case, каждый из которых является парой (условие, действие). В процессе выполнения, будет выполнено первое действие, для которого условие будет верным, также можно задать действие по умолчанию, которое будет выполнено в случае, когда ни одно из условий не было верно;

  • Declaration

объявление переменной или ссылки, подробно будет описано далее;

  • Assignment

присваивание значения переменной или ссылке, подробно будет описано далее;

  • Invocation

запуск какого-либо web-сервиса, подробно будет описано далее;

  • DataStagingSetup

настройка параметров переноса файлов из/в целевую систему;

  • и другие, не востребованные в данной работе.

Далее будет описано, как решать базовые задачи построения потока управлению с помощью этих конструкций.


Работа с объектами
Все объекты, с которыми можно работать в рамках описания потока управления делятся на два вида:

  • PartnerLink – ссылка на какой-либо ресурс или сервис;

  • Variable – переменная, представляет из себя набор так называемых “частей” (или сама является такой “частью”), каждая из которых может иметь значение, представленное в виде узла XML, на подузлы которого можно ссылаться с помощью XPath запросов.

Для того чтобы работать с переменными и ссылками, их необходимо объявить с помощью конструкции Declaration, например:

Declaration VAR = new Declaration(new Variable("TMP_VAR", "", ""),

wjob.newVariableValue());

sequence.addAction(TMP_VAR);

Эта конструкция также позволяет задать начальное значение. В частности, получить новое значение можно из GPEWorkflowJob с помощью методов newVariableValue(…) и newPartnerLinkValue(…).



При создании переменной, в конструкторе Variable(…) может быть указана “часть” переменной и запрос XPath. В этом случае в переменной будет создана указанная “часть”, а при обращении к ней, указанный запрос будет подставляться автоматически.
В GPE также реализован способ задания массивов переменных или ссылок. Массив реализуется с помощью обычной переменной, в которой в качестве значения задан узел XML, внутри которого находится список значений. Таким образом для создания массива необходимо выбрать название узла со значениями, приготовить массив значений и объявить переменную с массивом. Например, таким образом можно создать массив статусов работ:

VariableValue[] statusValues = new VariableValue[jobsNumber];

for (int i=0; i < jobsNumber; i++) {

statusValues[i] = wjob.newStatusValue("FAILED");

}

Declaration JOB_STATUSES_ARRAY = new Declaration(

new Variable("JOB_STATUSES_ARRAY", "", ""),

wjob.newVariableValue().getArrayValue(

new QName(NAMESPACE, "JobStatuses", statusValues));
Здесь используется метод класса VariableValue getArrayValue(…), который создает элемент XML в заданном пространстве имен, с заданным именем и с указанными значениями внутри него.
Жизненный цикл работы
Следующий список описывает последовательность состояний, в которых пребывает работа от момента создания, до момента завершения:

  • READY – в этом состояние работа находится сразу после того, как отправляется на целевую систему с помощью команды submit на брокере;

  • STAGEIN – после выполнения команды start, но еще до непосредственного запуска работы, выполняется пересылка необходимых файлов на целевую систему, где она будет выполняться;

  • RUNNING – после пересылки файлов, на основе описания работы и Incarnation Database целевой системы, создается сценарий выполнения работы в виде bat-файла, который запускается в рабочем каталоге целевой системы;

  • STAGEOUT – В случае успешного выполнения сценария, происходит пересылка необходимых файлов обратно с целевой системы;

  • SUCCESSFUL – конечное состояние работы, характеризующееся полностью успешным выполнением (включая отсутствие ошибок при пересылке файлов)

  • FAILED – состояние, указывающее на ошибку при выполнении работы. Может быть вызвано как отсутствием необходимого приложения, так и невозможностью корректно выполнить пересылку файлов, а также какими-либо другими ошибками при выполнении.


Создание и отправка работы
Для того чтобы создать атомарную работу необходимо создать пустой шаблон атомарной работы с помощью метода newGPEJob() класса GPEWorkflowJob. После этого созданную работу необходимо заполнить данными о запускаемом приложении, идентификаторе работы, параметрах запуска и указать на необходимость пересылки файлы до и после выполнения работы. Для этого используются стандартные методы:

  • job.setApplicationName(), job.setApplicationVersion() – задают название и версию приложения, которые должны соответствовать настройкам Incarnation Database;

  • job.setId() – задает идентификатор описания работы;

  • job.addField(String key, String value) – задает значение value для параметра запуска работы key, который должен соответствовать настройкам Incarnation Database;

  • job.addDataStagingImportElement(String uri, String fileSystem, String file) – задает импортирование файла на целевую систему перед запуском работы. В нашем случае запуска работы с Workflow Target System необходимо указать следующие значения:

    • uri = “http://localhost” – адрес компьютера, на котором находится файл. При выполнении с даным значением, реальный адрес в сети будет подставлен автоматически;

    • fileSystem = “Work” – наименование файловой системы, в которую будет помещен файл на целевой системе. Данное значение указывает на то, что файл будет помещен в рабочий каталог целевой системы;

    • file – здесь необходимо указать имя файла (находящегося на Workflow Target System), который необходимо перенести;

  • job.addDataStagingExportElement(String fileSystem, String file, String uri) – задает экспортирование файла с целевой системы после запуска работы. Параметры аналогичны параметрам при импортировании файла.

Необходимо отметить, что для работы функции переноса файлов между целевыми системами, необходимо не только настроить экспорт/импорт при создании описания работы, но и добавить в поток управления соответствующие действия.

Для того чтобы сделать возможным перенос файлов, необходимо, в первую очередь, получить ссылку на рабочую директорию, в которой выполняется поток управления. Эта директория будет использоваться для указания источника файлов.

Ссылку на рабочую директорию удобно получить в отдельном элементе Sequence и сохранить в переменной-ссылке SPOOL. Этот код удобно поместить в начале потока управления, вместе с объявлениями необходимых переменных:
Declaration SPOOL = new Declaration(new PartnerLink("SPOOL"),

wjob.newPartnerLinkValue());

Declaration THISPL = new Declaration(new PartnerLink("THISPL"),

wjob.newPartnerLinkValue());

Declaration GETSPOOLRESPONSE = new Declaration(

new Variable("GETSPOOLRESPONSE", "GetResourcePropertyResponse", ""),

wjob.newVariableValue());
sequence.addAction(SPOOL);

sequence.addAction(THISPL);

sequence.addAction(GETSPOOLRESPONSE);
sequence.addAction(new Assignment(THISPL.getPartnerLink(), true, THISPL.getPartnerLink()));

sequence.addAction(wjob.newGetResourceProperty(

wjob.getWorkingDirectoryReferencePropertyName(),

THISPL.getPartnerLink(), GETSPOOLRESPONSE.getVariable(), namespaces));

sequence.addAction(new Assignment(

GETSPOOLRESPONSE.getVariable().derive(getChildNode(getChildNode("", "1"), "1")),

SPOOL.getPartnerLink()));
Здесь используется следующий подход: сначала, в переменную-ссылку THISPL записывается ссылка на текущую работу (Workflow Job), а затем с помощью метода newGetResourceProperty(…) класса GPEWorkflowJob получается значение свойства “ссылка на рабочую директорию” для этой работы. После этого эта ссылка сохраняется в переменную-ссылку SPOOL.

Перед отправкой работы необходимо настроить перенос файлов. Для этого используется элемент потока управления DataStagingSetup, в котором указываются файлы, которые необходимо импортировать/экспортировать:


DataStagingSetup dss = wjob.newDataStagingSetup(namespaces);

dss.setupImport(job.getVariable().derive("/"+jsdl+":JobDescription/"+jsdl+":DataStaging[1]"),

SPOOL.getPartnerLink(), inputFilename);

dss.setupExport(job.getVariable().derive("/"+jsdl+":JobDescription/"+jsdl+":DataStaging[2]"),

SPOOL.getPartnerLink(), outputFilename);

sequence.add(dss);


Здесь job – переменная с запросом на отправку работы, о котором подробнее будет рассказано далее. Важно отметить, что в последнем элементе запроса XPath, использованного в настройках, для каждой работы должны стоять последовательные числа, начиная с единицы.
Для отправки работы на сервер, необходимо выполнить следующие действия:

  • Создать переменную-ссылку на брокера;

  • Создать переменную с запросом на отправку работы;

  • Создать переменную, в которую будет сохранен ответ брокера;

  • Вызвать сервис Submit на брокере, с соответствующими параметрами.

Рассмотрим эти действия более подробно. Ссылка на брокер может быть передана в модуль генерации потока управления в грид-бине из пользовательского интерфейса в виде объекта реализующего интерфейс TargetSystemClient. Остается только создать соответствующую переменную-ссылку в рамках потока управления:


BROKER = new Declaration(new PartnerLink("BROKER"), wjob.newPartnerLinkValue(broker));
Запрос на отправку работы выглядит следующим образом:
JOB_SUBMIT_REQUEST = new Declaration(new Variable("SPLIT_JOB", "SubmitRequest",

"/"+tss+":Submit/"+jsdl+":JobDefinition"), wjob.newSubmitValue(atomicJob, terminationTime)),


где atomicJob – описание работы, для которой создается данный запрос. Ответ брокера, содержащий идентификатор отправленной работы должен быть сохранен в переменную объявленную следующим образом:
JOB_SUBMIT_RESPONSE = new Declaration(new Variable("JOB_SUBMIT_RESPONSE",

"SubmitResponse", "/"+tss+":SubmitResponse/"+tss+":JobReference"),

wjob.newVariableValue());
Вызов сервиса Submit на брокере производится с помощью достаточно сложной конструкции Invocation. Кроме ссылки на объект названия сервиса, который надо на нем запустить, а также ряда специфических параметров, она принимает в качестве параметра входную и выходную переменную, роль которых в данном случае играют Submit Request и Submit Response:

submit.addAction(new Invocation(wjob.getTargetSystemPortType(), "Submit", BROKER.getPartnerLink(),

JOB_SUMBIT_REQUEST.getVariable(), JOB_SUMBIT_RESPONSE.getVariable(),

InvocationParameters.getDelegationParameters(), namespaces));

submit.addAction(new Assignment(JOB_SUBMIT_RESPONSE.getVariable(), TMP_PL.getPartnerLink()));
Последнее присваивание позволяет получить записанную в ответе брокера ссылку на отправленную работу и сохранить ее во временную переменную-ссылку TMP_PL.
Запуск работы
Для запуска работы необходимо иметь идентификатор отправленной работы (в статусе READY). Кроме этого необходимо подготовить:


  • переменную JOB_START с запросом на запуск работы;

  • переменную JOB_START_RESPONSE, в которую будет сохранен результат запуска;

  • переменную-ссылку JOBPL, в которую будет записана ссылка на запущенную работу, которая может быть использована для получения ее статуса.

Ниже приведен код, который позволяет сделать это:
JOBPL = new Declaration(new PartnerLink("JOBPL"), wjob.newPartnerLinkValue());

JOB_START = new Declaration(

new Variable("START", "StartRequest", ""), wjob.newJobStartRequestValue());

JOB_START_RESPONSE = new Declaration(

new Variable("STARTRESPONSE", "StartResponse", ""), wjob.newVariableValue());
Непосредственно запуск работы, как и ее отправка на целевую систему, происхожит с помощью конструкции Invocation:
sequence.add(new Invocation(wjob.getJobManagementPortType(), "Start", JOBPL.getPartnerLink(),

JOB_START.getVariable(), STARTRESPONSE.getVariable(), InvocationParameters.getNoDelegationParameters(), namespaces));


Получение статуса работы
В процессе выполнения сложной задачи, неизбежно возникает необходимость дождаться выполнения атомарной задачи на целевой системе. Например, для выполнения следующего действия может быть необходимо наличие результатов предыдущей работы. В GPE можно в цикле проверять статус работы, дожидаясь, пока она не перейдет в состояние SUCCESSFUL:
Sequence.addAction(wjob.newGetResourceProperty(wjob.getJobStatusPropertyName(),

JOBPL.getPartnerLink(), JOB_STATUS.getVariable(), workflow.getNamespaces()));


Такая команда добавляет действие, по считыванию статуса запущенной работы, описанной ссылкой JOBPL, в переменную JOB_STATUS. Впоследствие, значение этой переменной можно сравнить непосредственно со строчкой с именем необходимого статуса работы.
Запуск нескольких одинаковых работ с разными параметрами
При переносе на Grid приложения, основной целью является распараллеливание какой-то временно-затратной задачи. При этом часто возможна ситуация, когда необходимо запускать одну и ту же программу с разными параметрами. К сожалению, GPE не позволяет создавать параметризованные работы, все поля параметров работы заполняются на клиентской стороне, поэтому возможности запускать работу с параметрами, зависящими от какой-либо переменной потока управления, не имеется. В качестве решения этой проблемы, используется техника создания на клиентской стороне целого массива всех возможных работ, которые потом последовательно запускаются. Последовательный запуск всех работ прописывается в виде цикла на клиентской стороне, который преобразуется в последовательность конструкций XML, запускающих работы. Попытки создать в потоке управления переменную-массив со всеми работами и запускать их в виде цикла на серверной стороне (в Workflow Target System) не оказались успешными.
Возможны ситуация, когда заранее предусмотреть все работы, которые могут понадобиться невозможно, например, когда параметры работы зависят от результатов выполнения предыдущих работ. В этом случае проблему можно решить с помощью передачи параметров в файле, однако это представляется не слишком удобным. Возможно, в новой версии API будут внесены какие-то изменения в политике создания и отправки работ.
Основные неудобства, возникающие при разработке под GPE
Основной целью, которую преследует GPE Workflow API, является предоставление разработчику интерфейса для создания JSDL описания работы. В силу сложности этого формата, эта задача сводится к разработке удобной, но в то же время гибкой среды, не ограничивающей разработчика в возможностях по сравнению с JSDL. В GPE Workflow API удалось во многом упростить создание описания потока управления, однако на данный момент, разработка в этой среде связана с определенными трудностями, необходимо глубокое понимание устройства создаваемого XML документа. Без этого понимания, перенос приложений под GPE практически невыполним, хотя конечной целью создания API должно являться именно полное скрытие более низкого уровня от разработчика. Ниже следует более подробное описание неудобств, возникающих при работе с GPE Workflow API, а также ряд предположений о возможных путях улучшения:

  • Перенос файлов – для переноса файлов необходимо дважды указать, что необходимо импортировать/экспортировать файл (в описании работы и в рамках действия в потоке управления). Возможно, стоит частично автоматизировать этот процесс, чтобы избежать дублирования действий. По крайней мере, необходимо избежать повторного указания имени файла, возможно, следует использовать какой-либо идентификатор ресурса вместо него. Кроме этого такие параметры как “http://localhost” и “Work” стоило бы обозначить какими-либо константами.

  • Вызов web-сервисов – при вызове web-сервисов, таких как отправка и запуск работы, используются входные и выходные переменные, содержащие в себе запрос и ответ, соответственно. Для создания этих переменных необходимо представлять структуру XML узла, который в них записан. С одной стороны это дает возможность в полной мере использовать возможности JSDL, но заметно усложняет разработку, заставляя пользователя, по сути, сначала представлять код на JSDL, и лишь потом создавать его отображение на Java. Возможно, имело бы смысл сделать двойной API, состоящий с одной стороны из набора базовых действий, таких как отправка работы, которые могут быть не гибкими, но удобными в использовании, подходящий для большинства типичных случаев, а с другой стороны сохранить возможность использования средств, которые представлены сейчас, когда возникают более сложные ситуации.

  • Условия в цикле и условных операторах, выражения – в текущей реализации, условия и выражения (например, увеличение счетчика на единицу) представляются в виде строчки с выражением на языке XPath, что хоть и позволяет использовать все возможности JSDL, но, тем не менее, усложняет задачу разработки и увеличивает вероятность ошибок. В этой ситуации, можно опять-таки порекомендовать использование двойного API, включающего в себя простой и расширенный интерфейс.

  • Работа с подузлами, массивами - в имеющихся примерах реализации достаточно сложных потоков управления, широко используются функции, возвращающие XPath-пути, необходимые для получения значения переменной, получения заданного элемента массива, перехода к дочерним узлам и другие. Вероятно, эти функции можно выделить в виде отдельного вспомогательного класса, или даже полностью интегрировать с API.

В завершение этого раздела, можно сделать определенные выводы о GPE Workflow API. По определению, грид должен поддерживать ряд открытых стандартов, одним из которых является JSDL. При создании GPE была проделана серьезная работа над созданием библиотек, позволяющих генерировать JSDL описания из Java, сохраняя все возможности JSDL. Если сравнить код на Java и создаваемое им автоматически описание, становится видно, что задача переноса приложения на грид в GPE существенно облегчилась. Тем не менее, имеется ряд проблем, которые могут быть решены при дальнейшей разработке GPE. Насколько известно автору, в данный момент ведется работа над новой версией API, в которой, вероятно, будет ряд значительных изменений.




Реализация рабочего примера
Реализация рабочего примера была проделана в Лаборатории Intel на математико-механическом факультете СПбГУ. Работа разделилась на несколько этапов:

  • развертывание GPE;

  • подготовка рабочего примера к использованию на GPE Grid;

  • создание грид-бина для запуска рабочего примера;

  • настройка инфрастуктуры GPE для его работы;

  • разработка среды для удобного запуска подобных задач на GPE.

Ниже приведено подробное описание произведенных действий.


Развертывание GPE

В лаборатории Intel на математико-механическом факультете СПбГУ была развернута инфраструктура GPE.

Основным серверным приложением, необходимым для работы GPE Grid, является контейнер, который был установлен на сервере fsi.math.spbu.ru. На рабочих станциях были установлены целевые системы и клиентские приложения, что дает возможность объединить всю лабораторию в единый грид, на котором можно запускать приложения с любой рабочей станции. Кроме этого ведутся работы по установке так называемого портал-клиента (Portal Client), который предоставляет web-интерфейс к грид, позволяя запускать приложения извне.

Для обеспечения безопасности в GPE используются сертификаты безопасности SSL, для создания и работы с которыми было использовано свободно распространяемое приложение OpenSSL.

При установке GPE возникло ряд проблем, связанных с отсутствием подробной документации по процессу установки и его общей сложностью. Поэтому в рамках студенческого проекта Grid Deploy & Development был составлен набор документов, подробно описывающих этот процесс. Также была поставлена задача частично автоматизировать процесс установки, был написан ряд скриптов, которые его упрощают.
Подготовка рабочего примера
Для запуска рабочего примера в GPE Grid, необходим был интерфейс для работы с приложением Quaternions из командной строки. Кроме этого, необходимо было разделить приложение на отдельные части, соответствующие этапам работы приложения на гриде. Автор Quaternions подготовил его к использованию, в результате чего было сделано три отдельных программы:


  • QSplit – приложение командной строки, разделяющее задачу на заданное количество подзадач;

  • QCalculate - приложение командной строки, решающее отдельную подзадачу независимо от остальных подзадач;

  • QCombine - приложение командной строки, собирающее из решений всех подзадач общее решение.

Основные временные затраты приходятся на собственно решение подзадач приложением QCalculate, время работы QSplit и QCombine пренебрежимо мало.
QSplit: Приложение принимает на вход семь параметров, описание которых приведено ниже:
QSplit [ResX] [ResY] [Precision] [IterNumber] [PartsNumber] [InputFile] [OutputFile]
Пример: qsplit 320 240 100 10 6 TestParameters01Julia.qpm task


  • ResX, ResY – разрешение создаваемого изображения;

  • Precision – количество разбиений по расстоянию, соответствующее точности результата;

  • IterNumber – количество итераций;

  • PartsNumber – количество подзадач, на которые будет разделена задача;

  • InputFile – полное имя входного файла задачи;

  • OutputFile – общее имя файлов с описанием под задачи, выходные файлы имеют получают имя вида “OutputFileI.txt”, где I – номер подзадачи.

Для работы приложения нужен один файл формата QPM, результатом его работы является создание заданного количества файлов с описанием подзадач (в том же формате).


QCalculate: Приложение принимает на вход два параметра, описание которых приведено ниже:
QCalculate [InputFile] [OutputFile]
Пример: qcalculate task2.txt res2.dat


  • InputFile – полное имя входного файла с описанием подзадачи;

  • OutputFile – полное имя выходного файла с решением подзадачи.

Для работы приложения нужен один файл формата QPM с описанием подзадачи, результатом его работы является создание файла с решением этой подзадачи.


QCombine: Приложение принимает на вход четыре параметра, описание которых приведено ниже:
QCombine [FirstSubtaskFilename] [InputName] [InputExt] [ResultFilename]
Пример: qcombine task1.txt res dat temp.bmp


  • FirstSubtaskFilename – полное имя файла с описанием первой подзадачи;

  • InputName, InputExt – общее имя и расширение файлов с решениями подзадач. Входные файлы имеют имя вида “InputNameI.InputExt”, где I номер подзадачи;

  • ResultFilename – полное имя файла для сохранения полученного изображения. Изображение создается в формате BMP, поэтому рекомендуется задавать имя файла с соответствующим расширением.

Для работы приложения нужен один файл формата QPM с описанием первой подзадачи, а также файлы с результатами решения всех подзадач. Результатом его работы является создание файла с изображением являющимся решением исходной задачи.




  • создание грид-бина для запуска рабочего примера;

  • настройка инфрастуктуры GPE для его работы;

  • разработка среды для удобного запуска подобных задач на GPE.


Разработка QuaternionsGridBean
Для создания QuaternionsGridBean был создан простейший графический интерфейс для ввода всех параметров приложения. Кроме этого необходимо было разработать метод, создающий поток управления (workflow). Общий алгоритм рабочего потока, который выполняется на Workflow Target System, можно описать в следующем виде:

  • запустить на атомарной Target System QSplit, предварительно переслав на нее входной файл; забрать созданные файлы с описанием подзадач обратно на Workflow Target System;

  • В цикле по всем подзадачам выполнить следующие действия:

    • запустить на атомарной Target System QCalculate, предварительно переслав на нее файл с описанием подзадачи; забрать с нее созданный файл с решением подзадачи;’

  • запустить на атомарной Target System QCombine, предварительно переслав на нее все решения подзадач и файл с описанием первой подзадачи; забрать созданный файл с итоговым решением обратно на Workflow Target System;

  • отправить файл с итоговым решением обратно на клиент.

В приложении этот алгоритм изложен на псевдоязыке программирования более подробно, с учетом реального устройства GPE.
Настройка инфраструктуры GPE для работы QuaternionsGridBean
Для работы написанного приложения необходимо подготовить GPE к его запуску. Минимально необходимые действия (предполагается, что уже установлены контейнер и Admin Client, а также сконфигурированы для запуска TSI на целевых компьютерах):

  • зарегистрировать на контейнере брокера;

  • зарегистрировать на контейнере Workflow TSI;

  • зарегистрировать на контейнере необходимое количество Atomic TSI;

Все эти регистрации проводятся с помощью функции Create Target System в Admin Client.
Брокер и Workflow TSI регистрируются стандартным образом. Incarnation Database для Atomic TSI должна содержать информацию об используемых приложениях. В приложениях приведен XML код, который необходимо добавить в нее для этого. В нем содержится описание трех приложений (qsplit, qcalculate, qcombine). Каждое приложение регистрируется под определенным именем, указывается версия приложения. Кроме этого указывается команда, необходимая для запуска этого приложения, причем передаваемые в описании работы параметры, могут использоваться в этой команде. Для этого их имена должны быть указаны в квадратных скобках.
Разработка среды для удобного запуска SPMD задач
В связи с тем, что основные трудности для переноса SPMD задачи на GPE Grid составляет разработка описания потока управления, была осуществлена разработка ряда классов, упрощающих эту деятельность.

В сущности, базовые задачи Split, Calculate и Combine в том или ином виде присутствуют во всех задачах такого типа. Поэтому было принято решение сделать возможным перенос на Grid новых задач, задавая только параметры необходимые для работы конкретного приложения.

К числу таких параметров относятся:


  • параметры развернутых на Atomic TSI приложений, выполняющих базовые задачи – названия и номера версий;

  • параметры запуска этих приложений;

  • наборы входящих файлов, которые необходимо перенести на целевую систему перед запуском каждой задачи;

  • наборы файлов результатов, которые необходимо переносить обратно с целевой системы.

Вышеперечисленная информация должна быть представлена для каждой из базовых задач. Для представления информации о конкретной задаче был создан интерфейс JobBean:


public interface JobBean {
String getApplicationName();

String getApplicationVersion();

HashMap getInputParameters();

List getInputFilenames();

List getOutputFilenames();

}
По сути, объект, реализующий данный интерфейс, представляет собой комплексное описание атомарной работы, в упрощенном предположении, что пересылка файлов происходит только между Workflow TSI, которая управляет всем процессом вычислений, и Atomic TSI, на которой выполняется конкретная работа.

В результате для представления информации о целом приложении, необходимо задать JobBean для каждой подзадачи. Для передачи этой информации был создан интерфейс TaskBean:

public interface TaskBean {


JobBean getSplitJobBean();

List getCalculateJobBeans();

JobBean getCombineJobBean();

}
При этом количество подзадач, на которые будет разделена исходная задача, при выполнении на Grid, определяется длиной списка calculateJobBeans.


В дальнейшем, на базе описания потока управления разработанного при создании QuaternionsGridBean, был создан класс TaskBeanBasedWorkflowGenerator. Конструктор этого класса принимает на вход все параметры, необходимые для генерации описания потока управления (такие как ссылка на брокера, экземпляр GPEWorkflowJob для создания базовых конструкций, идентификаторы пространств имен и др.), а также экземпляр TaskBean. Сконструированный в результате объект имеет метод generateWorkflow(), создающий описание потока управления в виде сложного действия, которое может быть в дальнейшем добавлено в поток управления создаваемый в любом грид-бине.

В результате, задача переноса SPMD задачи на действующий грид сводится к следующим этапам:



  • разделение вычислительного процесса на базовые задачи Split, Calculate и Combine;

  • создание соответствующих приложений командной строки, позволяющих получать результат решения в виде файла;

  • установка созданных приложений в Incarnation Database всех Atomic TSI, на которых они должны запускаться;

  • создание экземпляра TaskBean, описывающего интерфейс этих приложений и их идентификаторы в Incarnation Database;

  • создание простейшего GridBean, фактически использующего TaskBeanBasedWorkflowGenerator для создания описания потока управления;

  • разработка графического интерфейса (GridBeanPlugin) для ввода необходимых параметров.

Надо отметить, что последние два пункта можно весьма упростить, разработав стандартный интерфейс ввода параметров. Его можно реализовать в виде создания простого отображения названия параметра в его значения (например, Map) и простейшего графического интерфейса, состоящего из текстовых полей для ввода значений, перед которыми написано название параметра. После заполнения указанные параметры могут передаваться в создаваемый TaskBean для дальнейшего использования. Однако такое упрощение существенно уменьшит гибкость разработки и удобство использования создаваемого приложения. Существующий сейчас в GPE несложный API для задания параметров запуска видится достаточным на данном этапе. Без знания Java создать необходимый TaskBean все равно невозможно, а воспользоваться этим API может даже начинающий разработчик.

Результаты и перспективы
Результаты тестирования производительности
Тестирование производительности не входит в рамки поставленной задачи, однако имеет значение в понимании важности полученных результатов. Необходимо оценить, насколько применимо созданное программное решение, в каких доработках оно нуждается.

В изучаемом приложении время, необходимое для решения исходной задачи, практически совпадает с суммарным временем необходимым на решение каждой из подзадач, причем каждая из подзадач требует одинакового времени. Таким образом, в силу линейности времени работы приложения на гриде, достаточно провести небольшое количество экспериментов.

Было рассмотрено три конфигурации параметров, с которыми исходная задача в последовательном режиме выполняется различное время. В этих же конфигурациях приложение запускалось на гриде. Использовался грид построенный на шести Atomic Target System и одной Workflow Target System, выбранных среди рабочих станций лаборатории Intel.

Ввиду отсутствия возможности отправить приложение на грид из командной строки, способа произвести точные измерения времени на выполнение невозможно, поэтому оно оценивалось “на глаз”. Однако, в силу того, что это время измерялось минутами, а целью тестирование являлась скорее качественная, нежели количественная оценка, такое измерение представляется в данной ситуации допустимым.

В первую очередь было изучено время, теряемое в гриде на различные накладные расходы, такие как пересылка файлов между рабочими станциями, обработка потока управления и другие. Для этого приложение было запущено с параметрами, при которых оно выполняется при последовательном выполнении практически мгновенно (не более двух секунд). На гриде был получен результат в 2 минуты. После этого было проведено еще два эксперимента с более длительными вычислениями (несколько минут), которые показали, что даже если вычесть из времени работы в гриде эти 2 минуты, то все равно ожидаемого ускорения в 6 раз не наблюдается, программа работает быстрее не более чем в два раза.

В процессе изучения как распределяются подзадачи на целевых системах, выяснилось, что брокер распределяет их неравномерно, так, в одном из экспериментов, из шести подзадач 3 выполнялись на одной целевой системе. Ясно, что при этом ускорение более чем в два раза теоретически невозможно. При увеличении количества подзадач (количество целевых систем не менялось) качество распределения улучшилось, однако увеличились и накладные расходы. Ниже приведен график с результатами экспериментов.


Другие результаты тестирования
В процессе изучения созданного приложения, выяснилось, что грид работает несколько не стабильно и в определенных ситуациях может “зависать” или переставать принимать задачи. Это существенно ограничивает возможности его использования, поэтому одной из первоочередных задач дальнейшей разработки является изучение этой проблемы и определение ее причин.
Результаты работы
Созданное приложение является удобным и простым в использовании (при условии нормального функционирования GPE Grid). Для запуска достаточно запустить Applcation Client, загрузить через меню QuaternionsGridBean, ввести параметры и отправить задачу на выполнение.

С точки зрения создания инфраструктуры для удобного переноса аналогичных задач на грид, достигнуты определенные результаты. Если ранее для этого от разработчика требовалось глубокое понимание устройства всей системы, то теперь написать TaskBean для переноса на грид аналогичной задачи может даже начинающий Java-разработчик.

В рамках данной работы изучен GPE Workflow API, описан набор приемов, необходимых, для его использования при создании описаний более сложных потоков управления. Кроме этого представлена конструктивная критика GPE вообще и GPE Workflow API, в частности. Эти результаты могут оказать положительное влияние на развитие проекта.

Созданная разработка может использоваться как рабочий пример в рамках ведущихся в рамках студенческого проекта Grid Deploy & Development исследований и разработок по созданию брокера с возможностью адаптивной балансировки заданий.


Перспективы и планы дальнейшей работы

Приложения
Приложение 1, Настройка Incarnation Database

XML код, который необходимо поместить в Incarnation Database для Atomic TSI при регистрации. Содержит описание приложений из рабочего примера Quaternions.






QSPLIT

1.0





d:/grid/work/QuaternionsGRID/QSplit.exe



]]>












QCALCULATE

1.0





d:/grid/work/QuaternionsGRID/QCalculate.exe

]]>










QCOMBINE

1.0





d:/grid/work/QuaternionsGRID/QCombine.exe

]]>






Приложение 2, Алгоритм работы рабочего потока в QuaternionsGridBean
splitJob := broker.submit(splitJobDefinition);

splitJob.start();

while (splitJob.getStatus() != SUCCESSFUL) {}
for i:=1 to n {

calculateJob[i] := broker.submit(calculateJobDefinition[i]);

calculateJob[i].start();

}

for i:=1 to n {



while (calculateJob[i].getStatus() != SUCCESSFUL) {}

}
combineJob = broker.submit(combineJob Definition);

combineJob .start();

while (combineJob .getStatus() != SUCCESSFUL) {}



Литература






База данных защищена авторским правом ©infoeto.ru 2016
обратиться к администрации
Как написать курсовую работу | Как написать хороший реферат
    Главная страница