Д. Ю. Тоболин Введение Задача




Скачать 266.81 Kb.
Дата 27.09.2016
Размер 266.81 Kb.
Использование жестовых интерфейсов при взаимодействии с объектами

В.Л. Авербух, Н.В. Авербух, И.С. Стародубцев, Д.Ю. Тоболин

Введение

Задача разработки трехмерных жестовых интерфейсов связана с задачами удаленного взаимодействия с реальными или виртуальными объектами. Например, при разработке медицинских приложений для работы в хирургической операционной необходимо обеспечить режим стерильности, что затруднительно при использовании привычных устройств. Аналогично, целый ряд современных диагностических и хирургических методик предполагает использование излучений различных типов. Соответственно, требование радиационной безопасности приводит к необходимости управления приборами со специальных защищенных пультов. Однако создание таких удаленных рабочих мест не всегда удобно для медиков, так как требует времени для переключения в традиционный режим ведения операции, если такая необходимость возникает при каких-то непредвиденных обстоятельствах. То есть, при разработке современных методик диагностики и лечения имеют место ситуации, когда использование традиционных методик взаимодействия с компьютером резко усложняет работу медиков.

Подобные в чем-то задачи обеспечения взаимодействия возникают при разработке систем компьютерной визуализации на базе сред виртуальной реальности, предполагающих эффект присутствия. (Информацию о ранних исследованиях в этом направлении см. в [1,2,3].) Здесь при использовании обычных средств ввода при работе также могут возникать проблемы непрерывного перехода от изучения виртуального мира к поиску нужных клавиш или иных устройств. Использование для манипуляций и навигации в виртуальном мире специальных джойстиков также не всегда удобно.

Таким образом, возникает задача разработки новых, удобных для осуществления основной деятельности пользователей человеко-компьютерных интерфейсов для взаимодействия, как с реальными, так и с визуальными (виртуальными) объектами. В данной работе мы сделаем обзор возможностей использования естественных человеко-компьютерных интерфейсов, обращая особое внимание на жестовые трехмерные интерфейсы и их возможности при использовании в медицинских целях. Описывается прототипная реализация, основанного на распознавании жестов, программно-аппаратного комплекса распознавания жестов «Виртуальная рука» Также будут рассмотрены некоторые вопросы оценки профессиональных интерфейсов.


Естественные интерфейсы

Аппаратные средства современного человеко-компьютерного взаимодействия появились более 50 лет назад вместе с первыми дисплеями. Уже к середине 60-ых годов XX века сложился определенный набор устройств ввода информации - алфавитно-цифровая и функциональная клавиатура дисплеев, наборный диск, световое перо, осуществлявшее ввод в различных режимах, мышь (первоначальное название – bug - жук). Чуть позднее появились джойстики (joystick), трэк-боллы (trackball), тач-скрины (touch-screen – сенсорные экраны). Такие интерфейсы, реализуемые за счет операций с какими-либо устройствами, можно назвать девайсными интерфейсами (Device Interfaces) в отличие от естественных пользовательских интерфейсов (Natural User Interfaces - NUI.)

Используется несколько определений естественных интерфейсов. В одних из них упор делается на то, что в рамках естественных интерфейсов пользовательские операции интуитивно понятны и основаны на естественном бытовом поведении. В других говорится о базирующемся на естественных элементах фактически незаметном интерфейсе (или становящимся таковым после его освоения пользователем).

Мы, говоря о естественных интерфейсах, будем иметь в виду интерфейсы, построенные на фиксации и распознавании какой-либо комбинации движений человека или активности его органов.

Примеры систем, на базе естественных интерфейсов можно найти в обширной зарубежной и отечественной литературе по данному вопросу.

Мы рассмотрели те известные из современной практики разработок интерфейсы, которые могут рассматриваться как естественные, и упорядочили их сверху вниз. (В буквальном смысле – «с головы до пят».) Получился следующий список:



  • Интерфейс мозг-компьютер (нейрокомпьютерный интерфейс, Brain-Computer Interfaces);

  • Интерфейсы на основе непосредственного использования нервных импульсов;

  • Интерфейсы, основанные на распознавании речи;

  • Интерфейсы, основанные на распознавании движения губ;

  • Интерфейсы, основанные на распознавании мимики;

  • Интерфейсы, основанные на распознавании перемещения взгляда (Eye Gaze или Eye Tracking);

  • Тактильные интерфейсы;

  • Интерфейсы, основанные на фиксации движений (motion capture) всего тела человека или отдельных органов (головы, всей руки, кистей рук, пальцев, ног).

При этом необходимо учитывать возможность комбинации в рамках одной реализации фиксации нескольких естественных активностей человека.

Нейрокомпьютерные интерфейсы основаны на распознавании собственной электрической активности мозга (ЭЭГ), связанной, в частности, с движениями рук и ног и формировании команд на перемещение реальных или виртуальных объектов. Это направление активно развивается последние десятилетия, как за рубежом, так и в нашей стране. Собран обширный корпус трудов исследователей различных стран по данной тематике. (См., например, сайт лаборатории нейрофизиологии и нейро-компьютерных интерфейсов МГУ [4], а также [5,6,7]). В связи с темой этой статьи интерес представляют работы по использованию интерфейсов данного типа в системах виртуальной и расширенной реальности как для манипуляции объектами, так и для осуществления навигации в виртуальном пространстве [8,9].

Интерфейсы на основе непосредственного использования нервных импульсов описаны в «свежих» публикациях 2013 года, анонсирующих, в частности, создание протезов нового типа [10]. (Также известны примеры протезов рук, построенных на базе нейрокомпьютерных интерфейсов.)

Распознавание речи – одно из самых популярных приложений идей искусственного интеллекта. Именно в данном направлении получены реальные результаты. Существующие приложения уже используются в бытовых условиях (например, запросы к мобильным устройствам, управление лифтами и пр.) Интерфейсы, основанные на распознавании движения губ можно рассматривать в качестве вспомогательных, позволяющих повысить точность систем распознавания речи [11].

Распознавание направления взгляда и мимики человека может использоваться в целях организации человеко-компьютерного взаимодействия в системах визуализации (cм. монографию [12] и работы [13,14]). На шлемах, использовавшихся в авиационных тренажерах, послуживших основой для систем виртуальной реальности, изображение подстраивалось в зависимости от направления взгляда пилота. Интерфейсы, основанные на распознавании мимики и направления взгляда, также разрабатываются для обеспечения связью людей, потерявших способность двигаться и даже говорить. В последнее время популярным стало использование интерфейсов на основе распознавания направления взгляда в играх. Часто такие интерфейсы применяются в комплексе с другими типами естественных интерфейсов [15-16].

Тактильные интерфейсы интересуют нас в связи с созданием жестовых интерфейсов и обеспечением обратной связи при работе в средах виртуальной реальности и с «большими» экранами [17-19].

При организации перемещения в виртуальном пространстве широко используются естественные интерфейсы, основанные на фиксации и распознавании движений всего тела человека или отдельных органов.

В первый период развития сред виртуальной реальности использовали специальные костюмы, фиксирующие движения ног. Сейчас активно используются специальные панели и платформы, шаги и перемещения по которым связывались с перемещениями в виртуальном пространстве [20-23]. В работе [21] реальная ходьба рассматривалась как лучший способ организации перемещений в виртуальной среде по сравнению с виртуальной ходьбой или полетом. С другой стороны, представляется, что перемещение в абстрактных виртуальных пространствах проще организовывать за счет виртуального полета. (Заметим, что перемещение в виртуальном пространстве, которое неподконтрольно пользователю, может вызвать у него неприятные ощущения, описываемые понятием киберболезнь.)

В работах [24] и [25] описываются возможности использования движений ног для создания естественных интерфейсов различного назначения, оставляющих свободными руки.

Ряд работ посвящены мультимодальным естественным интерфейсам, в которых используется сразу несколько методик человеко-компьютерного взаимодействия – жесты рук, движения ног, фиксация взгляда, тактильные интерфейсы [26-29].

Возможны различные подходы к анализу естественных интерфейсов и их структуризации. Общая таксономия жестовых интерфейсов содержится в обширном (хотя и несколько устаревшем) техническом отчете Саутгемптонского Университета [30]. В этой работе в основу классификации положены следующие принципы:



  • Область приложения;

  • Технологии, поддерживающие интерфейсы (разделяются на персептивные и неперсептивные; по нашей терминологии – на “естественные” и “девайсные”, хотя в данном случае техника типа джойстика или тач-скрина используется для реализации жестов);

  • Реакция системы (визуальная, звуковая, команды процессора, etc.);

  • Стили жестов (указательные, жестикуляция, манипуляция, семафоры, знаковые языки, etc.).

Анализируя область приложения, мы провели отбор интересующих нас работ, связанных с использованием естественных интерфейсов в системах компьютерной визуализации, в том числе, на базе сред виртуальной реальности. Задачи, возникающие при разработке средств интерфейса для сред виртуальной реальности, описаны достаточно давно. Указывается, что разработки интерфейсов должны увязываться с реализацией визуальных сцен [31]. В системах используются комплексные интерфейсы, включающие, в частности, и шлем виртуальной реальности с отслеживанием направления взгляда, и качающуюся платформу, обеспечивающую, иллюзию падения, и привычную мышь [32]. Такие комплексные (мультимодальные или многомодальные) интерфейсы для систем визуализации на базе виртуальных сред могут включать в себя одновременно ввод жестов и распознавание речи [33,34,35]. В ряде случаев в системах виртуальной или расширенной реальности может понадобиться взаимодействие с реальными объектами [36]. Интересный обзор состояния дел (на конец прошлого десятилетия) в области интерфейсов для систем визуализации на базе виртуальных сред можно найти в работе [37].

Как уже отмечалось, еще одна интересующая нас область приложения связана с созданием медицинских хирургических интерфейсов, в частности, для работы в стерильных зонах операционных. Представляется, что для подобных случаев лучше всего подходят интерфейсы на базе жестов рук. Нами собран обширный корпус публикаций за последние два десятка лет. Их краткий обзор будет сделан в следующем разделе.

Сейчас сделаем ряд замечаний по сути проблемы естественных интерфейсов.

Прежде всего, обратим внимание на противоречие, содержащееся в описании класса интерфейсов NUI. Подразумевается естественный (natural) интер­фейс с компьютером, то есть с заведомо искусственным объектом. В природе (nature) нет компьютеров, а у человека нет органов, которые можно непо­средственно без какой-либо аппаратуры (хотя бы простой видеокамеры) связать с каким-нибудь входом вычислительной системы.

В каком-то смысле можно говорить, что устройствами (devices) в случае естественных интерфейсов становятся органы тела самого оператора. Опыт показывает, что пользоваться такими “устройствами” зачастую сложнее, чем обычными манипуляторами или кнопками. То есть, “естественные” интерфейсы могут стать более сложными и неудобными для пользователя по сравнению с “девайсными”, так как требуют напряжения человека для повторения и четкой фиксации движений (или их мысленных образов в случае нейрокомпьютерных интерфейсов). Наблюдения показывают, что в этих случаях взаимодействие с компьютером оказывается неустойчивым, процент неправильного распознавания команд весьма высок. При использовании естественных интерфейсов вообще возникают проблемы, связанные с качеством и скоростью распознавания звуков, движения глаз, положений тела и т.п. Сходные проблемы могут возникать при использовании сложных жестовых языков или языков «семафорного» типа. Здесь, перед пользователем, кроме задачи фиксации движений, стоят задачи изучения дополнительного языка и четкого воспроизведения его элементов перед устройством ввода. Отметим, что использование жестов характерно в условиях общения «человек-человек». Причем для различных национальных культур характерна разная интенсивность такого обмена. Специалисту в процессе его основной деятельности надо будет вести дополнительные действия, причем возможно не слишком для него естественные, например, показывать какие-то комбинации пальцев перед камерой. Схожие аргументы по поводу «неестественности» естественных (natural) интерфейсов приведены в работе [38].

В принципе интуитивно понятным интерфейс становится в случае, если его использование опирается на предыдущий опыт пользователя. В этом отношении интуитивно понятными являются, как раз, “девайсные” интерфейсы, которые уже на самом раннем этапе опирались на опыт работы пользователей с радиоприемниками, проигрывателями и телевизорами.

Обратим внимание еще на одно различие между “девайсными” и “естественными” интерфейсами. Распознавание команды в первом случае происходит чрезвычайно просто – от устройства приходит его код и данные определенного формата. Аппаратное обеспечение естественных интерфейсов, как правило, резко сложнее кнопок, джойстиков, etc. Также естественные интерфейсы требуют серьезных усилий по распознаванию образов, основанного на различных, достаточно сложных алгоритмах. Правда, в последнее время стали доступны для широкого использования современные программно-аппаратные средства захвата движений и качественные видеокамеры или целые комплексы стереокамер.

В тоже время использование естественных интерфейсов в целом ряде случаев оказывается необходимым. Кроме интерфейсов для пользователей с ограниченными возможностями, это может быть вызвано и необходимостью освободить руки для другой работы или, как уже говорилось, требованиями соблюдения режима стерильности в операционной.


Жестовые интерфейсы медицинского назначения

К настоящему времени корпус текстов по распознаванию жестов и жестовым интерфейсам насчитывает очень большое количество текстов. Среди них немало работ, описывающих исследования и опытные разработки в области жестовых интерфейсов медицинского назначения, которые начались уже в 80-ых годах XX. В отобранных нами статьях, написанных в последние два десятилетия [39-65], нас интересуют, кроме общих постановок, такие вопросы, как формулировка задачи, математические основы алгоритмов распознавания жестов, использованных в разработанных программных системах, применяемая аппаратура и, конечно, общие результаты исследований и опытных разработок. Отбор проходил по близости к нашей постановке задачи разработки жестовых интерфейсов для использования в хирургической практике. В этом плане мы обнаружили большое сходство с исследованиями, которые проводились при участии (и, видимо, под руководством) J.P. Wachs’а, работающего сейчас в США. Проведенный обзор показал картину развития данного направления.

Мы уже говорили, что использование жестовых интерфейсов в медицине мотивируется, как правило, необходимостью поддержки режима стерильности в операционных. Кроме этого, постановка задачи может быть связана с манипуляциями в рамках сред виртуальной и расширенной реальности трехмерными объектами медицинской визуализации, полученными при исследованиях организма. Также делались попытки использовать такие интерфейсы в качестве дополнительного источника для передачи информации в ходе серьезных операций. Поэтому в качестве жестов рассматривались не только движения рук, но и движения всего тела, движения головы иногда в комбинации с анализом движения глаз. (Однако следует отметить, что многие работы содержат, скорее, постановку проблемы, а не реальные решения. В написанных в последние годы статьях также зачастую описываются только лишь макеты систем.)

Уже в работах 90-ых годов в ряде работ был поставлен вопрос о языковой составляющей жестовых интерфейсов. В качестве базы интерфейсов рассматривался некоторый аналог языка глухонемых. Такая точка зрения на язык жестов хирурга сохранилась по сей день. Представляется, что общение с компьютером во время операции посредством большого набора достаточно сложных жестов языка, подобного языку глухонемых, противоречит принципам разработки профессиональных интерфейсов. В случае профессиональных интерфейсов цель деятельности пользователя предопределена заранее. Постановка задачи в целом диктует требования к интерфейсу. “Профессионал” также не может отказаться от использования интерфейса, так как его деятельность строго регламентирована. Проектировщик интерфейса должен изучить цели и особенности данной деятельности с тем, чтобы не исказить ее и не вносить в нее дополнительные сложности. Профессиональный интерфейс не должен предполагать деятельности, противоречащей или отвлекающей пользователя от основной задачи. Это тем более важно, когда речь идет об использовании интерфейса хирургом во время операции. Да и для организации работы с медицинскими образами использование жестов не слишком естественно, хотя и не столь мешает выполнению основные для врача задач. Поэтому использование вместо полноценных знаковых языков небольшого набора пальцевых поз (комбинаций пальцев) может быть оправдано, если этот набор служит маркерами для переключения режимов распознавания движений рук.

В ранних работах (90-ых годов) по жестовым интерфейсам медицинского назначения собственно проблемам разработки алгоритмов распознавания уделялось сравнительно мало внимания. Распознавание жестов основывалось на актуальных и популярных на время написания методиках, например, на нейронных сетях. В работах более позднего времени появляются новые подходы, например, метод опорных векторов [62], или приобретшие популярность методы распознавания, основанные на эластичных графах [63,65]. В тоже время в ряде работ предприняты попытки, как представляется, преждевременной формализации жестовых интерфейсов. Не удалось найти примеров анализа связи выбора методов распознавания жестов и характера движений оператора в ходе его профессиональной деятельности.

Интересно, что для экспериментальных разработок 90-ых годов использовалась достаточно сложные специально разработанные аппаратные комплексы, в том числе, известных фирм. (Правда, иногда всё сводилось к распознаванию достаточно простых движений, например, двумерных жестов – следов мыши.) В настоящее время в подобных системах для распознавания движений в 3D чаще используются стандартные стерео и ранжированные камеры различного типа.

Важной задачей является оценка интерфейсов. В работах, описывающих разработку жестовых интерфейсов, интерес представляет поставленная проблема учета, как стресса пользователя, так и физических усилий, затраченных им при работе. В тоже время при оценке интерфейса не учитывается основная деятельность пользователя (в данном случае врача-хирурга) и усилия, необходимые для переключения с основного типа деятельности на работу с интерфейсами. В ряде работ для оценки сложности жестового языка рассматриваются усилия по переходу от жеста к жесту, но в общем случае проблемы эргономики жестовых интерфейсов разработаны слабо. В тоже время наблюдения примеров реальных компьютеризированных медицинских систем показывают, что переходы от работы с традиционной медицинской аппаратурой к человеко-компьютерным интерфейсам могут при возникновении каких-либо нештатных ситуаций вызвать стресс у врача.
Оценка профессиональных интерфейсов

Рассматриваемые нами естественные интерфейсы являются инструментом специалистов-медиков, использующих их как средство для осуществления своей профессиональной деятельности.

Проектировщик интерфейса должен изучить цели и особенности данной деятельности с тем, чтобы не исказить ее и не вносить в нее дополнительные сложности. В “профессиональные” интерфейсы по нашему мнению не следует включать сложные настройки, и вообще всего того, что может в каком-либо смысле рассматриваться как программирование, так как программирование является самостоятельной деятельностью, дополнительной к основным обязанностям профессионала-медика. В этом плане необходимы лаконичные интерфейсы с минимальными требованиями к памяти и вниманию пользователя. Отсюда вытекает необходимость запоминания и восстановления текущего состояния и контекста интерфейса. Возникает проблема оценки качества профессиональных естественных интерфейсов. По нашему мнению привычные методики оценки качества интерфейсов здесь не всегда применимы. Для инструментальных интерфейсов не подходят критерии качества и usability, используемые при оценке развлекательных сайтов и социальных сетей, такие как, время пребывания на странице, количество “кликов” по той или иной картинке, субъективные оценки небольшого числа опрошенных и т.п. [66]. Оценки usability должны проводиться после анализа деятельности будущих пользователей, после анализа адекватности проектируемых действий и операций пользователей поставленным целям. Эти оценки должны также опираться на серьезный эргономический анализ интерфейсов.

При оценке качества профессиональных интерфейсов необходимо учитывать результативность, скорость и точность выполнения действий пользователя-оператора. Необходим учёт его физических и психологических нагрузок, также как и учет стресса, возникающего в процессе деятельности. Такие оценки должны проводиться во время работы пользователя за счет объективных измерений. (Хотя в качестве дополнения нужны опросы и интервью пользователей-профессионалов.)

Еще раз обратим внимание на то, что в обычных условиях жесты служат для подкрепления речи, придания ей дополнительной эмоциональной окраски или в случае, когда речью по каким-либо причинам нельзя воспользоваться. Жестовые языки при передаче сигналов требуют специального обучения. Языки, используемые для управления (например, при работе на подъемных кранах и т.п.), содержат ограниченный набор жестов. Можно провести оценку количества смыслов, передаваемых за счет языка статических жестов. Необходимо учитывать возможность различения таких жестов, причем не только (и не столько) при помощи компьютерных методов распознавания изображений, а самими операторами медицинского оборудования (то есть в нашем случае врачами-хирургами.) По нашему мнению, выразительная способность таких языков невелика.

Использование динамических языков жестов, типа языка глухонемых влечет целый набор дополнительных проблем, связанных как с надежным распознаванием, так и с обучением врачей.

Естественность профессиональных интерфейсов должна увязываться с опытом деятельности специалиста, для которого идет разработка интерактивной среды. В настоящее время привычным инструментом хирурга становится не только скальпель, но и разнообразные устройства (включая пульты), служащие для управления достаточно сложной аппаратурой проведения операций, а также специализированные человеко-компьютерные интерфейсы. Поэтому профессиональный интерфейс в нашем случае – это и традиционные (хотя и специализированные) человеко-компьютерные интерфейсы, и интерфейсы управления аппаратурой, настройки приборов и установки их состояний. Именно жесты, служащие для управления аппаратурой и приборами необходимо реализовать в ходе разработки. В этом случае нет необходимости в обучении медиков дополнительным манипуляциям руками и пальцами, не происходит “переключение контекста” в разгар сложной и ответственной работы.
Проектирование жестовых языков

Интересной задачей является задача построения набора распознаваемых движений в жестовых языках. Как правило, в этом плане под жестовыми языками (имеются в виду жесты рук) понимают один из вариантов:



  1. набор траекторий (двумерных или трёхмерных) точки интереса, соответствующей положению руки оператора в пространстве;

  2. набор статических кистевых поз руки оператора.

Можно рассмотреть подход, являющийся обобщением этих вариантов и позволяющий объединить и использовать преимущества обоих вариантов. Достигается это за счёт использования системы модификаторов, функций-триггеров, принимающих одно из двух значений в зависимости от состояния системы. В таком подходе анализируются траектория точки интереса с учетом значений модификаторов.

Модификаторы могут иметь различную природу: они могут быть “девайсными”, основанными на пространственных критериях (например, манипулятивные области и виртуальные кнопки), или опираться на дополнительные построения и конструкции (например, распознавание кистевых поз, или использование уже имеющихся синтаксических конструкций жестового языка).

Использование системы модификаторов позволяет выразительные способности создаваемого языка человеко-компьютерного взаимодействия. В частности, при помощи модификаторов становятся легко реализуемы:



  • метафора виртуальных инструментов;

  • бесконтактные интерфейсы для работы с “классическими” устройствами ввода, такими как бесконтактная тач-поверхность (touchless skreen) и виртуальная клавиатура;

  • метафора взаимодействия с виртуальными объектами “drag`n`drop”;

  • метафоры взаимодействия и навигации в виртуальном пространстве типа “джойстик”.

Разработка подхода к созданию жестовых языков, основанного на системе модификаторов позволяет практически бесконечно увеличивать выразительную способность языка, изменяя интерпретацию траектории точки интереса в зависимости от значения модификатора. Также система модификаторов позволяет легко строить новые словари для жестового языка, в том числе конструируя новые элементы из базовых и уже имеющихся. Это даёт возможность для построения индивидуальных словарей для различных пользователей одного языка.
Жестовый язык управления медицинским оборудованием

В рамках наших исследований и опытных разработок рассматривались различные идеи по созданию языка управления медицинским оборудованием. В принципе нет ничего сложного в распознавании небольшого набора жестов, даже при использовании простых устройств типа видеокамеры. Сложности начинаются при расширении круга управляемых устройств, для которых может понадобиться свой набор жестов, так или иначе имитирующих реальные движения современного хирурга при проведении определенных операций и процедур.

Идея, положенная в основу нашей экспериментальной разработки, заключается в том, что пользователь использует “виртуальные пульты управления”. На некоторую поверхность проецируется изображение пульта управления, с которым можно взаимодействовать при помощи жестов, подобных движениям по управлению реальными “девайсными” интерфейсами, например, установка значений шкал, ввод чисел или команд при помощи клавиатуры и пр. Удаленное управление аппаратурой (в том числе и аппаратурой, использующей рентгеновское излучение), приборами и компьютерами решает и проблему стерильности, и проблему радиационной безопасности.

Для обеспечения надежности ввода в набор жестов входят специальные маркеры начала и конца ввода. Ввод каждой команды сопровождается подтверждением системы, что обеспечивает обратную связь.

Таким образом, после выполнения жеста окончания команды пользователь может не опасаться, что его непроизвольные движения будут как-то проинтерпретированы системой и приведут к нежелательным последствиям. Все это должно уменьшить нагрузку хирурга во время проведения операций или сложных процедур и исследований.

Привычность набора команд не отменяет сложности и непривычности использования жестов во время операций. Чтобы облегчить работу пользователя, необходимо тщательно проектировать интерфейс системы, в основу которого положены принципы и естественного (жестового), и “девайсного” интерфейса. В свою очередь, задача распознавания жестов различного типа обуславливает выбор методов и алгоритмов распознавания.


Программно-аппаратный комплекс распознавания жестов

Наша задача состоит в разработке программно-аппаратного комплекса, позволяющий построить человеко-компьютерный интерфейс на базе жестов рук, который бы позволял реализовать:



  • бесконтактный ввод информации, в том числе и взаимодействие с органами управления медицинским оборудованием в режиме стерильности;

  • управление оборудованием, в задачах, где третья координата является существенной;

  • навигацию в абстрактном пространстве;

  • естественное взаимодействие с виртуальными объектами.

Для решения были использованы методы обнаружения подвижных объектов в видеопотоке и слежения за ними, используемые, в частности, {в области технического зрения}. Для повышения надёжности и качества распознавания вместо обычного видеопотока, был использован поток, состоящих из кадров, содержащих информацию о глубине видимой сцены.

Такой подход имеет ряд преимуществ. Подходы, основанные на оптическом захвате движения позволяют обойтись без активных маркеров на теле оператора или у него в руках. Это особенно важно для использования в режиме стерильности. Карта глубин сцены вместо цветовой карты сцены позволяет отслеживать траекторию руки в трёхмерном пространстве. Отказ от использования информации о цвете позволяет обойти такие проблемы, как динамическое освещение, затенение, “быстрые” и “медленные” изменения освещения во время съемок. Также достаточно легко разработать датчик глубины, устойчивый к видимым засветкам, например на основе низко энергетических лазеров или инфракрасной подсветке в невидимом диапазоне. Результатом исследований стал проект “Virtual Hand”, включающий в себя программный комплекс, предназначенный для работы с датчиками глубин, а также методы захвата и слежения за точкой интереса, основанные на обработке карт глубин, реализованные в виде модулей для программного комплекса.


Краткое функциональное описание проекта “Virtual Hand

Захват движения основывается на методах, используемых в теории обработки изображений и относятся к области технического зрения. Предложены два метода захвата движения, использующие противоположные подходы.

Первый, названный “Инициируемым подходом”, опирается на идею о слежении за объектом, как за точкой интереса. В этом случае необходимости в использовании контекстной информации о строении объекта интереса нет. Это даёт нам возможность проводить слежение за любыми подвижными объектами, независимо от их конфигурации. Чтобы не следить за заведомо ненужными, “случайными” объектами, был разработан алгоритм инициализации точки интереса (а соответственно, и объекта интереса) с помощью специальных инициализирующих жестов, которые легко выполнить, но сложно сделать это случайно. Другой особенностью данного подхода являются низкие требования к вычислительным мощностям: алгоритм имеет оценки сложности порядка O(n) по количеству операций для обработки одного кадра и O(n) по количеству необходимой памяти, где n - число точек в кадре, получаемом из облака точек. Что позволяет его реализоваться для встроенных вычислителей.

Второй метод, названный “Скелетным подходом”, наоборот, опирается на идею использования контекстной информации о строении тела человека для восстановления полной позы в пространстве. В этом случае можно проводить слежение не только за руками пользователя, как за точками интереса, но и за другими конечностями, торсом и, даже, головой. Так же такой подход позволяет различать точки интереса в случае, когда они расходятся после соприкосновения. Алгоритмы метода основаны на представлении силуэта множества точек, соответствующих пользователю, в скелетно-циркулярном виде и подгонки гибкого эталонного объекта для максимального соответствия с текущим силуэтом. В отличие от существующих подходов, предложенный метод позволяет проводить инициализацию пользователя по единственной позе и учитывает и естественным образом обрабатывает случаи частичного самоперекрытия видимого силуэта.

Проект “Virtual Hand” предоставляет возможность для работы с облаком точек, соответствующих объектам видимой сцены. Такое облако точек можно получить различными образами, используя различные программно-аппаратные решения. Изначально проект был ориентирован на использование с массивом (стерео-) камер. Однако восстановление карты глубины со стереокамер требует высококачественного оборудования, больших вычислительных мощностей и соблюдения строгих условий съемки. С другой стороны, использование лазерных технологий и инфракрасных камер позволяло обойти проблемы динамического освещения.

Удешевление технологий и появление на рынке бытовых датчиков глубины (RGB-D камер) позволило обобщить результат, полученный ранее для отдельных видов датчиков, и работать непосредственно с облаком точек, соответствующих карте глубин сцены, независимо от метода, которым оно было получено. Была реализована поддержка внутреннего формата на основе PCD, что позволило выделить задачу построения облака точек соответствующих сцене как отдельную и вынести в отдельный программный модуль. Такой подход позволил расширить список поддерживаемых устройств, обеспечив, в том числе, возможность подключения недорогих игровых контроллеров на основе PSDK, а так же, потенциальную возможность подключения пока несуществующих устройств.

Поддержка большого числа различных устройств даёт возможность гибко подстраивать под условия конкретной задачи, а так же своевременно проводить диагностику и замену оборудования без необходимости изменения самой программы. Особенно это актуально в условиях, когда нет возможности заменить датчики аналогами, например, по причине их уникальности и устаревания.

Подобный подход был применён и к другим функциональным частям программного комплекса. Полученная в результате модульная архитектура проекта позволяет заменять части комплекса их аналогами, наиболее подходящими для решения конкретной задачи. Например, можно заменить модуль обработки карты глубины, выбрав вместо инициируемого или скелетного модуля какой-нибудь другой. Также можно поступить и с другими модулями. Это повышает гибкость и универсальность всего комплекса.

Постановка задачи жестового управления медицинским оборудованием была сделана нами в работе [67]. Алгоритмическая составляющая проекта описана в работах [68-69], а первые результаты проекта в работе [70].
Заключение

Кроме систем, предназначенных для управления сложной медицинской аппаратурой, возможным применением жестовых интерфейсов являются системы компьютерной визуализации на базе сред виртуальной и расширенной реальности [71]. Там жестовые интерфейсы могут использоваться как для манипуляций виртуальными объектами, так и для обеспечения навигации и перемещения в виртуальном пространстве. Это особенно важно в случае визуализации супервычислений, когда приходится иметь дело с большими объемами сложноорганизованных данных. Примером такой визуализации является визуализация сеток очень большого объема, служащих для приближенного решения сложных задач математической физики. (Обеспечение работы с виртуальными устройствами ввода рассмотрены в работе [72], в которой описаны реализация взаимодействия с виртуальными пультами управления сложными процессами в тренажерах. В этом случае необходимо обеспечить иллюзию использования реальной кнопки или реально рычажка, что в значительной мере усложняет задачи разработчиков.)

Наши исследования и разработки будут продолжены. Рассматривается расширение области применения. Новым приложением “жестово-девайсных” интерфейсов являются задачи управления роботизированными системами. Просматриваются перспективы использования этих технологий при разработке систем программирования роботов на базе принципов программирования путем демонстраций или программирования по примерам. В этом случае человек задает примеры правильных операций, а система их обобщает и строит на этой базе новую программу, выполняющую аналогичные функции.

Литература


1. Mine M.R., Frederick P. Brooks F. P. Jr., Sequin C.H. Moving Objects in Space: Exploiting Proprioception in Virtual-Environment Interaction // Proceedings of the 24th annual conference on Computer graphics and interactive techniques. 1997. Pp. 19-26.

2. Bowman D.A Interaction Techniques for Immersive Virtual Environments: Design, Evaluation, and Application // Journal of Visual Languages and Computing. 1998, vol. 10. Pp. 37-53.

3. Zachmann G. Natural Interaction in Virtual Environments // Workshop uber Trends und Hohepunkte der Graphischen Datenverarbeitung, Nov. 2001.

4. Сайт лаборатории нейрофизиологии и нейро-компьютерных интерфейсов МГУ URL: http://brain.bio.msu.ru/bci_r.htm (дата обращения: 7.10.14).

5. Daly, I., Nasuto, S.J., Warwick, K. Towards natural human computer interaction in BCI // AISB 2008 Convention Communication, Interaction and Social Intellection. Vol. 5. 2008. Pp. 26-31.

6. Фролов А.А., Рощин В.Ю. Интерфейс мозг-компьютер. реальность и перспективы // Научная конференция по нейроинформатике МИФИ 2008г., Лекции по нейроинформатике 2008г., URL: http://neurolectures.narod.ru/2008/Frolov-2008.pdf (дата обращения: 7.10.14).

7. Kaplan A.Y., Shishkin S.L., Ganin I.P.,.Basyul I.A,.Zhigalov A.Y. Adapting the P300-based brain-computer interface for gaming: a review // IEEE Transactions on Computational Intelligence and AI in Games (Special Issue on Brain/Neuronal-Computer Games Interfaces and Interaction). 2013. 5(2). Pp. 141-149.

8. Lecuyer A., Lotte F., Richard B. Reilly, Leeb R., Hirose M., Slater M. Brain-Computer Interfaces, Virtual Reality, and Videogames // Computer. Vol. 41, Issue 10. Oct. 2008. Pp. 66-72.

9. Pfurtscheller G., Leeb R., Faller J., Neuper Ch. Brain-Computer Interface Systems used for Virtual Reality Control // Virtual Reality, Prof. Jae-Jin Kim (Ed.) / InTech, 2011., URL: http://www.intechopen.com/books/virtual-reality/brain-computer-interface-systems-used-for-virtual-reality-control (дата обращения: 7.10.14).

10. Dorrier J. DARPA'S Brain-Controlled Prosthetic Arm and a Bionic Hand That Can Touch // URL: http://singularityhub.com/2013/07/24/darpas-brain-controlled-prosthetic-arm-and-a-bionic-hand-that-can-touch (дата обращения: 24.07.13).

11. Soldatov S. Lip Reading: Preparing Feature Vectors // Труды конференции ГРАФИКОН 2003. C. 254-256.

12. Nakano Y.I., Conati C., Bader Th. Eye Gaze in Intelligent User Interfaces Gaze-based Analyses, Models and Applications // Springer, 2013.

13. Jacob R. J.K. Eye Movement-Based Human-Computer Interaction Techniques: Toward Non-Command Interfaces // Advances in Human-Computer Interaction. Vol. 4. 1993. Pp. 151-190.

14. Steichen B., Schmid O., Conati C., Carenini G. Seeing how you're looking - Using Real-Time Eye Gaze Data for User-Adaptive Visualization // UMAP 2013 Extended Proceedings. Late-Breaking Results, Project Papers and Workshop Proceedings of the 21st Conference on User Modeling, Adaptation, and Personalization. Rome, Italy. June 2013.

15. Turk M. Multimodal Human Computer Interaction // Real-Time Vision for Human-Computer Interaction./ Ed by B. Kisacanin, V. Pavlovic, T. Huang, Springer, 2005. Pp 269-283.

16 Jin J., Daly I., Zhang Y., Wang X., Cichocki A. An optimized ERP brain-computer interface based on facial expression changes // Journal of Neural Engineering, Vol. 11(3). 2014. Pp. 36004.

17. Westerman W., Elias J.G. Multi-Touch: A New Tactile 2-D Gesture Interface for Human Computer Interaction // Proceedings of the Human Factors and Ergonomics Society 45th Annual Meeting- 2001. 2001. Pp. 632-636.

18. Boian R.F., Deutsch J.E., Lee Chan Su, Burdea G. C., Lewis J. Haptic Effects for Virtual Reality-based Post-Stroke Rehabilitation // Proceedings 11th Symposium on Haptic Interfaces for Virtual Environment and Teleoperator Systems. 2003. Pp. 247-253.

19. Foehrenbach S., Konig W.A., Gerken J., Reiterer H. Natural Interaction with Hand Gestures and Tactile Feedback for large, high-res Displays // Journal on Multimodal User Interfaces. Vol. 3(3) 2010. Pp. 197-213.

20. Choi I., Ricci C. Foot-Mounted Gesture Detection and its Application in Virtual Environments // IEEE International Conference on Systems, Man, and Cybernetics. Computational Cybernetics and Simulation. Vol. 5. 1997. Pp. 4248–4253.

21. Usoh, M., Arthur, K., Whitton M.C., Bastos R., Steed A., Slater M., Brooks F.P. Jr. Walking > Virtual Walking> Flying, in Virtual Environments // Proceedings of SIGGRAPH 99, 1999. Pp. 359-364.

22. Iwata H. Walking About Virtual Environments on an Infinite Floor // Proceedings of IEEE Conference on Virtual Reality. 1999. Pp. 286–293.

23. Barrera S., Romanos P., Saito S., Takahashi H., Nakajima M. WARAJI: Foot-Driven Navigation Interfaces for Virtual Reality Applications // Advances in Multimedia Information. Processing of PCM 2004. Lecture Notes in Computer Science. Vol. 3333. 2005. Pp. 1-6.

24. Pakkanen T., Raisamo R. Appropriateness of Foot Interaction for Non-Accurate Spatial Tasks // Proceedings of CHI 2004, Vienna, Austria. April 2004. Pp.1123-1126.

25. Meyers B., Bernheim Brush A.J., Drucker S., Smith M.A., Czerwinski M. Dance Your Work Away: Exploring Step User Interfaces // Proceeding of CHI EA '06 CHI '06. Extended Abstracts on Human Factors in Computing Systems. 2006. Pp. 387-392.

26. Daiber F., Schoning J., Kruger A. Whole Body Interaction with Geospatial Data // Smart Graphics. Lecture Notes in Computer Science. Vol. 5531, 2009. Pp. 81-92.

27. Schoning J., Daiber F., Kruger A., Rohs M. Using Hands and Feet to Navigate and Manipulate Spatial Data // CHI '09 Extended Abstracts on Human Factors in Computing Systems. 2009. Pp. 4663-4668.

28. Valkov D., Steinicke F., Bruder G., Hinrichs K. H. Traveling in 3D virtual Environments with Foot Gestures and a Multi-Touch enabled WIM // Ed. by RICHIR Simon, SHIRAI Akihiko / Proceedings of Virtual Reality International Conference (VRIC 2010),Laval, France. April 2010. Pp.171-180.

29. Gobel F., Vogt S., Klamka K., Stellmach S., Siegel A., Dachselt R. Gaze-supported Foot Interaction in Zoomable Information Spaces // Proceeding of CHI EA '13 CHI '13. Extended Abstracts on Human Factors in Computing Systems. 2013. Pp. 3059-3062.

30. Karam M., Schraefel M.C. A taxonomy of Gestures in Human Computer Interaction // Technical Report ECSTR-IAM05-009, Electronics and Computer science, University of Southampton, 2005.

31. Bowman D.A. Interaction Techniques for Immersive Virtual Environments: Design, Evaluation, and Application // Journal of Visual Languages and Computing, Vol. 10. 1998. Pp. 37-53.

32. Allison D., Wills B., Bowman D., Wineman J., Hodges, L. The Virtual Reality Gorilla Exhibit // IEEE Computer Graphics & Applications, Vol. 17(6), 1997. Pp. 30-38.

33. Pavlovic V.I., Sharma R., Huang Thomas S. Gestural interface to a visual computing environment for molecular biologists // Proceedings of the Second International Conference on Automatic Face and Gesture Recognition. 1996. Pp 30-35.

34. Parker J.R., Baumback M. User interface augmentation: vision and sound // Proceedings of International ITCC Conference on Information Technology: Coding and Computing, Vol. 1. 2004. Pp. 692-697.

35. Ронжин А.Л., Карпов А.А. Многомодальные интерфейсы: основные принципы и когнитивные аспекты // Труды СПИИРАН. Т. 1(3). 2006. Стр. 300-318.

36. Counsell J. Interacting with real objects in virtual space // Proceedings of Eighth International Conference on Information Visualisation, (IV04). 2004. Pp. 821-826.

37. LaViola Jr. J.J., Prabhat, Forsberg A.S., Laidlaw D.H., van Dam A. Virtual Reality-Based Interactive Scientific Visualization Environments //Trends in Interactive Visualization. Advanced Information and Knowledge Processing. Chapter 10. Springer. 2009. Pp 225-250.

38. Norman, D.A. Natural User Interfaces Are Not Natural // Interactions. Vol 17(3). 2010. Pp. 6–10.

38. Krapichler Ch., Haubner M., Lösch A., Lang M.K., Englmeier K.-H. Human-machine interface for a VR-based medical imaging environment // Proc. SPIE Medical Imaging 1997: Image Display Vol. 3031. 1997. Pp. 527-534.

39. Pavlovic V., Sharma R., Huang Th. Visual Interpretation of Hand Gestures for Human-Computer Interaction: A Review // IEEE Transactions on Pattern Analysis and Machine Intelligence Volume 19 Issue 7. July 1997. Pp. 677-695.

40. Ying Wu, Huang T.S. View-independent recognition of hand postures // Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,Vol. 2. 2000. Pp. 88-94.

41. Sato Y., Saito M., Koike H. Real-Time Input of 3D Pose and Gestures of a User’s Hand and Its Applications for HCI // Proceedings of IEEE Conference on Virtual Reality. 2001. Pp 79-86.

42. Wachs J.P., Stern H.I., Edan Y. Parameter search for an image processing fuzzy C-means hand gesture recognition system // Proceedings of IEEE Intl Conference on Image Processing ICIP, 2003, Spain. Vol. 3. Pp. 341-344.

43. Stern H.I., Wachs J.P., Edan Y. Hand Gesture Vocabulary Design: A Multicriteria Optimization // IEEE International Conference on Systems, Man and Cybernetics. Vol. 1. 2004. Pp. 19-23.

44. Wachs J.P., Stern H.I., Gillam M., Feied C., Smith M., Handler J. A Real-Time Hand Gesture Interface for Medical Visualization Applications // Applications of Soft Computing: Recent Trends. Springer Verlag, Germany, Series: Advances in Soft Computing. Vol. 36, 2006. Pp. 153-163.

45. Stern H.I., Wachs J P., Edan Y. Human Factors for Design of Hand Gesture Human -Machine Interaction // IEEE International Conference on Systems, Man and Cybernetics, SMC '06. Vol. 5. 2006. Pp. 4052-4056.

46. Wachs J., Stern H., Edan Y., Gillam M., Feied C., Smith M. Handler J. Gestix: A Doctor-Computer Sterile Gesture Interface for Dynamic Environments // Soft Computing in Industrial Applications. Recent and Emerging Methods and Techniques Series: Advances in Soft Computing, Vol. 39. 2007. Pp. 30-39.

47 Karray F., Alemzadeh M., Saleh J.A., Arab M.N. Human-Computer Interaction: Overview on State of the Art // International Journal on Smart Sensing and Intelligent Systems. Vol. 1(1). March 2008. Pp. 137-159.

48. Soutschek S., Penne J., Hornegger J., Kornhuber J. 3-D Gesture-Based Scene Navigation in Medical Imaging Applications Using Time-Of-Flight Cameras // Proceedings of Workshops Computer Vision and Pattern Recognition,CVPRW '08. 2008. Pp. 1-6.

49. Stern H.I., Wachs J.P., Edan Y. Designing hand gesture vocabularies for natural interaction by combining psycho-physiological and recognition factors // International Journal of Semantic Computing. Vol. 02(1). March 2008. Pp. 137-160.

50. Wachs J.P., Stern H.I., Edan Y. A Holistic Framework for Hand Gestures Design // Proceedings of 2nd Annual Visual and Iconic Language Conference. July 2008. Pp. 24-34.

51. Wachs J.P., Stern H.I., Edan Y., Gillam M., Handler J., Feied C., Smith M. A Gesture-based Tool for Sterile Browsing of Radiology Images // J Am Med Inform Assoc. Vol 15(3). 2008. Pp. 321-323.

52 Garg P., Aggarwal N., Sofat S. Vision Based Hand Gesture Recognition // Proceedings of World Academy of Science: Engineering & Technolog. Vol. 49. Feb. 2009. Pp. 972-977.

53. Tin Hninn Hninn Maung Real-Time Hand Tracking and Gesture Recognition System Using Neural Networks // Proceedings of World Academy of Science: Engineering & Technolog. Vol. 50. Feb. 2009, Pp. 466-470.

54. Wachs J., Goshorn D., Kölsch M. Recognizing Human Postures and Poses in Monocular Still Images // Proceeding of the International Conference on Image Processing, Computer Vision, and Signal Processing. July 2009. Pp. 665-671.

55. van Beurden M., IJsselsteijn W. Range and variability in gesture-based interactions with medical images: Do non-stereo versus stereo visualizations elicit different types of gestures? // IEEE virtual reality 2010. Workshop on medical virtual environments. March 2010.

56. Wachs J.P. Gaze, Posture and Gesture Recognition to Minimize Focus Shifts for Intelligent Operating Rooms in a Collaborative Support System // International Journal of Computers Communications & Control, Vol 5(1). 2010. Pp. 106-124.

57. Collumeau J.-F., Leconge R., Emile B., Laurent H. Hand-gesture recognition: comparative study of global, semi-local and local approaches // 7th International Symposium on Image and Signal Processing and Analysis, 2011. Pp. 247-252.

58. Wachs J.P., Kolsch M., Stern H.I., Edan Y. Vision-Based Hand-Gesture Applications // Communications of the ACM, Cover Article. Vol 54(2). February 2011. Pp. 60-71.

59. Khan R.Z., Ibraheem N.A. Comparative Study of Hand Gesture Recognition System // Computer Science & Information Technology. 2012. Pp. 203-213.

60. Kim Jun-Ho, Lim Ji-Hyoun, Moon Sung-Hyun The Effect of Visual Feedback on One-hand Gesture Performance in Vision-based Gesture Recognition System // Journal of the Ergonomics Society of Korea. Vol. 31(4). 2012. Pp. 551-556.

61. Kristensson P.O., Nicholson Th. F.W., Quigley A. Continuous Recognition of One-Handed and Two-Handed Gestures using 3D Full-Body Motion Tracking Sensors // Proceedings of the ACM international conference on Intelligent User Interfaces. 2012. Pp. 89-92.

62. Patil A.R., Subbaraman S.S. A Review On Vision Based Hand Gesture Recognition Approach Using Support Vector Machines // IOSR Journal of Electronics and Communication Engineering. Vol. 2. 2013. Pp. 07-12.

63. Li Yu-Ting, Wachs J.P. Recognizing hand gestures using the weighted elastic graph matching (WEGM) method // Image and Vision Computing. 2013. Pp. 649-657.

64. Jacob M., Wachs J.P. Context-based Hand Gesture Recognition for the Operating Room // Pattern Recognition Letters. Vol. 36. 2014. Pp. 196-203.

65. Li Yu-Ting, Wachs J.P. HEGM: A hierarchical elastic graph matching for hand gesture recognition // Pattern Recognition. 2014. Pp. 80-88.

66. Авербух В.Л., Авербух Н.В., Наймушина А.В., Семенищев Д.В., Тоболин Д.Ю. Деятельностный подход при проектировании человеко-компьютерного взаимодействия: На примере медицинских интерфейсов. // Издательская группа URSS. 2014.

67. Averbukh V., Starodubtsev I., Tobolin D. The Gesture Interface for Control of Angiographic Systems // Современные компьютерные и информационные технологии: сборник трудов международной научной Российско-Корейской конференции, Екатеринбург, УрФУ. 2012. c. 97 – 107.

68. Стародубцев И.С. Инициализируемый захват движения и слежение на основе карт глубин для жестового интерфейса // Научно-технический вестник Поволжья. Направления: физико-математические науки химические науки технические науки. №3. 2013. с. 264-268.

69. Стародубцев И.С. Захват движения на основе иерархического гибкого скелета // Научно-технический вестник Поволжья. Направления: физико-математические науки, химические науки, технические науки. №1. 2014. Стр. 159-162.

70. Starodubtsev I., Averbukh V., Averbukh N., Tobolin D. Professional Natural Interfaces for Medicine Applications // Communications in Computer and Information Science. Vol. 435, 2014, Pp. 435-439.

71. Зырянов А.В. Стародубцев И.С., Интерфейсы на основе жестов для систем научной визуализации // SCVRT’2011 Труды международных научных конференций «Ситуационные центры и информационно-аналитические системы класса 4i (SC-IAS4i-2011) и «Системы виртуального окружения для комплексной безопасности и антитеррористической защищенности зданий и сооружений» (VRTerro2011). Москва-Протвино. Институт физико-технической информатики. 2011. Стр. 138-139.

72. Хураськин И.А. Взаимодействие с виртуальными пультами управления сложными процессами // Информационные технологии и вычислительные системы. №2. 2007. C. 31–41.

Сведения об авторе:

1. Авербух Владимир Лазаревич.

2. Кандидат технических наук, доцент.

3. Институт математики и механики им. Красовского Уральского отделения РАН.

4. [email protected]

5. 620088 Екатеринбург 88, а/я 59.

6. +7 (343) 362-81-45, +79122279428

7. Рубрика Технические науки (Математика?)

8. Количество журналов: 3 (три).

1. Авербух Наталья Владимировна.

2.

3. СУНЦ Уральского федерального университета



4. [email protected]

5.


6.

7. Рубрика Технические науки (Математика?)

8..

Сведения об авторе:



1. Стародубцев Илья Сергеевич.

2. .


3. Институт математики и механики им. Красовского Уральского отделения РАН.

4. [email protected]

5.

6.


7. Рубрика Технические науки (Математика?)

8.


Сведения об авторе:

1. Тоболин Дмитрий Юрьевич.

2. Кандидат технических наук, доцент.

3. ООО Ангиосистемы.

4. [email protected]

5.


6. Контактный телефон. +7(343)2318005

7. Рубрика Технические науки (Математика?)



8.


База данных защищена авторским правом ©infoeto.ru 2022
обратиться к администрации
Как написать курсовую работу | Как написать хороший реферат
    Главная страница