Жестовое управление полетом малого беспилотного летательного аппарата

Обложка

Цитировать

Полный текст

Аннотация

Рассмотрена задача построения жестовых команд для управления малым беспилотным летательным аппаратом, таким как квадрокоптер. Получаемые видеокамерой команды идентифицируются классификатором на основе сверточной нейронной сети, а мультимодальный интерфейс управления, оснащенный интеллектуальным решателем, преобразует их в команды управления квадрокоптером. Нейронные сети из библиотеки моделей нейронных сетей Ultralytics позволяют выделять целевые объекты в кадре в режиме реального времени. Команды управления квадрокоптером поступают в специализированную программу на смартфоне, разработанную на базе симулятора полетов DJI SDK, которая посылает команды по радиоканалу дистанционного управления.Исследовано качество распознавания разработанных жестовых команд для квадрокоптеров DJI Phantom 3 standard edition. Представлено краткое руководство в виде сценариев работы оператора с беспилотными транспортными средствами. Раскрыты перспективы жестового управления несколькими транспортными средствами в экстремальных условиях с учётом сложностей безопасности совместного полета и взаимодействия летательных аппаратов в ограниченном пространстве.

Об авторах

Николай Сергеевич Абрамов

Институт программных систем им. А. К. Айламазяна РАН

Email: n-say@nsa.pereslavl.ru
к.т.н., ведущий научный сотрудник ИЦМС ИПС им. А.К. Айламазяна РАН. Область научных интересов: математические методы синтеза, обработки и анализа изображений и сигналов, искусственный интеллект и принятие решений, интеллектуальный анализ данных и распознавание образов, геометрия.

Вита Викторовна Саттарова

Российский университет дружбы народов

Email: 1032201655@pfur.ru
Студент Российского университета дружбы народов им. Патриса Лумумбы. Область научных интересов: интеллектуальный анализ данных и распознавание образов, искусственный интеллект и принятие решений, управление робототехническими системами.

Виталий Петрович Фраленко

Институт программных систем им. А. К. Айламазяна РАН

Email: alarmod@pereslavl.ru
Кандидат технических наук, ведущий научный сотрудник ИЦМС ИПС им. А.К. Айламазяна РАН. Область научных интересов: интеллектуальный анализ данных и распознавание образов, искусственный интеллект и принятие решений, параллельно-конвейерные вычисления, сетевая безопасность, диагностика сложных технических систем, графические интерфейсы.

Михаил Вячеславович Хачумов

Институт программных систем им. А. К. Айламазяна РАН; МИРЭА - Российский технологический университет; Российский государственный гуманитарный университет; Федеральный исследовательский центр «Информатика и управление» РАН

Email: khmike@inbox.ru
Кандидат физико-математических наук, старший научный сотрудник ИЦМС ИПС им. А.К. Айламазяна РАН, старший научный сотрудник ФИЦ «Информатика и управление» РАН, доцент РУДН им. Патриса Лумумбы, доцент МИРЭА. Область научных интересов: интеллектуальный анализ данных и распознавание образов, искусственный интеллект и принятие решений, управление робототехническими системами.

Список литературы

  1. Абрамов Н. С., Талалаев А. А., Фраленко В. П., Хачумов М. В.. «Система мультимодального управления и визуализации полета беспилотного летательного аппарата», Авиакосмическое приборостроение, 2023, №9, с. 3–11.
  2. Алфимцев А. Н.. Разработка и исследование методов захвата, отслеживания и распознавания динамических жестов, М., 2008, 167 с.
  3. Нагапетян В. Э.. Методы распознавания жестов руки на основе анализа дальностных изображений, М., 2008, 117 с.
  4. Oikonomidis I., Kyriazis N., Argyros A. A.. “Efficient model-based 3D tracking of hand articulations using Kinect”, Proceedings of the 22nd British Machine Vision Conference 2011, BMVC'11 (Dundee, UK, August 29–September 2, 2011), 2011, ISBN 1-901725-43-X, 11 pp.
  5. Shaowei C., Tanaka J.. “Interacting with a self-portrait camera using motion-based hand gestures”, Proceedings of the 11th Asia-Pacific Conference on Computer-Human Interaction 2013, APCHI'13 (Bangalore, India, September 24–27, 2013), ACM, New York, 2013, ISBN 978-1-4503-2253-9, pp. 93–101.
  6. Maraqa M. R., Al-Zboun F., Dhyabat M., Zitar R. A.. “Recognition of Arabic Sign Language (ArSL) using recurrent neural networks”, Journal of Intelligent Learning Systems and Applications, 4:1 (2012), pp. 41–52.
  7. Pugeault N., Bowden R.. “Spelling it out: real-time ASL fingerspelling recognition”, Proceedings of the IEEE International Conference on Computer Vision Workshops 2011, ICCV'11 (Barcelona, Spain, 06–13 November 2011), 2011, pp. 1114–1119.
  8. Zhao R., Wang K., Divekar R., Rouhani R., Su H., Ji Q.. “An immersive system with multi-modal human-computer interaction”, Proceedings of the 13th IEEE International Conference on Automatic Face & Gesture Recognition 2018 (Xi'an, China, 15–19 May 2018), 2018, pp. 517–524.
  9. Sanna A., Lamberti F., Paravati G., Manuri F.. “A kinect-based natural interface for quadrotor control”, Entertainment Computing, 4:3 (2013), pp. 179–186.
  10. Нагапетян В. Э., Хачумов В. М.. «Распознавание жестов руки в задаче бесконтактного управления беспилотным летательным аппаратом», Автометрия, 51:2 (2015), с. 103–109.
  11. Абрамов Н. С., Емельянова Ю. Г., Талалаев А. А., Фраленко В. П., Хачумов М. В.. «Архитектура мультимодального интерфейса для управления беспилотным летательным аппаратом», Известия высших учебных заведений. Авиационная техника, 2022, №3, с. 55–63.
  12. Hu M. K.. “Visual pattern recognition by moment invariants”, IRE Transactions on Information Theory, 8:2 (1962), pp. 179–187.
  13. Hochreiter S., Schmidhuber J.. “Long short-term memory”, Neural Computation, 9:8 (1997), pp. 1735–1780.
  14. Жуковская В. А., Пятаева А. В.. «Рекуррентная нейронная сеть для распознавания жестов русского языка с учетом языкового диалекта Сибирского региона», ГрафиКон 2022: материалы 32-й Международной конференции по компьютерной графике и машинному зрению (Рязань, 19–22 сентября 2022 г.), 2022, с. 538–547.
  15. Булыгин Д. А., Мамонова Т. Е.. «Распознавание жестов рук в режиме реального времени», Научный вестник НГТУ, 2020, №1(78), с. 25–40.
  16. Zhao Y., Lv W., Xu S., Wei J., Wang G., Dang Q., Liu Y., Chen J.,. DETRs beat YOLOs on real-time object detection, 2023, 14 pp.

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML


Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).