Gesture control of small unmanned aerial vehicle flight

Cover Page

Cite item

Full Text

Abstract

The problem of constructing gesture commands for controlling a small unmanned aerial vehicle, such as a quadcopter, is considered. Commands coming from a video camera are identified by a classifier based on a convolutional neural network, and the multimodal control interface equipped with an intelligent solver converts them into control commands for the quadcopter. Neural networks from the Ultralytics neural network library allow selecting targets in a frame in real-time. The commands are sent to a specialized program on a smartphone, developed on the basis of DJI SDK flight simulators, which then sends commands via the remote control channel.The quality of recognition of developed gesture commands for DJI Phantom 3 standard edition quadcopters is investigated, and a brief guide in the form of operator work scenarios with unmanned vehicles is provided. The prospects of gesture control of several vehicles in extreme conditions have been revealed, considering the complex safety challenges of joint flight and interaction of aircraft in confined space.

About the authors

Nikolai Sergeevich Abramov

Ailamazyan Program Systems Institute of RAS

Email: n-say@nsa.pereslavl.ru

Vita Viktorovna Sattarova

RUDN University

Email: 1032201655@pfur.ru

Vitaly Petrovich Fralenko

Ailamazyan Program Systems Institute of RAS

Email: alarmod@pereslavl.ru

Mikhail Vyacheslavovich Khachumov

Ailamazyan Program Systems Institute of RAS; Federal Research Center "Computer Science and Control" of RAS; MIREA - Russian Technological University; Russian state university for the humanities

Email: khmike@inbox.ru

References

  1. Абрамов Н. С., Талалаев А. А., Фраленко В. П., Хачумов М. В.. «Система мультимодального управления и визуализации полета беспилотного летательного аппарата», Авиакосмическое приборостроение, 2023, №9, с. 3–11.
  2. Алфимцев А. Н.. Разработка и исследование методов захвата, отслеживания и распознавания динамических жестов, М., 2008, 167 с.
  3. Нагапетян В. Э.. Методы распознавания жестов руки на основе анализа дальностных изображений, М., 2008, 117 с.
  4. Oikonomidis I., Kyriazis N., Argyros A. A.. “Efficient model-based 3D tracking of hand articulations using Kinect”, Proceedings of the 22nd British Machine Vision Conference 2011, BMVC'11 (Dundee, UK, August 29–September 2, 2011), 2011, ISBN 1-901725-43-X, 11 pp.
  5. Shaowei C., Tanaka J.. “Interacting with a self-portrait camera using motion-based hand gestures”, Proceedings of the 11th Asia-Pacific Conference on Computer-Human Interaction 2013, APCHI'13 (Bangalore, India, September 24–27, 2013), ACM, New York, 2013, ISBN 978-1-4503-2253-9, pp. 93–101.
  6. Maraqa M. R., Al-Zboun F., Dhyabat M., Zitar R. A.. “Recognition of Arabic Sign Language (ArSL) using recurrent neural networks”, Journal of Intelligent Learning Systems and Applications, 4:1 (2012), pp. 41–52.
  7. Pugeault N., Bowden R.. “Spelling it out: real-time ASL fingerspelling recognition”, Proceedings of the IEEE International Conference on Computer Vision Workshops 2011, ICCV'11 (Barcelona, Spain, 06–13 November 2011), 2011, pp. 1114–1119.
  8. Zhao R., Wang K., Divekar R., Rouhani R., Su H., Ji Q.. “An immersive system with multi-modal human-computer interaction”, Proceedings of the 13th IEEE International Conference on Automatic Face & Gesture Recognition 2018 (Xi'an, China, 15–19 May 2018), 2018, pp. 517–524.
  9. Sanna A., Lamberti F., Paravati G., Manuri F.. “A kinect-based natural interface for quadrotor control”, Entertainment Computing, 4:3 (2013), pp. 179–186.
  10. Нагапетян В. Э., Хачумов В. М.. «Распознавание жестов руки в задаче бесконтактного управления беспилотным летательным аппаратом», Автометрия, 51:2 (2015), с. 103–109.
  11. Абрамов Н. С., Емельянова Ю. Г., Талалаев А. А., Фраленко В. П., Хачумов М. В.. «Архитектура мультимодального интерфейса для управления беспилотным летательным аппаратом», Известия высших учебных заведений. Авиационная техника, 2022, №3, с. 55–63.
  12. Hu M. K.. “Visual pattern recognition by moment invariants”, IRE Transactions on Information Theory, 8:2 (1962), pp. 179–187.
  13. Hochreiter S., Schmidhuber J.. “Long short-term memory”, Neural Computation, 9:8 (1997), pp. 1735–1780.
  14. Жуковская В. А., Пятаева А. В.. «Рекуррентная нейронная сеть для распознавания жестов русского языка с учетом языкового диалекта Сибирского региона», ГрафиКон 2022: материалы 32-й Международной конференции по компьютерной графике и машинному зрению (Рязань, 19–22 сентября 2022 г.), 2022, с. 538–547.
  15. Булыгин Д. А., Мамонова Т. Е.. «Распознавание жестов рук в режиме реального времени», Научный вестник НГТУ, 2020, №1(78), с. 25–40.
  16. Zhao Y., Lv W., Xu S., Wei J., Wang G., Dang Q., Liu Y., Chen J.,. DETRs beat YOLOs on real-time object detection, 2023, 14 pp.

Supplementary files

Supplementary Files
Action
1. JATS XML


Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».