A machine vision-based method for aligning coordinate systems of components in Robotic Technological Complexes

详细

This paper proposes a method for aligning coordinate systems in robotic technological complexes (RTCs) using machine vision and a deep learning model, without the use of special calibration objects. The method is based on "eye-to-hand" calibration and employs the YOLOv5 model for object detection and classification in the robot's working area. The proposed approach allows for automatic transformation of object coordinates from the camera coordinate system to the coordinate systems of the robot and other RTC components, ensuring precise interaction between them. Simulation results confirmed the effectiveness of the method and its suitability for industrial applications. The method reduces reconfiguration time and enhances the flexibility of RTCs, which is especially important in multi-nomenclature small-batch production environments.

全文:

Введение. В условиях современной автоматизации производства растут требования к гибкости и адаптивности производственных систем. Роботизированные технологические комплексы (РТК) становятся ключевыми элементами для достижения высокой производительности и качества продукции. Такие комплексы представляют собой интегрированные системы, состоящие из промышленных роботов, конвейеров, станков с числовым программным управлением (ЧПУ) и других автоматизированных устройств. РТК позволяют повысить эффективность производства за счёт автоматизации и оптимизации технологических процессов, что особенно важно в конкурентных рыночных условиях.

В стремлении увеличить гибкость производства и быстро адаптироваться к изменяющимся потребностям рынка, в многономенклатурном мелкосерийном производстве всё более востребованными становятся реконфигурируемые РТК. Такие комплексы позволяют изменять положение или конфигурацию компонентов для адаптации к новым производственным задачам. Например, могут использоваться мобильные столы, которые перемещаются в пределах рабочей зоны робота. Мобильные столы могут менять своё местоположение, добавляться или убираться в зависимости от текущих потребностей, изменяя конфигурацию РТК. Это повышает гибкость системы и позволяет оперативно реагировать на изменения в номенклатуре продукции или объёмах производства.

Внедрение реконфигурируемых РТК сопровождается новыми техническими сложностями, связанными с частыми переналадками системы. Использование подвижных элементов РТК вызывает необходимость регулярного обновления данных при каждой реконфигурации, включая задачи по согласованию систем координат, определению новых траекторий для роботов-манипуляторов, синхронизации действий между различными компонентами и адаптации программного обеспечения. Каждое изменение конфигурации увеличивает время, затрачиваемое на переналадку, и может приводить к неточностям в позиционировании или сбоям в работе системы, что снижает общую эффективность производства. Согласование систем координат компонентов комплекса является одной из наиболее критичных и трудоёмких задач в процессе переналадки, от результатов которого зависит дальнейшая точность работы всего РТК.

1. Анализ существующих методов согласования систем координат в РТК. В научной литературе представлено множество методов, направленных на решение проблемы согласования систем координат в роботизированных технологических комплексах (РТК). Методы охватывают различные подходы, включая классические методы калибровки, самокалибровку роботизированных систем, применение цифровых двойников и технологии машинного зрения.

Классические методы калибровки традиционно основываются на использовании специальных калибровочных объектов и процедур для установления преобразований между системами координат робота и камеры. Одним из таких распространенных подходов является калибровка "рука-глаз" (hand-eye calibration). Для повышения точности вычисления преобразований используются методы, основанные на анализе Прокруста [1], позволяющие учитывать одновременно вращение и трансляцию при преобразовании координат. Кроме того, в некоторых работах [2-5] применяют алгебру кватернионов и двойных кватернионов для более точного представления пространственных преобразований. Несмотря на высокую точность, эти методы зачастую сложны в реализации и требуют значительных вычислительных ресурсов, а также использования специальных калибровочных объектов.

Методы самокалибровки роботизированных систем направлены на автоматизацию процесса калибровки без необходимости использования специальных объектов. В работе [6] предложен метод самокалибровки для роботизированных систем, который использует информацию, полученную в процессе эксплуатации робота, для обновления калибровочных параметров. Алгоритм автоматически идентифицирует и накапливает информативные измерения, используя информационно-теоретические меры, и обновляет параметры по мере их наблюдения. Такой подход позволяет системе адаптироваться к изменениям без постоянной необходимости вмешательства оператора. Однако метод чувствителен к качеству данных и требует применения сложных вычислительных алгоритмов.

Применение цифровых двойников в РТК открывает новые возможности для моделирования и оптимизации процессов интеграции и настройки компонентов в виртуальной среде. Цифровые двойники позволяют создавать виртуальные копии реальных объектов или систем, что способствует снижению времени и затрат на реальную настройку системы [7]. В работе [8] обсуждаются технологии разработки цифровых двойников изделий, что позволяет проводить предварительную настройку и тестирование процессов интеграции компонентов РТК. Однако создание точных моделей всех компонентов и необходимость значительных вычислительных ресурсов являются серьезными вызовами.

Несмотря на прогресс в области машинного зрения и глубокого обучения, точное определение положения объектов в пространстве и их согласование с системой координат робота без проведения сложной калибровки остается сложной задачей. Это связано с тем, что преобразование координат из системы координат камеры в систему координат робота требует высокой точности в определении параметров преобразования и учета множества факторов, таких, как калибровка камеры, геометрия системы и возможные искажения. Кроме того, интеграция методов машинного зрения в процесс согласования систем координат без использования специальных калибровочных объектов требует дальнейших исследований [9-11].

На основании проведенного анализа был сделан вывод, что существующие методы согласования систем координат в РТК либо требуют значительных временных и ресурсных затрат, либо не обеспечивают необходимой гибкости и оперативности, особенно в условиях реконфигурируемых систем. Традиционные методы калибровки требуют значительных временных и трудовых затрат, так как они выполняются вручную оператором, используют специальные калибровочные объекты и требуют сложных вычислений. Использование таких методов приводит к увеличению времени переналадки системы и снижает общую эффективность производства. В условиях многономенклатурного мелкосерийного производства, где частые изменения конфигурации являются нормой, такие задержки становятся критическими.

Данная работа посвящена разработке метода согласования систем координат компонентов РТК, объединяющего в себе преимущества машинного зрения, моделей глубокого обучения и автоматизации процессов калибровки. Для этого были проанализированы существующие методы согласования систем координат, разработан алгоритм на основе метода калибровки “eye-to-hand” («глаз-к-руке») без использования специальных калибровочных объектов с применением методов машинного зрения и модели глубокого обучения YOLOv5. Для апробации метода была создана виртуальная экспериментальная модель РТК и собраны данные для оценки точности позиционирования и времени переналадки системы.

2. Описание метода согласования систем координат компонентов в РТК на основе машинного зрения. Полный цикл работы метода согласования систем координат компонентов РТК представлен на рисунке 1.

 

Рис. 1. Метод согласования систем координат компонентов РТК

 

Первоначально рабочее пространство сканируется с помощью RGB-D камеры, установленной над рабочей зоной робота. Такая установка обеспечивает стабильное положение камеры и полный обзор области, где робот взаимодействует с объектами. Полученные от камеры данные проходят предварительную обработку. Изображения фильтруются с помощью фильтра Гаусса для удаления шумов, а карты глубины обрабатываются билатеральным фильтром. Коррекция оптических искажений осуществляется с настройкой параметров внутренней калибровки камеры, что повышает точность последующего анализа. Далее производится идентификация и классификация объектов с использованием модели YOLOv5, обученной на пользовательском наборе данных, включающем объекты, с которыми взаимодействует робот. Классы объектов включают заготовки и детали различных типов, оснастку и инструменты, компоненты РТК, а также элементы безопасности. Входными данными для модели служат отфильтрованные RGB-изображения, а выходными – координаты ограничивающих рамок объектов и их классы. Это позволяет системе определить, какие объекты присутствуют в рабочей зоне и где они находятся на изображении. После идентификации и классификации объектов возникает необходимость преобразовать их координаты из системы координат камеры в систему координат робота, а затем в системы координат других компонентов РТК, с которыми робот должен взаимодействовать. Для этого используется метод калибровки "eye-to-hand" без применения специальных калибровочных объектов.

2.1. Калибровка между камерой и роботом. Для обеспечения точного взаимодействия робота с объектами необходимо согласовать системы координат камеры и робота. Робот-манипулятор выполняет серию заранее определённых движений, перемещая схват в различные положения и ориентации в рабочей зоне. Камера фиксирует эти положения, получая соответствующие изображения и карты глубины. Синхронизация данных между системой управления робота и камерой обеспечивается с помощью временных меток, что позволяет точно сопоставить каждое положение робота с соответствующим изображением.

С использованием модели YOLOv5 на полученных изображениях определяется положение схвата робота в пиксельных координатах ucenter, vcenter. Из карты глубины извлекается значение глубины zcamera в соответствующей точке:

zcamera=D(ucenter, vcenter) (1)

Затем, используя параметры внутренней калибровки камеры – фокусные расстояния fx, fy и координаты оптического центра cx, cy, вычисляются координаты схвата робота-манипулятора в декартовой системе координат камеры по следующим формулам:

xcamera=ucenter-cx·zcamerafxycamera=vcenter-cy·zcamerafyzcamera=zcamera (2)

Для каждого положения схвата робота-манипулятора собираются пары соответствующих точек в пространстве: координаты в системе координат камеры xcamera, ycamera, zcamera и соответствующие им координаты в системе координат робота xrobot, yrobot, zrobot, полученные из системы управления роботом.

Собранные пары точек используются для вычисления матрицы преобразования Tcamera_to_robot, описывающей отношение между системами координат камеры и робота. Матрица Tcamera_to_robot является гомогенной матрицей 4x4, включающей матрицу вращения и вектор трансляции:

Tcamera_to_robot=Rt0T1 (3)

Вычисление матрицы осуществляется путём решения задачи наименьших квадратов, что позволяет определить параметры вращения R и трансляции t между системами координат с минимальной ошибкой. Оценка точности калибровки производится путём применения полученной матрицы к контрольным точкам и сравнения преобразованных координат с соответствующими координатами в системе координат робота. Если среднеквадратичная ошибка не превышает допустимого порога, матрица считается корректной и может быть использована для преобразования координат объектов.

2.2. Калибровка между роботом и другими компонентами РТК. Калибровка между роботом и другими компонентами РТК, такими, как станок с ЧПУ, мобильный стол или конвейерная линия, проводится аналогичным образом. Робот перемещает свой схват к заранее определённым опорным точкам, расположенным в рабочей зоне компонента РТК, координаты которых известны в локальной системе координат этого компонента. Эти опорные точки могут находиться непосредственно на поверхности оборудования или в области, где робот взаимодействует с компонентом. Координаты схвата фиксируются в системе координат робота для каждого положения схвата при соприкосновении с опорными точками на компоненте РТК. Затем вычисляется матрица преобразования Trobot_to_component с использованием пар соответствующих точек координат:

xmachineymachinezmachine1=Trobot_to_componentxrobotyrobotzrobot1 (4)

Оценка точности производится путём сравнения преобразованных координат с известными координатами в системе компонента РТК. Если точность соответствует требованиям, матрица используется для дальнейших преобразований.

2.3. Преобразование координат объектов. После успешной калибровки осуществляется преобразование координат обнаруженных объектов. Сначала определяется центр объекта на изображении по координатам ограничивающей рамки umin, vmin, umax, vmax:

ucenter=umin+umax2vcenter=vmin+vmax2 (5)

Глубина в точке извлекается из карты глубины по формуле (1). Координаты объекта в системе координат камеры вычисляются по формулам (2).

Затем координаты объекта преобразуются в систему координат робота с использованием матрицы Tcamera_to_robot:

xrobotyrobotzrobot1=Tcamera_to_robotxcameraycamerazcamera1 (6)  

Для преобразования координат объектов, выраженных в системе координат робота, в систему координат компонента РТК, используется матрица Trobot_to_component (4). Объединенное преобразование может быть выражено общей матрицей:

Tcamera_to_component=Tcamera_to_robot·Trobot_to_component (7)

Полученные координаты используются роботом для планирования траектории движения к объекту с учетом кинематических ограничений и возможных препятствий в рабочей зоне.

3. Разработка экспериментальной модели. Для проверки предложенного метода была разработана виртуальная модель РТК с использованием среды 3D-моделирования производства «R-про». Модель (рисунок 2) включает:

  • шестиосевой промышленный робот-манипулятор с точностью позиционирования схвата в модели 0.1 мм. и рабочей зоной, охватывающей область взаимодействия с конвейером и станком с ЧПУ;
  • два мобильных промышленных стола;
  • станок с ЧПУ с интерфейсом для передачи команд и статуса в модель робота;
  • RGB-D камера, установленная над рабочей зоной в конфигурации "eye-to-hand", с разрешением 1920x1080 пикселей, полем зрения 90 градусов по горизонтали и диапазоном измерения глубины от 0.5 м до 5 м.

 

Рис. 2. Модель РТК

 

Для реализации метода использовался язык программирования Python с библиотеками OpenCV и PyTorch. Данные с RGB-D камеры обрабатывались в следующей последовательности: сначала изображения и карты глубины считывались и проходили предварительную обработку, затем осуществлялись обнаружение, классификация и получение координат объектов, после чего координаты объектов преобразовывались и передавались системе управления роботом (рисунок 3).

 

Рис. 3. Пример визуализации работы RGB-D камеры в модели РТК

 

На листинге 1 представлены получение и предварительная обработка данных с камеры. Сначала считываются RGB-изображения и соответствующие им карты глубины. Для удаления шумов и улучшения качества изображений применяются фильтры: к RGB-изображениям – фильтр Гаусса, к картам глубины – билатеральный фильтр. Также проводится коррекция оптических искажений с использованием параметров внутренней калибровки камеры.

Листинг 1. Получение и предварительная обработка данных с камеры

import cv2

import numpy as np

camera_matrix = np.array([[fx,  0, cx],

                          [ 0, fy, cy],

                          [ 0,   0,   1]])

dist_coeffs = np.array([k1, k2, p1, p2, k3])

rgb_image = cv2.imread('rgb_image.png')

depth_map = cv2.imread('depth_map.png', cv2.IMREAD_UNCHANGED)

rgb_undistorted = cv2.undistort(rgb_image, camera_matrix, dist_coeffs)

depth_undistorted = cv2.undistort(depth_map, camera_matrix, dist_coeffs)

rgb_filtered = cv2.GaussianBlur(rgb_undistorted, (5, 5), 0)

depth_filtered = cv2.bilateralFilter(depth_undistorted, 9, 75, 75)

После предварительной обработки данные готовы для анализа. На рисунке 4 показаны результаты этой обработки: отфильтрованное RGB-изображение и соответствующая ему карта глубины.

 

Рис. 4. Пример полученного изображения и карты глубины после фильтрации

 

Далее осуществляется обнаружение и классификация объектов (рисунок 5) с помощью модели глубокого обучения YOLOv5, обученной на пользовательском наборе данных (листинг 2).

 

Рис. 5. Пример работы YOLOv5

 

Листинг 2. Применение модели YOLOv5, обученной на пользовательском наборе данных

import torch

model = torch.hub.load('ultralytics/yolov5', 'custom', path='best.pt')

results = model(rgb_filtered)

detections = results.pandas().xyxy[0]

for index, row in detections.iterrows():

    xmin = int(row['xmin'])

    ymin = int(row['ymin'])

    xmax = int(row['xmax'])

    ymax = int(row['ymax'])

    class_name = row['name']

    confidence = row['confidence']

    print(f"Обнаружен объект {class_name} с уверенностью {confidence:.2f} в координатах ({xmin}, {ymin}), ({xmax}, {ymax})")

После идентификации объектов необходимо определить их пространственные координаты. Для каждого обнаруженного объекта вычисляются координаты центра ограничивающей рамки на изображении (4). Затем из карты глубины извлекается значение глубины в этой точке (1). Используя параметры внутренней калибровки камеры, координаты объекта в пиксельной системе преобразуются в метрические координаты системы координат камеры (2).

Полученные координаты объектов в системе координат камеры необходимо преобразовать в систему координат робота. Для этого применяется ранее вычисленная матрица преобразования Tcamera_to_robot (5). Эти координаты используются для формирования команд управления роботом (листинг 3).

Листинг 3. Формирование команд управления роботом

move_command = f"MOVE_TO X:{x_robot:.2f} Y:{y_robot:.2f} Z:{z_robot:.2f}"

def send_command_to_robot(command):

robot_ip = "192.168.1.100" 

robot_port = 5000 

sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)

    try:

        sock.connect((robot_ip, robot_port))

        sock.send(command.encode("utf-8"))

        response = sock.recv(1024).decode("utf-8")

        print(f"Ответ от робота: {response}")

    except Exception as e:

        print(f"Ошибка при отправке команды: {e}")

    finally:

        sock.close()

send_command_to_robot(move_command)

Таким образом, весь процесс – от получения данных с камеры до передачи команд роботу – автоматизирован и не требует постоянного вмешательства оператора.

Результаты. Для проверки эффективности предложенного метода была разработана модель робототехнического комплекса (РТК), в которой были проведены виртуальные эксперименты. Робот-манипулятор выполнял задачу установки заготовки с мобильного стола в виртуальный станок с ЧПУ. Положение заготовки определялось с помощью, симулированной RGB-D камеры, интегрированной в модель РТК и модели YOLOv5, обученной на пользовательском наборе данных. Точность позиционирования схвата робота-манипулятора оценивалась путем измерения отклонения фактического положения рабочего органа от целевого положения по каждой из осей (таблица 1).

Пространственное отклонение в каждом испытании не превышало 3.90 мм, а среднее пространственное отклонение составило 3.76 мм. Это отклонение соответствует требованиям ряда промышленных задач и подтверждает адекватность предложенного метода в рамках модели РТК.

Для сравнения был реализован классический метод калибровки "глаз-к-руке" с использованием маркеров. Точность позиционирования схвата робота оценивалась аналогично.

 

Таблица 1. Результаты измерений точности позиционирования в модели

Номер испытания

Отклонение по X (мм)

Отклонение по Y (мм)

Отклонение по Z (мм)

Пространственное отклонение (мм)

1

1.9

2.2

2.6

3.90

2

2.1

2.0

2.4

3.76

3

1.8

2.3

2.1

3.60

4

2.2

1.9

2.5

3.84

5

2.0

2.1

2.3

3.70

Среднее

2.0

2.1

2.4

3.76

 

Результаты показали, что среднее пространственное отклонение при использовании классического метода составило 2.23 мм, что на 1.53 мм меньше, чем при использовании предложенного метода. Для некоторых приложений РТК такая точность является достаточной. Для систем, где требуется более высокая точность, возможно применение дополнительной калибровки или доработка метода для повышения точности позиционирования.

Было проведено сравнение времени, затрачиваемого на переналадку системы, с использованием классического и предложенного методов. Время переналадки при использовании предложенного метода было оценено в 5 минут, тогда как при использовании метода с маркерами оно увеличивается до 15 минут. Это связано с тем, что классический метод требует установки и калибровки с использованием маркеров, что занимает дополнительное время и требует участия оператора. Сокращение времени переналадки системы является существенным преимуществом в условиях многономенклатурного мелкосерийного производства.

Время, затрачиваемое на обработку изображений и вычисление координат объектов в модели, составило в среднем 0.1 секунды на кадр, что позволило системе работать в режиме реального времени с частотой обновления 10 Гц.

Полученные в работе результаты подтверждают работоспособность предложенного метода. Метод без использования специальных калибровочных объектов обеспечивает достаточную для ряда технологических процессов точность позиционирования схвата робота и сокращает время переналадки системы.

Заключение. Предложенный метод согласования систем координат компонентов в РТК, основанный на использовании машинного зрения, метода калибровки «глаз-к-руке» и модели глубокого обучения, делает возможным согласование систем координат компонентов без использования специальных калибровочных объектов, что повышает гибкость системы. Также уменьшается трудоемкость процесса переналадки за счёт отсутствия необходимости поверять позиции компонентов РТК вручную, что особенно актуально в условиях многономенклатурного мелкосерийного производства. Несмотря на снижение точности по сравнению с методом с использованием маркеров, преимущества в скорости наладки делают предложенный метод актуальным для РТК, где время и гибкость являются критичными факторами.

Для использования предложенного метода в системах, требующих более высокой точности позиционирования, требуются дальнейшие разработки и исследования. Возможные направления для улучшений включают эксперименты с другими моделями глубокого обучения, совершенствование алгоритмов калибровки, использование дополнительных датчиков и камер.

×

作者简介

Vladimir Kholopov

MIREA - Russian technological university

Email: Holopov@gmail.com
ORCID iD: 0000-0003-2108-8462
SPIN 代码: 6007-8117

Ph.D, associate professor, head of the department of industrial informatics

俄罗斯联邦, Moscow

Maxim Makarov

MIREA - Russian technological university

编辑信件的主要联系方式.
Email: MakMak95@yandex.ru
SPIN 代码: 1359-7222

Senior lecturer of the department of industrial informatics

俄罗斯联邦, Moscow

Ivan Blagoveshchensky

MIREA - Russian technological university

Email: Igblagov@mail.ru
SPIN 代码: 7057-5071

Doctor of technical sciences, professor of the department of industrial informatics

俄罗斯联邦, Moscow

参考

  1. Wu J., Sun Y., Wang M., Liu M. Hand-eye Calibration: 4D procrustes analysis approach. IEEE transactions on instrumentation and measurement, 2020, vol. 69, no. 6, pp. 2966–2981, doi: 10.1109/TIM.2019.2930710.
  2. Shen C., Wang X., Zhang G., Huang S., Gu P. Calibration algorithm in robotic remanufacturing measurement system based on 3D laser scanner. Proceedings of SPIE, 2009, vol. 7384, pp. 73840P, doi: 10.1117/12.836188.
  3. Wang G., Pan J., Liang B., Sun Z. A method of robot base frame calibration by using dual quaternion algebra. IEEE Access, 2018, vol. 6, pp. 74865–74873, doi: 10.1109/ACCESS.2018.2882502.
  4. Krakhmalev O. Coordinate transformation in the methods of calibration of industrial robots. Advances in automobile engineering, 2018, 07, doi: 10.4172/2167-7670.1000181.
  5. Zhang J., Yu H., Deng H., Chai Z., Ma M., Zhong X. A robust and rapid camera calibration method by one captured image. IEEE Transactions on Instrumentation and Measurement, 2019, vol. 68, no. 7, pp. 2294–2303, doi: 10.1109/TIM.2018.2884583.
  6. Maye J., Furgale P., Siegwart R. Self-supervised calibration for robotic systems. 2013 IEEE Intelligent vehicles symposium (IV), 2013, pp. 473–480, doi: 10.1109/IVS.2013.6629513.
  7. Automate.org. Digital Twins and virtual commissioning in industry 4.0. Available at: https://www.automate.org/robotics/tech-papers/digital-twins-and-virtual-commissioning-in-industry-4-0 (accessed: 09/15/2024).
  8. Blagoveshchensky I.G., Blagoveshchensky V.G., Kholopov V.A., et al. Tsifrovoy dvoynik izdeliya: tekhnologii razrabotki [Digital twin of a product: development technologies]. Rogovskiye chteniya. Sektsiya «Avtomatizatsiya tekhnologicheskikh protsessov i proizvodstv», sbornik dokladov nauchno-prakticheskoy konferentsii s mezhdunarodnym uchastiyem, Moskva, 30 noyabrya 2023g., Kursk, ZAO “Universitetskaya kniga” [Rogov Readings. Section "Automation of Technological Processes and Productions", Proceedings of the scientific and practical conference with international participation, Moscow, November 30, 2023, Kursk, JSC "University Book"], 2023, pp. 154–161, EDN QGMICS.
  9. Shahria M.T., Sunny M.S.H., Zarif M.I.I., Ghommam J., Ahamed S.I., Rahman M.H. A comprehensive review of vision-based robotic applications: current state, components, approaches, barriers, and potential solutions. Robotics, 2022, vol. 11, no. 6, 139 p., doi: 10.3390/robotics11060139.
  10. Ruiz-del Solar J., Loncomilla P. Applications of deep learning in robot vision. Deep learning in computer vision, pp. 211–232, doi: 10.1201/9781351003827-8.
  11. Blagoveshchensky V.G., Blagoveshchensky I.G., Kholopov V.A., et al. Primeneniye na proizvodstve neyronnoy seti YOLO dlya opredeleniya kachestva pishchevoy produktsii [Application of the YOLO neural network in production for determining the quality of food products]. Fabrika budushchego: perekhod k peredovym tsifrovym, intellektual'nym proizvodstvennym tekhnologiyam, robotizirovannym sistemam dlya otrasley pishchevoy promyshlennosti, sbornik nauchnykh dokladov IV Mezhdunarodnoy spetsializirovannoy konferentsii-vystavki, Moskva, 26 aprelya 2023 goda. Moskva, ROSBIOTEKH, 2023 [Factory of the Future, transition to advanced digital, intelligent production technologies, robotic systems for the food industry, sectors: Collection of scientific reports of the IV International specialized conference-exhibition, Moscow, April 26, 2023. Moscow, ROSBIOTECH, 2023], pp. 66–72, EDN OHHQER.

补充文件

附件文件
动作
1. JATS XML
2. Fig. 1. Method of coordinating the coordinate systems of RTC components

下载 (119KB)
3. Fig. 2. RTC model

下载 (170KB)
4. Fig. 3. An example of visualization of the RGB-D camera operation in the RTK model

下载 (264KB)
5. Fig. 4. Example of the resulting image and depth map after filtering

下载 (253KB)
6. Fig. 5. Example of YOLOv5 operation

下载 (198KB)

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».