A computer vision dataset for personal protective equipment and tool segmentation in oil well workovers

Cover Page

Cite item

Full Text

Abstract

Background: Employees working in hazardous industrial environments are required to wear personal protective equipment (PPE) and follow established safety procedures. Preventing incidents, minimizing risks to workers, and improving overall safety require continuous monitoring through computer vision techniques and automated alerts for hazardous conditions. These technologies help ensure compliance with safety standards and reduce the influence of human error. However, these systems are only as effective as the data they rely on. This underscores the importance of developing dedicated, high-quality annotated datasets. This work introduces a new dataset for segmenting PPE and tools in hazardous oilfield operations, including underground and major well workovers. The dataset was created based on real-world production environments.

Aim: Creating and training a dataset to segment PPE and tools using computer vision methods, enabling the automatic detection of hazardous conditions and contributing to improved safety at industrial sites.

Materials and methods: The dataset was constructed using video footage collected from a well workover crew at the Zhetybai oilfield. Annotation was carried out in CVAT, while segmentation was accelerated using the Segment Anything Model. The annotated data was then used to train a neural network based on the YOLOv8 architecture.

Results: The resulting dataset consists of 16 classes. It includes personal protective equipment (helmet, glasses, jacket, gloves, trousers, and boots) as well as their absence, represented by negative classes. It also covers key production elements such as casing pipes, a hydraulic wrench, an elevator, and personnel. The dataset is used to train computer vision models. Models trained on this dataset have demonstrated stable performance under real-world industrial conditions.

Conclusion: The dataset and model developed in this work mark a step toward building real-time safety monitoring systems for industrial settings. These systems can detect whether PPE is used properly, flag safety violations, and generate reports. The dataset can be adapted to other environments, extended with new classes, and integrated into larger safety management platforms.

About the authors

A. N. Alimova

KMG Engineering

Author for correspondence.
Email: a.alimova@kmge.kz
ORCID iD: 0000-0002-5155-2417

PhD

Kazakhstan, Astana

G. S. Abdimanap

KMG Engineering; Satbayev University

Email: g.abdimanap@kmge.kz
ORCID iD: 0000-0003-1676-4075
Kazakhstan, Astana; Almaty

K. A. Bostanbekov

KMG Engineering

Email: k.bostanbekov@kmge.kz
ORCID iD: 0000-0003-2869-772X

PhD

Kazakhstan, Astana

B. Kurmetbek

KMG Engineering

Email: b.kurmetbek@kmge.kz
ORCID iD: 0009-0001-7510-2445
Kazakhstan, Astana

T. T. Boltaykhanova

KMG Engineering

Email: tomiris.boltaikhanova@gmail.com
ORCID iD: 0009-0009-9965-7419
Kazakhstan, Astana

D. B. Nurseitov

KMG Engineering; Satbayev University

Email: d.nurseitov@kmge.kz
ORCID iD: 0000-0003-1073-4254

Cand. Sc. (Physics and Mathematics), associate Professor

Kazakhstan, Astana; Almaty

References

  1. Kelm A, Laußat L, Meins-Becker A, et al. Mobile passive Radio Frequency Identification (RFID) portal for automated and rapid control of Personal Protective Equipment (PPE) on construction sites. Automation in Construction. 2013;36:38–52. doi: 10.1016/j.autcon.2013.08.009.
  2. Zhang H, Yan X, Li H, et al. Real-time alarming, monitoring, and locating for non-hard-hat use in construction. Journal of Construction Engineering and Management. 2019;145:1–13. doi: 10.1061/(asce)co.1943-7862.0001629.
  3. Wang Z, Wu Y, Yang L, et al. Fast personal protective equipment detection for real construction sites using deep learning approaches. Sensors. 2021;21(10):3478. doi: 10.3390/s21103478.
  4. Wu J, Cai N, Chen W, et al. Automatic detection of hardhats worn by construction personnel: A deep learning approach and benchmark dataset. Automation in Construction. 2019;106:102894. doi: 10.1016/j.autcon.2019.102894.
  5. Vukicevic AM, Djapan M, Isailovic V, et al. Generic compliance of industrial PPE by using deep learning techniques. Safety Science. 2022;148:105646. doi: 10.1016/j.ssci.2021.105646.
  6. zenodo.org [Internet]. Openсv/Cvat: v1.1.0. 2020. Zenodo [cited 2024 May 26]. Available from: https://doi.org/10.5281/zenodo.4009388.
  7. github.com [Internet]. Ultralytics [cited 2024 May 26]. Available from: https://github.com/ultralytics/ultralytics.
  8. Redmon J, Divvala S, Girshick R, Farhadi A. You only look once: unified, real-time object detection. IEEE Conference on computer vision and pattern recognition; 2016 June 27–30; Las Vegas, NV, USA. Available from: https://ieeexplore.ieee.org/document/7780460.
  9. Bai M, Urtasun R. Deep watershed transform for instance segmentation. IEEE Conference on computer vision and pattern recognition; 2017 July 21–26; Honolulu, HI, USA. Available from: https://ieeexplore.ieee.org/document/8099788.
  10. Gao N, Shan Y, Yupei W, et al. SSAP: Single-shot instance segmentation with affinity pyramid. IEEE/CVF International Conference on Computer Vision; 2019 Oct 27 – Nov 2; Seoul, Korea (South). Available from: https://ieeexplore.ieee.org/document/9010302.
  11. Dai J, He K, Sun J. Instance-aware semantic segmentation via multi-task network cascades. IEEE Conference on computer vision and pattern recognition; 2016 June 27–30; Las Vegas, NV, USA. Available from: https://ieeexplore.ieee.org/document/7780712.
  12. He K, Gkioxari G, Dollar P, Girshick R. Mask R-CNN. IEEE International Conference on computer vision; 2017 Oct 22–29; Venice, Italy. Available from: https://ieeexplore.ieee.org/document/8237584.

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Figure 1. CVAT annotation interface. Dataset class structure and label setup

Download (216KB)
3. Figure 2. CVAT annotation interface

Download (324KB)
4. Figure 3. Visual distribution of dataset classes

Download (58KB)
5. Figure 4. Normalized сonfusion matrix

Download (137KB)
6. Figure 5. F1 – Confidence curve for bounding boxes

Download (220KB)
7. Figure 6. F1 – Confidence curve for instance segmentation

Download (232KB)

Copyright (c) 2025 Alimova A.N., Abdimanap G.S., Bostanbekov K.A., Kurmetbek B., Boltaykhanova T.T., Nurseitov D.B.

Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».