Сокращение оценки усадки джеймса–штейна для решения задачи автоматической группировки однородных производственных партий

Cover Page

Cite item

Full Text

Open Access Open Access
Restricted Access Access granted
Restricted Access Subscription Access

Abstract

Сокращение оценки усадки Джеймса–Штейна может значительно повысить точность кластерного анализа k-средних для относительно широкого диапазона данных. В статье исследована эффективность использования оценки усадки Джеймса–Штейна при решении задачи автоматической группировки промышленной продукции в однородные производственные партии. Проведены испытания для партий интегральных схем путем сравнения полученных результатов усадки с традиционным алгоритмом k-средних. Набор данных нормализуется в соответствии со значениями допустимого дрейфа, приемлемого параметра и стандартного отклонения. С помощью индекса Rand установлено, что точность кластеризации существенно возрастает в задаче автоматической группировки промышленной продукции в однородные производственные партии, когда средние значения неинформативных параметров уменьшаются до нуля. Установлено, что использование сокращения оценки усадки Джеймса–Штейна позволяет снизить влияние неинформативных параметров нормализованных данных до приемлемых значений.

Full Text

Restricted Access

About the authors

Ф. Г. Ахматшин

Сибирский государственный университет науки и технологий им. академика М. Ф. Решетнева

Email: kravchenko-in71@yandex.ru
Russian Federation, Красноярск

И. A. Петрова

Сибирский государственный университет науки и технологий им. академика М. Ф. Решетнева

Email: kravchenko-in71@yandex.ru
Russian Federation, Красноярск

Л. A. Казаковцев

Сибирский федеральный университет

Email: kravchenko-in71@yandex.ru
Russian Federation, Красноярск

И. Н. Кравченко

Институт машиноведения им. А. А. Благонравова РАН

Author for correspondence.
Email: kravchenko-in71@yandex.ru
Russian Federation, Москва

References

  1. Ершов И. А., Воскобойникова О. Б., Стукач О. В. Кластерный анализ процессов в полупроводниковом производстве // Динамика систем, механизмов и машин. 2016. Т. 2. № 1. С. 178.
  2. Rozhnov I., Orlov V., Kazakovtsev L. Ensembles of clustering algorithms for problem of detection of homogeneous production batches of semiconductor devices // School-Seminar on Optimization Problems and their Applications. 2018. V. 2098. P. 338. http://ceur-ws.org/Vol-2098/paper29.pdf
  3. Oti E. U., Olusola M. O., Eze F. C., Enogwe S. U. Comprehensive Review of K-Means Clustering Algorithms // Int. J. of Advances in Scientific Research and Engineering. 2021. V. 7 (8). P. 64.
  4. Федосов В. В., Орлов В. И. Минимально необходимый объем испытанных изделий микроэлектроники на этапе входного контроля // Известия высших учебных заведений. Приборостроение. 2011. Т. 54. № 4. С. 58.
  5. Ahmatshin F. Selection of free parameter forel-2 algorithm in the problem of automatic grouping of industrial products by homogeneous production batches // Системы управления и информационные технологии. 2021. P. 28. https://doi.org/10.36622/Vstu.2021.86.4.006
  6. Mathai A., Provost S., Haubold H. Factor Analysis // Multivariate Statistical Analysis in the Real and Complex Domains. 2022. P. 679. https://doi.org/10.1007/978–3–030–95864–0_111
  7. Na S., Xumin L., Yong G. Research on k-means clustering algorithm: an improved k-means clustering algorithm // In: 2010 Third Int. Symposium on Intelligent Inf. Technology and Security Informatics, Jinggangshan. P. 63.
  8. Patel V. R., Mehta R. G. Modified k-Means Clustering Algorithm // Computational Intelligence and Inf. Technology. 2011. V. 250. Р. 307. https://doi.org/10.1007/978-3-642-25734-6_46
  9. Li Y., Wu H. A clustering method based on K-means algorithm // Physics Procedia. 2012. V. 25. P. 1104. https://doi.org/10.1016/j.phpro.2012.03.206
  10. Perez-Ortega J., Almanza-Ortega N.N., Romero D. Balancing effort and benefit of K-means clustering algorithms in Big Data realms // PLoS ONE. 2018. V. 13 (9). е0201874. https://doi.org/10.1371/journal.pone.0201874
  11. Aggarwal C. C., Reddy C. K. Data Clustering Algorithms and Applications. Publisher: CRC Press, 2013. https://www.researchgate.net/publication/331534089
  12. Kazakovtsev L. A., Antamoshkin A. N., Masich I. S. Fast deterministic algorithm for EEE components classification // IOP Conf. Series: Materials Science and Engineering. 2015. V. 94. P. 012015. https://doi.org/10.1088/1757-899X/04/1012015
  13. Ansari S. A., Darmawan N., Robbi R., Rahmat H. Using K-means clustering to cluster provinces in Indonesia // J. of Physics Conf. Series. 2018. V. 1028 (1). P. 012006.
  14. Hossain Md., Akhtar Md.N., Ahmad R. B., Rahman M. A dynamic K-means clustering for data mining // Indonesian J. of Electrical Engineering and Computer Science. 2019. V. 13 (2). P. 521. https://doi.org/10.11591/ijeecs.v13.i2.pp521-526
  15. Шкаберина Г. Ш., Казаковцев Л. А., Ли Ж. Модели и алгоритмы автоматической группировки объектов на основе модели k-средних // Сибирский журнал науки и технологий. 2020. Т. 21. № 3. С. 347. https://doi.org/10.31772/2587-6066-2020-21-3-347-354
  16. Kumar S., Tripathi Yo. M., Misra N. James–Stein type estimators for ordered normal means // J. of Statistical Computation and Simulation. 2006. V. 75. P. 501. https://doi.org/10.1080/00949650412331272877
  17. Tong T., Jang H., Wang Y. James–Stein type estimators of variances // J. of Multivariate Analysis. 2012. V. 107. P. 232. https://doi.org/10.1016/j.jmva.2012.01.019
  18. Gao J., Hitchcock D.B. James-Stein shrinkage to improve k-means cluster analysis // Computational Statistics & Data Analysis. 2010. V. 54. P. 2113. https://doi.org/10.1016/j.csda.2010.03.018

Supplementary files

Supplementary Files
Action
1. JATS XML
2. Fig. 1. Comparative results for the 140UD25A IC with a different coefficient k for reducing the James-Stein shrinkage estimate by the value of the objective function: 1 – normalization by standard deviation; 2 – normalization by values ​​of permissible drift; 3 – by permissible values ​​of parameters.

Download (69KB)
3. Fig. 2. Comparative results for the 140UD25A IC with a different coefficient k for reducing the James–Stein shrinkage estimate by the standard deviation of the objective function value: 1 – normalization by the standard deviation; 2 – normalization by the values ​​of the permissible drift; 3 – by the permissible values ​​of the parameters.

Download (76KB)
4. Fig. 3. Comparative results for the 140UD25A IC with a different k coefficient for reducing the James-Stein shrinkage estimate by the Rand index: 1 – normalization by standard deviation; 2 – normalization by values ​​of permissible drift; 3 – by permissible values ​​of parameters.

Download (71KB)
5. Fig. 4. Comparative results for the 140UD25A IC with a different k coefficient for reducing the James-Stein shrinkage estimate by the standard deviation of the Rand index: 1 – normalization by the standard deviation; 2 – normalization by the values ​​of the permissible drift; 3 – by the permissible values ​​of the parameters.

Download (77KB)
6. Fig. 5. Comparative results for the 140UD26A IC with a different coefficient k for reducing the James–Stein shrinkage estimate by the value of the objective function: 1 – normalization by standard deviation; 2 – normalization by values ​​of permissible drift; 3 – by permissible values ​​of parameters.

Download (68KB)
7. Fig. 6. Comparative results for the 140UD26A IC with a different coefficient k for reducing the James–Stein shrinkage estimate by the standard deviation of the objective function value: 1 – normalization by the standard deviation; 2 – normalization by the values ​​of the permissible drift; 3 – by the permissible values ​​of the parameters.

Download (72KB)
8. Fig. 7. Comparative results for IC140UD26A with a different k coefficient for reducing the James–Stein shrinkage estimate by the Rand index: 1 – normalization by standard deviation; 2 – normalization by values ​​of permissible drift; 3 – by permissible values ​​of parameters.

Download (66KB)
9. Fig. 8. Comparative results for the 140UD26A IC with a different k coefficient for reducing the James-Stein shrinkage estimate by the standard deviation of the Rand index: 1 – normalization by the standard deviation; 2 – normalization by the values ​​of the permissible drift; 3 – by the permissible values ​​of the parameters.

Download (81KB)

Copyright (c) 2024 Russian Academy of Sciences

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».