Доверие к технологиям искусственного интеллекта
- Авторы: Кобринский Б.А.1,2
-
Учреждения:
- Федеральный исследовательский центр «Информатика и управление» РАН
- Российский национальный исследовательский медицинский университет им. Н.И. Пирогова
- Выпуск: № 3 (2024)
- Страницы: 3-17
- Раздел: Представление знаний
- URL: https://journals.rcsi.science/2071-8594/article/view/265355
- DOI: https://doi.org/10.14357/20718594240301
- EDN: https://elibrary.ru/HHRFBG
- ID: 265355
Цитировать
Полный текст
Аннотация
Доверие к искусственному интеллекту является ключевым фактором широкого внедрения интеллектуальных технологий в экономику и социальную сферу. В статье рассматриваются различные аспекты данной проблемы. Это доверие к знаниям и данным, к моделям искусственного интеллекта и машинного обучения; риски и границы применимости используемых методов и технологий; объяснимость выдаваемых решений и человеко-ориентированность искусственного интеллекта; первичная валидация и вторичная валидация (верификация) создаваемых систем; галлюцинации и фальсификации ChatGPT; этические, юридические и организационные аспекты применения искусственного интеллекта.
Об авторах
Борис Аркадьевич Кобринский
Федеральный исследовательский центр «Информатика и управление» РАН; Российский национальный исследовательский медицинский университет им. Н.И. Пирогова
Автор, ответственный за переписку.
Email: kba_05@mail.ru
доктор медицинских наук, профессор, заслуженный деятель науки Российской Федерации, заведующий отделом систем интеллектуальной поддержки принятия решений; профессор кафедры медицинской кибернетики и информатики им. С.А. Гаспаряна
Россия, Москва; МоскваСписок литературы
- Ethics Guidelines for Trustworthy AI. URL: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines.1.html (accessed April 12, 2022).
- Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence. ISO/IEC TR 24028:2020. URL: https://www.iso.org/standard/77608.html (accessed April 12, 2022).
- Calegari R., Ciatto G., Denti E., Omicini A. Logic-Based technologies for intelligent systems: State of the art and perspectives // Information. 2020. V. 11. No 3. Article ID 167. doi.org/10.3390/info11030167.
- Calegari R., Ciatto G., Mascardi V., Omicini A. Logicbased technologies for multi-agent systems: a systematic literature review // Autonomus Agents and Multi-Agent Systems. 2021. V. 35. Article ID 1. doi.org/10.1007/s10458-020-09478-3.
- Negro P., Pons C. Artificial Intelligence techniques based on the integration of symbolic logic and deep neural networks: A systematic review of the literature // Inteligencia Artificial. 2022. V. 25. No 69. P. 13–41. doi.org/10.4114/intartif.vol25iss69pp13-41.
- Кобринский Б.А. Принципы построения гибридной медицинской лингво-образной системы // Гибридные и синергетические интеллектуальные системы. Материалы VI Всероссийской Поспеловской конференции с международным участием [Электронный ресурс]: научное электронное издание. Калининград: Издательство БФУ им. И. Канта, 2022. С. 171-177.
- О развитии искусственного интеллекта в Российской Федерации // Указ Президента РФ от 10 октября 2019 г. № 490 (с изменениями и дополнениями). URL: https://base.garant.ru/72838946/ (accessed April 20, 2024).
- О внесении изменений в Указ Президента Российской Федерации от 10 октября 2019 г. № 490 «О развитии искусственного интеллекта в Российской Федерации» // Указ Президента РФ от 15.02.2024 № 124 (accessed April 20, 2024).
- Ларичев О.И. Теория и методы принятия решений. М.: Университетская книга, Логос, 2008. 392 c.
- Boehm B.W., Jain A. An initial theory of value-based software engineering // Value-based software engineering. Berlin, Heidelberg: Springer-Verlag, 2006. P. 15-37.
- Norsaremah S., Mendes E., Mendes F., Lekamlage Ch.D., Petersen K. Value-based software engineering: A systematic mapping study // e-Informatica software engineering journal. 2023. V. 17. No 1. Article ID 230106. doi: 10.37190/e-Inf230106 230106.
- Arioua A., Buche P., Croitoru M. Explanatory dialogs with argumentative faculties over inconsistent knowledge bases // Expert systems with applications. 2017. V. 80. No C. P. 244-262. doi.org/10.1016/j.eswa.2017.03.009.
- Финн В.К. Искусственный интеллект: Методология, применения, философия. Изд. 2-е, испр. и доп. М.: ЛЕНАНД, 2021. 468 с.
- Born J., Beymer D., Rajan D., Coy A., Mukherjee V.V., Manica M., et al. On the role of artificial intelligence in medical imaging of COVID-19 // Patterns. 2021. V. 2. No 6. Article ID 100269. doi: 10.1016/j.patter.2021.100269.
- Geraci J. Shattering cancer with quantum machine learning: A preview // Patterns. 2021. V. 2. No 6. P. 1-2. doi.org/10.1016/j.patter.2021.100281.
- Holzinger A., Müller H. Toward Human-AI interfaces to support explainability and causability in medical AI // Computer. 2021. V. 54. No 10. P. 78-86. doi: 10.1109/MC.2021.3092610.
- Phillips P.J., Hahn C.A., Fontana P.C., Broniatowski D.A., Przybocki M.A. Four principles of explainable artificial intelligence // National institute of standards and technology. Draft NISTIR 8312. 2020. URL: https://www.nist.gov/system/files/documents/2020/08/17/NIST%20Explainable%20AI%20Draft%20NISTIR8312%20%281%29.pdf (accessed January 30, 2024).
- Langer M., Oster D., Speith T., et al. What Do We Want from Explainable Artificial Intelligence (XAI)? A Stakeholder Perspective on XAI and a Conceptual Model Guiding Interdisciplinary XAI Research // Artificial Intelligence. 2021. V. 296. No 3. Article ID 103473. doi: 10.1016/j.artint.2021.103473.
- Marsala Ch., Bouchon-Meunier B. Fuzzy data mining and management of interpretable and subjective information // Fuzzy sets and systems. 2015. V. 281. P. 252-259. doi: 10.1016/j.fss.2015.08.021.
- Bouchon-Meunier B., Lesot M.J., Marsala C. Lotfi A. Zadeh, the visionary in explainable artificial intelligence // Turkic World Mathematical Society Journal and Applied Mathematics. 2021. V. 12. No 1, Special Issue. P. 5-13.
- Rifqi M., Bothorel S., Bouchon-Meunier B., Muller S. Similarity and prototype-based approach for classification of microcalcifications // Proceedings of the 7th IFSA World Congress. Prague. 1997. P. 123-128.
- Lurie A., Hartley S., Bouchon-Meunier B., Dusser D. Patients’ perception of astma severity // Respiratory Medicine. 2007. V. 101. No 10. P. 2145-2152. doi: 10.1016/j.rmed.2007.05.027.
- McKinsey & Company, Atlanta, GA, USA, 2021. URL: https://www. mckinsey.com/business-functions/mckinseyanalytics/our-insights/global-survey-the-state-of-ai-in2021 (дата обращения: 3 января 2024).
- Morrison R. WHO urges caution over use of generative AI in healthcare // Tech Monitor May 16, 2023. URL: https://techmonitor.ai/technology/ai-and-automation/ai-inhealthcare-who (accessed May 31, 2024).
- Гусев А.В., Астапенко Е.М., Иванов И.В., Зарубина Т.В., Кобринский Б.А. Принципы формирования доверия к системам искусственного интеллекта для сферы здравоохранения // Вестник Росздравнадзора. 2022. № 2. С. 25–33.
- Petersen E., Holm S., Ganz M., Feragen A. The path toward equal performance in medical machine learning // Patterns. 2023. V. 4. No 7. Article ID 100790. doi: 10.1016/j.patter.2023.100790.
- Larrazabal A.J, Nieto N., Peterson V., Milone D.H, Ferrante E. Gender imbalance in medical imaging datasets produces biased classifiers for computer-aided diagnosis // Proceedings of the National Academy of Sciences of the United States of America. 2020. V. 117. No 23. P. 12592-12594. doi: 10.1073/pnas.1919012117.
- Motwani A., Shukla P.K., Pawar M. Ubiquitous and smart healthcare monitoring frameworks based on machine learning: A comprehensive review // Artificial Intelligence in Medicine. 2022. V. 134. No C. Article ID 102431. doi.org/10.1016/j.artmed.2022.102431.
- Xu J., Xiao Y., Wang W.H., Ning Y., Shenkman E.A., Bian J., Wang F. Algorithmic fairness in computational medicine // eBioMedicine. 2022. V. 84. No 3. Article ID 104250. doi: 10.1016/j.ebiom.2022.104250.
- Wynants L., Van Calster B, Collins G. S., Riley R. D., Heinze G., Schuit E. et al. Prediction models for diagnosis and prognosis of covid-19: systematic review and critical appraisal // BMJ. 2020. V. 369. Article ID m1328. doi: 10.1136/bmj.m1328.
- Roberts M., Driggs D., Thorpe M., Gilbey J., Yeung M., Ursprung S. et al. Common pitfalls and recommendations for using machine learning to detect and prognosticate for COVID-19 using chest radiographs and CT scans // Nature Machine Intelligence. 2021. V. 3. P. 199–217. doi.org/10.1038/s42256-021-00307-0.
- Wong A., Otles E., Donnelly J.P., Krumm A., McCullough J., DeTroyer-Cooley O. et al. External validation of a widely implemented proprietary sepsis prediction model in hospitalized patients // JAMA Internal Medicine. 2021. V. 181. No 8. Article ID 1144. doi: 10.1001/jamainternmed.2021.2626.
- Tahaei M., Constantinides M., Quercia D., Muller M. A Systematic literature review of human-centered, ethical, and responsible AI // arXiv. 2023. Article ID 2302.05284v3. doi.org/10.48550/arXiv.2302.05284.
- Cheruvu R. Unconventional concerns for human-centered artificial intelligence // Computer. 2022. V. 55. No 7. P. 46-55. doi: 10.1109/MC.2022.3170423.
- Shneiderman B. Human-centered artificial intelligence: reliable, safe & trustworthy // arXiv. 2020. Article ID 2002.04087v2. doi.org/10.48550/arXiv.2002.04087.
- Steyerberg E.W., Vergouwe Y. Towards better clinical prediction models: Seven steps for development and an ABCD for validation // European Heart Journal. 2014. V. 35. No. 29. P. 1925–1931. doi: 10.1093/eurheartj/ehu207.
- Yoon J.H., Pinsky M.R., Clermont G. Artificial Intelligence in Critical Care Medicine // Critical care. 2022. V. 26. Article ID 75. doi.org/10.1186/s13054-022-03915-3.
- Scheek D., Rezazade Mehrizi M.H., Ranschaert E. Radiologists in the loop: The roles of radiologists in the development of AI applications // European radiology. 2021. V. 31. No 10. P. 7960-7968. doi: 10.1007/s00330-021-07879-w.
- Recht M.P., Dewey M., Dreyer K., et al. Integrating artificial intelligence into the clinical practice of radiology: challenges and recommendations // European radiology. 2020. V. 30. No 6. P. 3576–3584. doi.org/10.1007/s00330-020-06672-5.
- Van Assen M., Lee S.J., De Cecco C.N. Artificial intelligence from A to Z: from neural network to legal framework // European Journal of Radiology. 2020. V. 129. Article ID 109083. doi.org/10.1016/j.ejrad.2020.109083.
- Wiggins W.F., Caton M.T., Magudia K., et al. Preparing radiologists to lead in the era of artificial intelligence: designing and implementing a focused data science pathway for senior radiology residents // Radiology: Artificial Intelligence. 2020. V. 2. No 6. Article ID e200057. doi.org/10.1148/ryai.2020200057.
- Winter P., Carusi A. ‘If you’re going to trust the machine, then that trust has got to be based on something’: Validation and the co-constitution of trust in developing artificial intelligence (AI) for the early diagnosis of pulmonary hypertension (PH) // Science & Technology Studies. 2022. V. 35. No 4. Р. 58-77. doi.org/10.23987/sts.102198.
- Шадеркин И.А. Слабые стороны искусственного интеллекта в медицине // Российский журнал телемедицины и электронного здравоохранения. 2021. Т. 7. № 2. С. 50-52. doi.org/10.29188/2712-9217-2021-7-2-50-52.
- Kumar M., Mani U.A., Tripathi P., Saalim M., Roy S. Artificial hallucinations by google bard: Think before you leap // Cureus. 2023. V. 15. No 8. Article ID e43313. doi: 10.7759/cureus.43313.
- Ji Z., Lee N., Frieske R., Yu T., Su D., Xu Y.б et al. Survey of hallucination in natural language generation // arXiv. 2024. Article ID 2202.03629v6. doi.org/10.48550/arXiv.2202.03629.
- Alkaissi H., McFarlane S. Artificial hallucinations in ChatGPT: Implications in scientific writing // Cureus. 2023. V. 15. No 2. Article ID e35179. doi: 10.7759/cureus.35179.
- Emsley R. ChatGPT: these are not hallucinations – they’re fabrications and falsifications // Schizophrenia. 2023. V. 9. No 1. Article ID 52. doi.org/10.1038/s41537-023-00379-4.
- Системы искусственного интеллекта. Способы обеспечения доверия. Общие положения // ГОСТ Р 592762020. 2020. URL: https://protect.gost.ru/v.aspx?control=8&baseC=1&page=0&month=-1&year=1&search=&RegNum=1&DocOnPageCount=15&id=229230&pageK=2B37ADDB-BC6E-49CA-BA3A-9BADD9DF859F (дата обращения 20 марта 2024).
- Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology (US). 2023. 42 p. doi.org/10.6028/NIST.AI.100-1 (accessed March 22, 2024).
- Artificial Intelligence: An Accountability Framework for Federal Agencies and Other Entities. Washington GAO@100. 112 p. URL: https://www.gao.gov/products/gao-21-519sp (accessed April 12, 2024).
- The Assesment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment. European Commission. B1049 Brussels, 2020. URL: https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment (accessed April 10, 2024).
- Азиломарские принципы искусственного интеллекта // RoboTrends. 2017. URL: https://robotrends.ru/pub/1737/azilomarskie-principyiskusstvennogo-intellekta (дата обращения 10 апреля 2024).
- Кодекс этики в сфере искусственного интеллекта. 2021. URL: https://ethics.a-ai.ru (дата обращения 20 января 2024).
- Information technology – Artificial intelligence – Guidance on risk management // ISO/IEC 23894:2023. 2023. URL: https://www.iso.org/obp/ui/en/#iso:std:iso-iec:23894:ed1:v1:en (accessed April 2, 2024).
- Recommendation of the Council on Artificial Intelligence. 2024. Legal Instruments // OECD/LEGAL/0449. URL: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449 (accessed May 31, 2024).
Дополнительные файлы
