Trust in Artificial Intelligence Technologies

Cover Page

Cite item

Full Text

Abstract

Trust in artificial intelligence is a key factor in the widespread introduction of intelligent technologies into the economy and social sphere. The article discusses various aspects of this problem. This is trust in knowledge and data, in artificial intelligence and machine learning models; risks and limits of applicability of the methods and technologies used; explainability of decisions and humanoriented artificial intelligence; primary validation and secondary validation (verification) of created systems; ChatGPT hallucinations and falsifications; ethical, legal and organizational aspects of the use of artificial intelligence.

About the authors

Вoris A. Kobrinsky

Computer Science and Control Federal Research Center of Russian Academy of Sciences; N. I. Pirogov Russian National Research Medical University

Author for correspondence.
Email: kba_05@mail.ru

Doctor of Medical Sciences, Professor, Honored Scientist of the Russian Federation, Head of the Department of Intelligent Decision Support System; Professor of the Department of Medical Cybernetics and Informatics named after S.A. Gasparyan

Russian Federation, Moscow; Moscow

References

  1. Ethics Guidelines for Trustworthy AI. URL: https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines.1.html (accessed April 12, 2022).
  2. Information technology — Artificial intelligence — Overview of trustworthiness in artificial intelligence. ISO/IEC TR 24028:2020. URL: https://www.iso.org/stand-ard/77608.html (accessed April 12, 2022).
  3. Calegari R., Ciatto G., Denti E., Omicini A. Logic-Based technologies for intelligent systems: State of the art and perspectives // Information. 2020. V. 11. No 3. Article ID 167.
  4. Calegari R., Ciatto G., Mascardi V., Omicini A. Logicbased technologies for multi-agent systems: a systematic literature review // Autonomus Agents and Multi-Agent Systems. 2021. V. 35. Article ID 1.
  5. Negro P., Pons C. Artificial Intelligence techniques based on the integration of symbolic logic and deep neural networks: A systematic review of the literature // Inteligencia Artificial. 2022. V. 25. No 69. P. 13–41.
  6. Kobrinskii B.A. Principy postroeniya gibridnoj medicinskoj lingvo-obraznoj sistemy [Principles of constructing a hybrid medical linguistic-image system] // Gibridnye i sinergeticheskie intellektual'nye sistemy: materialy VI Vserossijskoj Pospelovskoj konferencii s mezhdunarodnym uchastiem. Elektronnyj resurs: nauchnoe elektronnoe izdanie [Hybrid and synergetic intelligent systems: materials of the VI All-Russian Pospelov Conference with international participation. Electronic resource: scientific electronic publication. Kaliningrad: Publishing house Kant IKBFU. 2022. P. 171-177 (In Russian).
  7. O razvitii iskusstvennogo intellekta v Rossijskoj Federacii [On the development of artificial intelligence in the Russian Federation] // Ukaz Prezidenta RF ot 10 oktyabrya 2019 g. No 490 (s izmeneniyami i dopolneniyami) [Decree of the President of the Russian Federation of October 10, 2019, No 490 (with amendments and additions)]. Available at: https://base.garant.ru/72838946/ (accessed April 20, 2024) (In Russian).
  8. O vnesenii izmenenij v Ukaz Prezidenta Rossijskoj Federacii ot 10 oktyabrya 2019 g. No 490 «O razvitii iskusstvennogo intellekta v Rossijskoj Federacii» [On amendments to the Decree of the President of the Russian Federation of October 10, 2019 No 490 “On the development of artificial intelligence in the Russian Federation”] // Ukaz Prezidenta RF ot 15.02.2024 No124 [Decree of the President of the Russian Federation dated February 15, 2024, No 124] (accessed April 20, 2024 (In Russian).
  9. Larichev O.I. 2008. Teoriya i metody prinyatiya reshenij [Theory and methods of decision making]. Moscow: University Book, Logos. 392 p. (In Russian).
  10. Boehm B.W., Jain A. An initial theory of value-based software engineering // Value-based software engineering. Berlin, Heidelberg: Springer-Verlag, 2006. P. 15-37.
  11. Norsaremah S., Mendes E., Mendes F., Lekamlage Ch.D., Petersen K. Value-based software engineering: A systematic mapping study // e-Informatica software engineering journal. 2023. V. 17. No 1. Article ID 230106.
  12. Arioua A., Buche P., Croitoru M. Explanatory dialogs with argumentative faculties over inconsistent knowledge bases // Expert systems with applications. 2017. V. 80. No C. P. 244-262.
  13. Finn V.K. Iskusstvennyj Intellekt: Metodologiya, Primeneniya, Filosofiya [Artificial Intelligence: Methodology, Applications, Philosophy]. 2nd ed., rev. and suppl. Moscow: LENAND. 2021. 468 p.
  14. Born J., Beymer D., Rajan D., Coy A., Mukherjee V.V., Manica M., et al. On the role of artificial intelligence in medical imaging of COVID-19 // Patterns. 2021. V. 2. No. 6. Article ID 100269. doi: 10.1016/j.patter.2021.100269.
  15. Geraci J. Shattering cancer with quantum machine learning: A preview // Patterns. 2021. V. 2. No 6. P. 1-2. doi.org/10.1016/j.patter.2021.100281.
  16. Holzinger A., Müller H. Toward Human-AI interfaces to support explainability and causability in medical AI // Computer. 2021. V. 54. No 10. P. 78-86. doi: 10.1109/MC.2021.3092610.
  17. Phillips P.J., Hahn C.A., Fontana P.C., Broniatowski D.A., Przybocki M.A. Four principles of explainable artificial intelligence // National institute of standards and technology. Draft NISTIR 8312. 2020. URL: https://www.nist.gov/system/files/documents/2020/08/17/NIST%20Explainable%20AI%20Draft%20NISTIR8312%20%281%29.pdf (accessed January 30, 2024).
  18. Langer M., Oster D., Speith T., et al. What Do We Want from Explainable Artificial Intelligence (XAI)? A Stakeholder Perspective on XAI and a Conceptual Model Guiding Interdisciplinary XAI Research // Artificial Intelligence. 2021. V. 296. No 3. Article ID 103473. doi: 10.1016/j.artint.2021.103473.
  19. Marsala Ch., Bouchon-Meunier B. Fuzzy data mining and management of interpretable and subjective information // Fuzzy sets and systems. 2015. V. 281. P. 252-259. doi: 10.1016/j.fss.2015.08.021.
  20. Bouchon-Meunier B., Lesot M.J., Marsala C. Lotfi A. Zadeh, the visionary in explainable artificial intelligence // Turkic World Mathematical Society Journal and Applied Mathematics. 2021. V. 12. No 1, Special Issue. P. 5-13.
  21. Rifqi M., Bothorel S., Bouchon-Meunier B., Muller S. Similarity and prototype-based approach for classification of microcalcifications // Proceedings of the 7th IFSA World Congress. Prague. 1997. P. 123-128.
  22. Lurie A., Hartley S., Bouchon-Meunier B., Dusser D. Patients’ perception of astma severity // Respiratory Medicine. 2007. V. 101. No 10. P. 2145-2152. doi: 10.1016/j.rmed.2007.05.027.
  23. McKinsey & Company, Atlanta, GA, USA, 2021. URL: https://www. mckinsey.com/business-functions/mckinseyanalytics/our-insights/global-survey-the-state-of-ai-in2021 (accessed January 3, 2024).
  24. Morrison R. WHO urges caution over use of generative AI in healthcare // Tech Monitor May 16, 2023. URL: https://techmonitor.ai/technology/ai-and-automation/ai-inhealthcare-who (accessed May 31, 2024).).
  25. Gusev A.V., Astapenko E.M., Ivanov I.V., Zarubina T.V., Kobrinskii B.A. Principy formirovaniya doveriya k sistemam iskusstvennogo intellekta dlya sfery zdravoohraneniya [Principles of building trust in artificial intelligence systems for the healthcare sector] // Vestnik Roszdravnadzora [Bulletin of Roszdravnadzor]. 2022. V. 2. P. 25–33 (In Russian).
  26. Petersen E., Holm S., Ganz M., Feragen A. The path toward equal performance in medical machine learning // Patterns. 2023. V. 4. No 7. Article ID 100790. doi: 10.1016/j.patter.2023.100790.
  27. Larrazabal A.J, Nieto N., Peterson V., Milone D.H, Ferrante E. Gender imbalance in medical imaging datasets produces biased classifiers for computer-aided diagnosis // Proceedings of the National Academy of Sciences of the United States of America. 2020. V. 117. No 23. P. 12592-12594. doi: 10.1073/pnas.1919012117.
  28. Motwani A., Shukla P.K., Pawar M. Ubiquitous and smart healthcare monitoring frameworks based on machine learning: A comprehensive review // Artificial Intelligence in Medicine. 2022. V. 134. No C. Article ID 102431. doi.org/10.1016/j.artmed.2022.102431.
  29. Xu J., Xiao Y., Wang W.H., Ning Y., Shenkman E.A., Bian J., Wang F. Algorithmic fairness in computational medicine // eBioMedicine. 2022. V. 84. No 3. Article ID 104250. doi: 10.1016/j.ebiom.2022.104250.
  30. Wynants L., Van Calster B, Collins G. S., Riley R. D., Heinze G., Schuit E., et al. Prediction models for diagnosis and prognosis of covid-19: systematic review and critical appraisal // BMJ. 2020. V. 369. Article ID m1328. doi: 10.1136/bmj.m1328.
  31. Roberts M., Driggs D., Thorpe M., Gilbey J., Yeung M., Ursprung S. et al. Common pitfalls and recommendations for using machine learning to detect and prognosticate for COVID-19 using chest radiographs and CT scans // Nature Machine Intelligence. 2021. V. 3. P. 199–217. doi.org/10.1038/s42256-021-00307-0.
  32. Wong A., Otles E., Donnelly J.P., Krumm A., McCullough J., DeTroyer-Cooley O. et al. External validation of a widely implemented proprietary sepsis prediction model in hospitalized patients // JAMA Internal Medicine. 2021. V. 181. No 8. Article ID 1144. doi: 10.1001/jamainternmed.2021.2626.
  33. Tahaei M., Constantinides M., Quercia D., Muller M. A Systematic literature review of human-centered, ethical, and responsible AI // arXiv. 2023. Article ID 2302.05284v3. doi.org/10.48550/arXiv.2302.05284.
  34. Cheruvu R. Unconventional concerns for human-centered artificial intelligence // Computer. 2022. V. 55. No 7. P. 46-55. doi: 10.1109/MC.2022.3170423.
  35. Shneiderman B. Human-centered artificial intelligence: reliable, safe & trustworthy // arXiv. 2020. Article ID 2002.04087v2. doi.org/10.48550/arXiv.2002.04087.
  36. Steyerberg E.W., Vergouwe Y. Towards better clinical prediction models: Seven steps for development and an ABCD for validation // European Heart Journal. 2014. V. 35. No. 29. P. 1925–1931. doi: 10.1093/eurheartj/ehu207.
  37. Yoon J.H., Pinsky M.R., Clermont G. Artificial Intelligence in Critical Care Medicine // Critical care. 2022. V. 26. Article ID 75. doi.org/10.1186/s13054-022-03915-3.
  38. Scheek D., Rezazade Mehrizi M.H., Ranschaert E. Radiologists in the loop: The roles of radiologists in the development of AI applications // European radiology. 2021. V. 31. No 10. P. 7960-7968. doi: 10.1007/s00330-021-07879-w.
  39. Recht M.P., Dewey M., Dreyer K., et al Integrating artificial intelligence into the clinical practice of radiology: challenges and recommendations // European radiology. 2020. V. 30. No 6. P. 3576–3584. doi.org/10.1007/s00330-020-06672-5.
  40. Van Assen M., Lee S.J., De Cecco C.N. Artificial intelligence from A to Z: from neural network to legal framework // European Journal of Radiology. 2020. V. 129. Article ID 109083. doi.org/10.1016/j.ejrad.2020.109083.
  41. Wiggins W.F., Caton M.T., Magudia K., et al. Preparing radiologists to lead in the era of artificial intelligence: designing and implementing a focused data science pathway for senior radiology residents // Radiology: Artificial Intelligence. 2020. V. 2. No. 6. Article ID e200057. doi.org/10.1148/ryai.2020200057.
  42. Winter P., Carusi A. ‘If you’re going to trust the machine, then that trust has got to be based on something’: Validation and the co-constitution of trust in developing artificial intelligence (AI) for the early diagnosis of pulmonary hypertension (PH) // Science & Technology Studies. 2022. V. 35. No 4. Р. 58-77.
  43. Shaderkin I.A. Slabye storony iskusstvennogo intellekta v medicine [Weaknesses of artificial intelligence in medicine] // Rossijskij zhurnal telemediciny i elektronnogo zdravoohraneniya [Russian Journal of Telemedicine and eHealth] 2021. V. 7 (2). P. 50-52.
  44. Kumar M., Mani U.A., Tripathi P., Saalim M., Roy S. Artificial hallucinations by google bard: Think before you leap // Cureus. 2023. V. 15. No 8. Article ID e43313. doi.10.7759/cureus.43313/
  45. Ji Z., Lee N., Frieske R., Yu T., Su D., Xu Y.б et al. Survey of hallucination in natural language generation // arXiv. 2024. Article ID 2202.03629v6. doi.org/10.48550/arXiv.2202.03629.
  46. Alkaissi H., McFarlane S. Artificial hallucinations in ChatGPT: Implications in scientific writing // Cureus. 2023. Vol. 15. No 2. Article ID e35179. doi: 10.7759/cureus.35179.
  47. Emsley R. ChatGPT: these are not hallucinations – they’re fabrications and falsifications // Schizophrenia. 2023. V. 9. No 1. Article ID 52. doi.org/10.1038/s41537-023-00379-4.
  48. Sistemy iskusstvennogo intellekta. Sposoby obespecheniya doveriya. Obshchie polozheniya. GOST R 59276-2020 [Artificial intelligence systems. Ways to ensure trust. General provisions. // State standard (GOST) R 59276-2020. 2020. Available at: https://protect.gost.ru/v.aspx?control=8&baseC=-1&page=0&month=-1&year=1&search=&RegNum=1&DocOnPageCount=15&id=229230&pageK=2B37ADDB-BC6E49CA-BA3A-9BADD9DF859F (accessed March 20, 2024). (In Russian).
  49. Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology (US). 2023. 42 p. doi.org/10.6028/NIST.AI.100-1 (accessed March 22, 2024).
  50. Artificial Intelligence: An Accountability Framework for Federal Agencies and Other Entities. Washington // GAO@100. 112 p. URL: https://www.gao.gov/prod-ucts/gao-21-519sp (accessed April 12, 2024).
  51. The Assesment List for Trustworthy Artificial Intelligence (ALTAI) for self-assessment. European Commission. B1049 Brussels, 2020. Available at: https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment (accessed April 10, 2024).
  52. Azilomarskie principy iskusstvennogo intellekta [Asilomar AI Principles. Al News] // RoboTrends. 2017. Available at: https://www.artificial-intelligence.blog/news/asilomar-ai-principles. (accessed April 10, 2024) (In Russian).
  53. Kodeks etiki v sfere iskusstvennogo intellekta [Code of Ethics in the Field of Artificial Intelligence]. 2021. Available at: https://ethics.a-ai.ru (accessed January 20, 2024). (In Russian).
  54. Information technology – Artificial intelligence – Guidance on risk management // ISO/IEC 23894:2023. 2023. URL: https://www.iso.org/obp/ui/en/#iso:std:iso-iec:23894:ed1:v1:en (accessed April 2, 2024).
  55. Recommendation of the Council on Artificial Intelligence. 2024. Legal Instruments // OECD/LEGAL/0449. URL: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449 (accessed May 31, 2024).

Supplementary files

Supplementary Files
Action
1. JATS XML

Согласие на обработку персональных данных с помощью сервиса «Яндекс.Метрика»

1. Я (далее – «Пользователь» или «Субъект персональных данных»), осуществляя использование сайта https://journals.rcsi.science/ (далее – «Сайт»), подтверждая свою полную дееспособность даю согласие на обработку персональных данных с использованием средств автоматизации Оператору - федеральному государственному бюджетному учреждению «Российский центр научной информации» (РЦНИ), далее – «Оператор», расположенному по адресу: 119991, г. Москва, Ленинский просп., д.32А, со следующими условиями.

2. Категории обрабатываемых данных: файлы «cookies» (куки-файлы). Файлы «cookie» – это небольшой текстовый файл, который веб-сервер может хранить в браузере Пользователя. Данные файлы веб-сервер загружает на устройство Пользователя при посещении им Сайта. При каждом следующем посещении Пользователем Сайта «cookie» файлы отправляются на Сайт Оператора. Данные файлы позволяют Сайту распознавать устройство Пользователя. Содержимое такого файла может как относиться, так и не относиться к персональным данным, в зависимости от того, содержит ли такой файл персональные данные или содержит обезличенные технические данные.

3. Цель обработки персональных данных: анализ пользовательской активности с помощью сервиса «Яндекс.Метрика».

4. Категории субъектов персональных данных: все Пользователи Сайта, которые дали согласие на обработку файлов «cookie».

5. Способы обработки: сбор, запись, систематизация, накопление, хранение, уточнение (обновление, изменение), извлечение, использование, передача (доступ, предоставление), блокирование, удаление, уничтожение персональных данных.

6. Срок обработки и хранения: до получения от Субъекта персональных данных требования о прекращении обработки/отзыва согласия.

7. Способ отзыва: заявление об отзыве в письменном виде путём его направления на адрес электронной почты Оператора: info@rcsi.science или путем письменного обращения по юридическому адресу: 119991, г. Москва, Ленинский просп., д.32А

8. Субъект персональных данных вправе запретить своему оборудованию прием этих данных или ограничить прием этих данных. При отказе от получения таких данных или при ограничении приема данных некоторые функции Сайта могут работать некорректно. Субъект персональных данных обязуется сам настроить свое оборудование таким способом, чтобы оно обеспечивало адекватный его желаниям режим работы и уровень защиты данных файлов «cookie», Оператор не предоставляет технологических и правовых консультаций на темы подобного характера.

9. Порядок уничтожения персональных данных при достижении цели их обработки или при наступлении иных законных оснований определяется Оператором в соответствии с законодательством Российской Федерации.

10. Я согласен/согласна квалифицировать в качестве своей простой электронной подписи под настоящим Согласием и под Политикой обработки персональных данных выполнение мною следующего действия на сайте: https://journals.rcsi.science/ нажатие мною на интерфейсе с текстом: «Сайт использует сервис «Яндекс.Метрика» (который использует файлы «cookie») на элемент с текстом «Принять и продолжить».