<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE root>
<article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:ali="http://www.niso.org/schemas/ali/1.0/" article-type="research-article" dtd-version="1.2" xml:lang="en"><front><journal-meta><journal-id journal-id-type="publisher-id">ARTIFICIAL INTELLIGENCE AND DECISION MAKING</journal-id><journal-title-group><journal-title xml:lang="en">ARTIFICIAL INTELLIGENCE AND DECISION MAKING</journal-title><trans-title-group xml:lang="ru"><trans-title>Искусственный интеллект и принятие решений</trans-title></trans-title-group></journal-title-group><issn publication-format="print">2071-8594</issn></journal-meta><article-meta><article-id pub-id-type="publisher-id">269741</article-id><article-id pub-id-type="doi">10.14357/20718594230403</article-id><article-id pub-id-type="edn">NELPQW</article-id><article-categories><subj-group subj-group-type="toc-heading" xml:lang="en"><subject>Computational Intelligence</subject></subj-group><subj-group subj-group-type="toc-heading" xml:lang="ru"><subject>Вычислительный интеллект</subject></subj-group><subj-group subj-group-type="article-type"><subject>Research Article</subject></subj-group></article-categories><title-group><article-title xml:lang="en">On Computational Efficiency of Knowledge Extraction by Probabilistic Algorithms</article-title><trans-title-group xml:lang="ru"><trans-title>О вычислительной эффективности извлечения знаний вероятностными алгоритмами</trans-title></trans-title-group></title-group><contrib-group><contrib contrib-type="author"><name-alternatives><name xml:lang="en"><surname>Vinogradov</surname><given-names>Dmitry V.</given-names></name><name xml:lang="ru"><surname>Виноградов</surname><given-names>Дмитрий Вячеславович</given-names></name></name-alternatives><address><country country="RU">Russian Federation</country></address><bio xml:lang="en"><p>Doctor of Physical and Mathematical Sciences, Leading Researcher</p></bio><bio xml:lang="ru"><p>доктор физико-математических наук, ведущий научный сотрудник</p></bio><email>KRRGuest@yandex.ru</email><xref ref-type="aff" rid="aff1"/></contrib></contrib-group><aff-alternatives id="aff1"><aff><institution xml:lang="en">Computer Science and Control Federal Research Center of the Russian Academy of Sciences</institution></aff><aff><institution xml:lang="ru">Федеральный исследовательский центр «Информатика и управление» РАН</institution></aff></aff-alternatives><pub-date date-type="pub" iso-8601-date="2023-12-15" publication-format="electronic"><day>15</day><month>12</month><year>2023</year></pub-date><issue>4</issue><issue-title xml:lang="en"/><issue-title xml:lang="ru"/><fpage>29</fpage><lpage>37</lpage><history><date date-type="received" iso-8601-date="2024-11-12"><day>12</day><month>11</month><year>2024</year></date><date date-type="accepted" iso-8601-date="2024-11-12"><day>12</day><month>11</month><year>2024</year></date></history><permissions><copyright-statement xml:lang="en">Copyright ©; 2023, ФИЦ ИУ РАН</copyright-statement><copyright-statement xml:lang="ru">Copyright ©; 2023,</copyright-statement><copyright-year>2023</copyright-year><copyright-holder xml:lang="en">ФИЦ ИУ РАН</copyright-holder></permissions><self-uri xlink:href="https://journals.rcsi.science/2071-8594/article/view/269741">https://journals.rcsi.science/2071-8594/article/view/269741</self-uri><abstract xml:lang="en"><p>The paper demonstrates computational efficiency of probabilistic approach to knowledge extraction through binary similarity operation. In addition to previously proved by the author the result on sufficiency of a polynomial number of hypotheses on causes of investigated target property, the paper contains a polynomial upper bound on mean working time of the algorithm to generate a single candidate for hypothesis. The proven result concerns a family of algorithms based on coupled Markov chains. To obtain a good estimate for the length of the trajectory (before entering the ergodic state) of such a chain, we needed to enrich the training sample by adding negative columns for existing binary features.</p></abstract><trans-abstract xml:lang="ru"><p>В статье доказана вычислительная эффективность вероятностного подхода к извлечению знаний с помощью бинарной операции сходства. В дополнении к ранее доказанному автором результату о достаточности полиномиального числа гипотез о причинах исследуемого целевого свойства, в настоящей работе дана полиномиальная верхняя оценка на среднее время работы алгоритма порождения одного кандидата в гипотезы. Доказанный результат касается семейства алгоритмов, основанных на спаривающих цепях Маркова. Чтобы получить хорошую оценку на длину траектории (до попадания в эргодическое состояние) такой цепи потребовалось обогатить обучающую выборку добавлением столбцов-отрицаний для существующих бинарных признаков.</p></trans-abstract><kwd-group xml:lang="en"><kwd>similarity</kwd><kwd>candidate</kwd><kwd>coupled Markov chain</kwd><kwd>average length of trajectory</kwd></kwd-group><kwd-group xml:lang="ru"><kwd>сходство</kwd><kwd>кандидат</kwd><kwd>спаривающая цепь Маркова</kwd><kwd>средняя длина траектории</kwd></kwd-group><funding-group/></article-meta></front><body></body><back><ref-list><ref id="B1"><label>1.</label><citation-alternatives><mixed-citation xml:lang="en">Finn V.K., Anshakov O.M. DSM-metod avtomaticheskogo porozhdeniya gipotez: Logicheskie i epistemologicheskie osnovaniya [JSM Method for Automatic Hypotheses Generation: Logical and Epistemological Foundations]. Moscow: Editorial URSS, 2009.</mixed-citation><mixed-citation xml:lang="ru">ДСМ-метод автоматического порождения гипотез: Логические и эпистемологические основания //Ред.: Финн В.К., Аншаков О.М.). М.: URSS. 2009. 432 c.</mixed-citation></citation-alternatives></ref><ref id="B2"><label>2.</label><citation-alternatives><mixed-citation xml:lang="en">Mill J.S. A System of Logic. Honolulu: University Press of the Pacific, 2002.</mixed-citation><mixed-citation xml:lang="ru">Милль Дж.Ст. Система логики силлогистической и индуктивной: Изложение принципов доказательства в связи с методами научного исследования. Пер. с англ. Изд. 5. М.: URSS. 2011. 832 c.</mixed-citation></citation-alternatives></ref><ref id="B3"><label>3.</label><citation-alternatives><mixed-citation xml:lang="en">Gusakova S.M., Finn V.K. Shodstva i pravdopodobnyj vyvod [Similarities and Plausible Inference]. Izvestia AN SSSR, Ser. «Technical cybernetics». 1987. No 5. P. 42–63.</mixed-citation><mixed-citation xml:lang="ru">Гусакова С.М., Финн В.К. Сходства и правдоподобный вывод // Известия АН СССР. Сер. «Техническая кибернетика». 1987. № 5. C. 42–63.</mixed-citation></citation-alternatives></ref><ref id="B4"><label>4.</label><citation-alternatives><mixed-citation xml:lang="en">Ganter B., Wille R. Formal Concept Analysis: Mathematical Foundations. Berlin: Springer, 1999.</mixed-citation><mixed-citation xml:lang="ru">Ganter, Bernhard and Wille, Rudolf. Formal Concept Analysis: Mathematical Foundations. Berlin: Springer–Verlag. 1999. 284 p.</mixed-citation></citation-alternatives></ref><ref id="B5"><label>5.</label><citation-alternatives><mixed-citation xml:lang="en">Vinogradov D.V. Random generation of hypotheses in the JSM method using simple Markov chains. Automatic Documentation and Mathematical Linguistics. 2012. No 46(5). P. 221–228.</mixed-citation><mixed-citation xml:lang="ru">Виноградов Д.В. Вероятностное порождения гипотез в ДСМ-методе с помощью простейших цепей Маркова // Научная и техническая информация. Сер. 2. 2012. № 9. C. 20–27.</mixed-citation></citation-alternatives></ref><ref id="B6"><label>6.</label><citation-alternatives><mixed-citation xml:lang="en">Kuznetsov S.O. A Fast Algorithm for Computing All Intersections of Objects in a Finite Semi-Lattice, Automatic Documentation and Mathematical Linguistics. 1993. No 27(5). P. 11-21.</mixed-citation><mixed-citation xml:lang="ru">Кузнецов С.О. Быстрый алгоритм построения всех пересечений объектов из нижней полурешетки // Научная и техническая информация. Сер. 2. 1993. № 1. C. 17–20.</mixed-citation></citation-alternatives></ref><ref id="B7"><label>7.</label><citation-alternatives><mixed-citation xml:lang="en">Vinogradov D.V. Algebraic Machine Learning: Emphasis on Efficiency. Automation and Remote Control. 2022. No 83(6). P. 831–846.</mixed-citation><mixed-citation xml:lang="ru">Виноградов Д.В. Алгебраическое машинное обучение: упор на эффективность // Автоматика и телемеханика. 2022. № 6. С. 5–23.</mixed-citation></citation-alternatives></ref><ref id="B8"><label>8.</label><citation-alternatives><mixed-citation xml:lang="en">Kemeny J.G., Snell J.L. Finite Markov chains. New York: Springer, 1976.</mixed-citation><mixed-citation xml:lang="ru">Кемени Дж., Снелл Дж. Конечные цепи Маркова. Пер. с англ. М.: Наука. 1970. 272 c.</mixed-citation></citation-alternatives></ref><ref id="B9"><label>9.</label><citation-alternatives><mixed-citation xml:lang="en">Vinogradov D.V. The VKF Method for Data Mining: a Survey of the State of the Art and Open Problems. Scientific and Technical Information Processing. 2018. No 45(6). P. 411–416.</mixed-citation><mixed-citation xml:lang="ru">Виноградов Д.В. ВКФ-метод интеллектуального анализа данных: обзор результатов и открытых проблем // Искусственный интеллект и принятие решений. 2017. № 2. C. 9–16.</mixed-citation></citation-alternatives></ref><ref id="B10"><label>10.</label><citation-alternatives><mixed-citation xml:lang="en">Vinogradov D.V. Markov Chains, Law of Total Probability, and Recurrence Relations. Automatic Documentation and Mathematical Linguistics. 2023. No 57(1). P. 68–72.</mixed-citation><mixed-citation xml:lang="ru">Виноградов Д.В. Цепи Маркова, формула полной вероятности и рекуррентные соотношения // Научная и техническая информация. Сер. 2. 2023. № 2. С. 35–39.</mixed-citation></citation-alternatives></ref></ref-list></back></article>
