Development of an imagery representation apparatus for information representation in neyromorphic devices
- Autores: Simonov N.А.1
-
Afiliações:
- Valiev Institute of Physics and Technology, Russian Academy of Sciences
- Edição: Volume 53, Nº 5 (2024)
- Páginas: 427-438
- Seção: NEUROMORPHIC SYSTEMS
- URL: https://journals.rcsi.science/0544-1269/article/view/281176
- DOI: https://doi.org/10.31857/S0544126924050086
- ID: 281176
Citar
Texto integral
Resumo
The paper considers the application of the mathematical apparatus of spots for neuromorphic devices on crossbars of memory elements, the architecture of which corresponds to the technique of computing in memory. The apparatus of spots allows to represent and process semantic information in the form of mental imagery, as well as to model reasoning in a form inherent to a person. In particular, these are deductive, inductive, abductive, as well as non-monotonic reasoning, when conclusions are made on the basis of existing knowledge, and obtaining new knowledge can change the conclusions. The apparatus of spots is the mathematical basis for creating neuromorphic devices with the technique of computing in memory, capable of not only representing semantic information in an imaginary form, but also modeling imaginative thinking. This will solve a major problem for modern deep neural networks associated with the possibility of random, causeless errors.
Palavras-chave
Texto integral
1. Введение
Нейроморфные системы, включающие искусственные нейронные сети, – это вычислительные устройства, архитектура которых основана на принципах биологических нервных систем и отличается от обычной архитектуры фон Неймана. Структуры из искусственных нейронов и синапсов могут быть реализованы в электронной среде, например, на КМОП технологии (комплементарный металло-оксид-полупроводник) с использованием ячеек статической памяти с произвольным доступом [1] или транзисторов с плавающим затвором [2]. В настоящее время рассматривается перспективным применение в нейроморфных процессорах новых элементов энергонезависимой памяти, таких как, мемристоров и FeFET-транзисторов. Они перспективны для технологии СБИС (сверхбольших интегральных схем), обладают чрезвычайно низкими потерями переключения и более быстрыми операциями чтения/записи [3].
Однако существуют и ограничения для применения мемристоров и FeFET транзисторов в нейроморфных устройствах, и они связаны с тем, что ресурс переключения у этих элементов мал по сравнению с ресурсом для КМОП-транзисторов. Поэтому рассматриваемые элементы памяти не могут заменить классические КМОП-транзисторы, работающие в режиме переключения с частотой нескольких гигагерц. Тем не менее, мемристоры и FeFET могут применяться в качестве энергонезависимых элементов памяти с малой скоростью переключения, предназначенных для создания программируемых КМОП логических ячеек, формируя адаптивную архитектуру нейроморфных процессоров.
Современные глубинные нейронные сети (ГНС) построены на модели нейрона, основанной на применении численных преобразований, а обучение ГНС – на использовании численных оптимизационных стохастических методов. Это, в принципе, неадекватно природе человеческого мышления, которое основано на образном представлении и образно-логической обработке информации с использованием ментальных образов в процессе мышления [4]. Так как численные значения входных и выходных сигналов для традиционных искусственных нейронов не имеют прямой связи с семантикой (смыслом) объектов моделирования, это создает большую проблему современных ГНС: возможность появления ничем не обусловленных, неожиданных (глупых) и неустранимых ошибок при распознавании (классификации) образов [5]. Этим объясняется и особенность природы таких ошибок, когда, даже при наличии четких изображений для нейронных сетей всегда существует вероятность случайных ошибок, что представляет особенную опасность применения ГНС в областях, связанных с безопасностью и здоровьем людей [5]. Другим свидетельством проблемы ГНС является, например, тот факт. что в течение последних четырех лет ошибка классификации изображений базы ImageNet для лучших систем ГНС, обученных на суперкомпьютерах, практически не менялась, оставаясь близкой 10% [6].
Для обеспечения гибкости и надежности работы нейроморфных процессоров необходимо применение методов представления и обработки информации, близкими к восприятию и мышлению, свойственным человеку. Несомненно, это соответствует задаче создания интеллектуальных систем, способных представлять информацию в образном виде и осуществлять ее обработку в форме образного мышления. Область исследований «когнитивное моделирование» направлено на имитацию человеческого интеллекта, и рассматривается как подход к созданию сильного искусственного интеллекта (ИИ) [7]. Несомненно, для этой задачи представляется перспективным применение концепции ментальных образов и разработка специального математического аппарата для представления и обработки семантической информации в образной форме.
Были предложены ряд неклассических, когнитивных логик, которые могли бы быть близки к логике рассуждений человека. Например, В. К. Финном был разработал ДСМ-метод автоматического порождения гипотез, рассуждений и принятия решений [8, 9]. P. Wang [10] предложил модель Non-Axiomatic Reasoning System (NARS).
Ж. Адамар [11] поделился самонаблюдениями о том, что происходит в уме, когда он начинал строить или понимать математическое рассуждение. «Если я должен думать о каком‑нибудь силлогизме, я о нем думаю не словами – слова мне не позволили бы понять, правилен ли силлогизм или ложен, … а с помощью интерпретации какими‑то пятнами неопределенной формы.»
В работе [12] предложена математическая модель пятен, которая является адекватной для моделирования ментальных образов. Математический аппарат пятен описан в работе [13], а в статье [14] показана возможность их применения для представления образов и ментальной активности. Следовательно, предложенный там подход соответствует задаче создания интеллектуальных систем, способных не только представлять информацию в образной форме, но и моделировать образное мышление.
2. Представление ментальных образов с помощью пятен
Ментальные (вторичные) образы – это абстрактное понятие, позволяющее описать структуру семантической информации, хранящейся в памяти человека. Концепция образов применяется в психологии и когнитивистике, и она играет важнейшую роль не только в восприятии, но и в памяти, эмоциях, языке, желаниях и действиях-исполнениях [15].
Ментальные образы обладают элементарными пространственными свойствами [4, 14]. Аппарат пятен позволяет формировать пространственно-структурное представление образов и образной сферы человека в психологии, а также – образного представления семантической информации в области ИИ [14]. В частности, предлагаемая модель позволяет адекватно отображать такие свойства образов как многомерность, многоуровность, полимодальность, а также – внести понимание в сохраняющуюся еще до настоящего времени концептуальную неопределенность трактовки рубежа между образом и мыслью [16].
Поскольку аппарат L4 чисел подробно описан в предыдущих работах, мы кратко изложим основное содержание и раскроем смыслы введенных там понятий. «Пятно» – это математический объект, для которого определено понятие логической связи между пятнами. Для пятен a и b логическая связь ab является булевой величиной и подчиняется двум аксиомам:
(1)
(2)
Вводится понятие нулевого пятна , которое определяется аксиомой
(3)
Для пятен также вводится понятие окружения пятна, которое тоже является пятном. Окружение пятна a подчиняется трем аксиомам:
(4)
(5)
(6)
Для пятен, как и для геометрических тел, определены операции объединения и пересечения , позволяющие формировать новые пятна. Заметим, что в применении к моделированию образов, операцию объединения можно применять для формирования обобщающего образа, а операцию пересечения – для увеличения фрагментарности и детализации образа. Например, диаграмма рис. 1 иллюстрирует разбиение пятен a и b на части A, B, C при пересечении. Эти части и окружение D можно выразить через операцию пересечения следующим образом:
(7)
Информация о пятне задается сравнением его с другими пятнами, совокупность которых мы называем базисом пятен. Это сравнение на элементарном уровне можно осуществить, например, с помощью указанных качественных данных как раздельность, пересечение, включение или часть. Совокупность таких качественных данных мы называем элементарными пространственными отношениями пятен (ЭПО) [12, 13]. Следует отметить, что в аппарате пятен ЭПО кодируются не с помощью действительных чисел, а с помощью 2×2 логических матриц, которые мы назвали L4 числами.
Для пятен a, b и их окружений , L4 число <> определяется как таблица
где ab, … обозначают логические связи, а A, B, C и D обозначают выраженные в логических величинах части пересечений пятен a, b и их окружений (рис. 1). Такие L4 числа, в принципе, позволяют различать 16 различных ЭПО между пятнами. Примеры ЭПО и соответствующие им L4 числа приведены в табл. 1 и проиллюстрированы на рис. 2.
Таблица 1. L4 числа для некоторых ЭПО.
ЭПО: | |
Пересечение, | |
Раздельность, | |
Включение, | |
Часть, | |
Включение, | |
Неразличимость, |
Рис. 2. Диаграмма Эйлера-Венна для пересечений пятен, иллюстрирующая геометрический смысл введенных L4 чисел для ЭПО между двумя пятнами: (а) пересечение пятен a и b; (б) раздельность пятен a и b; (в) включение b в a; (г) включение a в b.
Мы называем эти отношения элементарными пространственными отношениями, так как они несут качественную информацию самого низкого уровня о пятнах. Тем не менее, достаточно большое количество таких качественных данных, полученных сравнением пятна с пятнами базиса, т.е. некоторой совокупности пятен, позволяет извлекать информацию более высокого уровня, включая численную [13]. Базис пятен будем называть структурой пятен, если между всеми пятнами этого базиса заданы ЭПО.
Семантика ЭПО между двумя пятнами определяется объектами, которые моделируют эти пятна (например, образы, гранулы, геометрические тела), а также - диаграммами Эйлера, которые представляют эти ЭПО [14].
Отношение между пятном и каким‑либо базисом пятен назовем отображением пятна на этом базисе. Оно представляется с помощью L4 вектора, в котором координатами являются L4 числа, соответствующие его ЭПО с пятнами базиса [13]. Например, L4 вектор пятна a, представленный на базе , определяется как
𝒂𝑋≡[⟨𝑎|𝑥1⟩; ⟨𝑎|𝑥2⟩;…; ⟨𝑎|𝑥𝑛⟩],
где n - количество пятен в базисе X.
Отношение между двумя базисами пятен X и Y определяется с помощью L4 матрицы A = ⟨Y | X⟩, которая имеет в качестве элементов - ЭПО между пятнами базисов и [13]:
⟨𝑌|𝑋⟩≡[⟨𝑦𝑗|𝑥𝑖⟩]=[(𝒚1)𝑋; (𝒚2)𝑋;…; (𝒚𝑛)𝑋]
Здесь - L4 векторы-строки пятен , представленные на базисе X.
С помощью L4 матриц можно осуществлять трансформацию отображения пятна из одного базиса на другой. Такая трансформация находится с помощью математической операции произведения L4 матрицы A на L4 вектор а, результатом которого является новый L4 вектор b:
b = A · a (8)
Для пятен были разработаны правила умножения L4 матрицы и L4 вектора [13]. Проверка математического аппарата была проведена на задачах реконструкции изображений исследуемых фигур по данным их ЭПО с базисными фигурами, в качестве которых использовались сканирующие квадраты или круги с малым шагом сканирования (см. [13], рис. 4-12). Пример такой реконструкции формы плохо структурированного изображения звезды приведен на рис. 3.
Рис. 3. Пример реконструкции плохо структурированного изображения звезды: (а) изображение звезды в виде случайным образом расположенных точек внутри ее контура; (б) восстановление формы звезды по данным ЭПО изображения (а) со сканирующим кругом, изображенном на рисунке (б), с малым периодом.
3. Образное представление семантической информации
Пятна позволяют моделировать ментальные образы, которые напрямую связаны с семантикой, то есть со смысловым содержанием информации. Следовательно, с помощью аппарата пятен семантическая информация может быть представлена в образной форме. При этом в модели рассуждений, основанных на аппарате пятен, возможно использование, в частности, немонотонной логики, когда выводы делаются на основе имеющихся знаний, а новые знания могут изменить выводы [14].
Таким путем формируется структура пятен, изоморфнаая системе образов в образной сфере человека [4]. С другой стороны, возможно применение концепции образов за пределами психических процессов человека, например, в областях ИИ и нейроморфных устройств. Следовательно, аппарат пятен позволяет кодировать представление семантической информации в образной форме и создание на этой базе модели абстрактного семантического информационного пространства.
Для моделирования образов необходимо поставить им в соответствие пятна, а отношения между образами представить в форме ЭПО между этими пятнами. Так как смысл образа или понятия определяется системой его отношений с другими образами (понятиями), отображение пятна на базисе представляет смысл образа или суждение о нем. При этом, внутренняя структура пятна представляет степень фрагментарности образа [14]. Аппарат пятен дает возможность многомерного пространственного представления образов [17], что также применимо для формирования семантического пространства в области ИИ.
4. Немонотонная логика и каузальные рассуждения в представлении пятен
Математический аппарат пятен позволяет моделировать различные психологические понятия и процессы, такие как дифференциация и обобщение образов, внимание, апперцепция и дискриминативная способность мозга [17]. Он также позволяет создать вычислительно-когнитивную модель ментальных образов, которая не противоречит ABQT теории (attention-based quantification theory) [18].
Как показано в работе [14], аппарат пятен способен моделировать различные категории рассуждений, включая немонотонные рассуждения. Действительно, для ментальных образов L4 векторы моделируют смыслы или суждение об этих образах, а L4 матрицы - правила вывода, основанные на знании об отношениях между двумя системами образов. Разработанный математический аппарат моделирует рассуждения с помощью произведение L4 матрицы A и L4 вектора a (8) [14]. То есть, рассуждение можно представить в виде
b = A . a ⇔ a ↼A b (9)
где a - посылка, L4 матрица A - правило вывода, основанное на знании, а b - следствие или вывод. В частности, (9) соответствует рассуждениям с использованием немонотонной логики, когда выводы делаются на базе существующих знаний, а получение новых знаний может изменить вывод [19].
Однако равенство (9) может описывать и классические категории рассуждений, например, дедуктивные. Чтобы это продемонстрировать, рассмотрим простой пример дедуктивного рассуждения.
a) Правило: все собаки - животные.
b) Посыл: все щенки - собаки.
c) Вывод: все щенки - животные.
Покажем возможность моделирования этого дедуктивного рассуждения с помощью равенства
𝒂𝑌 = ⟨𝑌|𝑋⟩ 𝒂𝑋 (10)
Здесь используются следующие обозначения: щенки - пятно a, собаки - базис X, состоящий из одного пятна x, а животные - базис Y, состоящий из одного пятна y. Тогда L4 векторы , и L4 матрица ⟨𝑌|𝑋⟩ будут состоять из одного L4 числа: 𝒂𝑋=⟨𝑎|𝑥⟩, 𝒂𝑌=⟨𝑎|𝑦⟩, а L4 матрица ⟨𝑌|𝑋⟩ = ⟨𝑦|𝑥⟩. Из условий a), b), c) следует, что пятно a является частью пятна x, а пятно x является частью пятна y. Тогда из табл. 1 следует:
,
Применяя формулу (11) работы [13], получим null, что соответствует выводу, что a является частью пятна y. Следовательно, мы получили результат дедуктивного вывода: все щенки - животные.
Покажем теперь, что аппарат пятен способен также моделировать индуктивные и абдуктивные рассуждения. Эти категории рассуждений основываются на анализе отдельных случаев и стремлении их обобщения (индукция) или объяснения (абдукция) [20]. На языке аппарата пятен (равенство (10)) эти рассуждения соответствуют следующим задачам.
1) Индукция: по набору данных найти матрицу ⟨𝑌|𝑋⟩, которая удовлетворяет выводу, представленному равенством (10).
2) Абдукция: найти матрицу ⟨𝑋|𝑌⟩, чтобы по данным следствия 𝒂𝑋 = [⟨𝑎|𝑥𝑖⟩] определить их причину 𝒂𝑋 = [⟨𝑎|𝑥𝑖⟩]. Это соответствует задаче, обратной (10):
𝒂𝑋 = ⟨𝑋|𝑌⟩ 𝒂𝑌 (11)
где матрица 𝑨−1 = ⟨𝑋|𝑌⟩ - обратна матрице 𝑨 = ⟨𝑋|𝑌⟩ [13].
Следует отметить, что в рамках модели пятен, в общем случае, индуктивное рассуждение аналогично задаче обучения, а абдуктивное рассуждение - решению задачи, обратной (10), методом обучения [13]. Действительно, индуктивное рассуждение можно записать с помощью равенства (10) c использованием следующего представления [14]:
⟨𝑌|𝑋⟩ = 𝒀−𝟏∙𝒀∙𝑿−1∙𝑿 (12)
где матрицы X и Y сформированы из L4 векторов , заданных на соответствующих атомарных базисах:
, (13)
Обратная L4 матрица определяется как транспонированная матрица X, у которой элементы в форме L4 чисел тоже транспонированы. Для абдуктивного рассуждения (11) L4 матрица ⟨𝑋|𝑌⟩определяется аналогично (12):
⟨𝑌|𝑋⟩ = X−1 .X . Y−1 . Y (14)
где X и Y матрицы также определяются равенствами (13).
Для решения задач (10) и (11) нужно применять общие правила умножения L4 матрицы на L4 вектор. Для уравнения (10) это правило определяется следующим выражением [13]:
𝒂𝑌 = ⟨𝑌|𝑉⟩∙⟨𝑉|𝑊⟩∙⟨𝑊|𝑈⟩∙⟨𝑈|𝑋⟩ 𝒂𝑋 (15)
Здесь базис состоит из пересечений пятен , - базис пересечений пятен , а - базис пересечений пятен базисов U и V. Уравнение (15) следует рассматривать как серию преобразований от одного базиса к другому, а именно:
а) 𝒂𝑈 = ⟨𝑈|𝑋⟩ 𝒂𝑋, б) 𝒂𝑊 = ⟨𝑊|𝑈⟩ 𝒂𝑈,
в) 𝒂𝑉 = ⟨𝑉|𝑊⟩ 𝒂𝑊, г) 𝒂𝑌 = ⟨𝑌|𝑉⟩ 𝒂𝑉. (16)
Векторы и вычисляются по формулам (11), (12) работы [13], а векторы и - по формулам (15), (16) той же работы.
Следует отметить, что так как формулы (15), (16) работы [13] являются приближенными, то правило умножения (15) тоже приближенное, но близкое к оптимальному алгоритму обработки качественных данных. Последнее подтверждается примерами реконструкции формы фигур по данным их ЭПО с базисными фигурами (рис. 3, [13], рис. 4-12). Из равенства (15) следует, что для уравнения (11) общее правило умножения для L4 матрицы и вектора можно представить в виде
𝒂𝑋 ≅ ⟨𝑋|𝑈⟩∙⟨𝑈|𝑊⟩∙⟨𝑊|𝑉⟩∙⟨𝑉|𝑌⟩ 𝒂𝑌 (17)
где расчет вектора в (17) является приближенным решением задачи, которая является обратной задаче (15).
Следует напомнить, что равенство (9) описывает более широкий класс рассуждений, не сводится только к перечисленным классическим категориям, а является общей формулой и для рассуждений, относящимся к немонотонным и каузальным (причинно-следственным) рассуждениям [19, 21]. Заметим, что формулы (15) и (17) описывают рассуждения, которые включают этапы анализа и синтеза. Например, равенство а) в (16) моделируют мыслительную операцию анализа, а равенство в) там же - синтеза.
5. Представление аппарата пятен в форме булевых функций для нейроморфных устройств
L4 числа можно кодировать с помощью булевых функций (БФ), если отобразить эти функции с помощью таблицы истинности в форме карты Карно [22]. При этом нужно использовать следующее правило:
L4 число представляется такой логической функцией двух переменных, для которой карта Карно совпадает с 2×2 логической матрицей, соответствующей этому L4 числу.
Аналогичным образом, можно описать и операции матрично-векторного умножения, заменяя формулу (8) на БФ многих переменных. Очевидно, предлагаемый подход позволит значительно упростить применение аппарата пятен для создания нейроморфных систем, способных представлять и обрабатывать семантическую информацию в форме ментальных образов [14, 23]. Такие нейроморфные устройства, которые, будем называть образно-логическими, относятся к категории объяснимого искусственного интеллекта, так как матрично-векторное умножение (8) всегда можно связать с семантикой (смыслом).
Примеры представления L4 чисел ⟨𝑎|𝑏⟩ с помощью БФ F(a,b) логических переменных a · b, приведены в табл. 2. В общем случае, произвольное L4 число можно кодировать булевой функцией, которую мы обозначим как
L4 (α,a,b):
где - логический вектор, а символы «.» и «+» обозначают логические операции конъюнкции и («и») дизъюнкции («или»).
Таблица 2. Примеры кодирования L4 чисел булевыми функциями
⟨𝑎|𝑏⟩ | F(a,b) |
a · b | |
ā · b | |
Как следует из (18), значения элементов L4 числа или, что тоже самое, элементов логического вектора можно определить с помощью таблицы истинности булевой функции L4(α,a,b) (табл. 3).
Таблица 3. Таблица истинности булевой функции L4(α,a,b)
𝒶 | 𝒷 | 𝐿4(𝛼,𝒶,𝒷) |
0 | 0 | |
0 | 1 | |
1 | 0 | |
1 | 1 |
Рассмотрим, например, представление в форме БФ матричного уравнения
𝒂𝑋 = ⟨𝑋|𝑈⟩∙𝒂𝑈 (19)
где - произвольный базис пересекающихся пятен, а - атомарный базис, в качестве которого можно рассматривать совокупность фрагментов пятен . По определению,
𝒂𝑈 = [⟨𝑎|𝑢1⟩; ⟨𝑎|𝑢2⟩…⟨𝑎|𝑢𝑁⟩],
𝒂𝑋 = [⟨𝑎|𝑥1⟩; ⟨𝑎|𝑥2⟩…⟨𝑎|𝑥𝑛⟩] (20)
L4 вектор (20) определяется формулами (11) и (12) работы [13]. В частности, формулу (11) указанной работы для L4 числа ⟨𝑎|𝑥𝑘⟩𝑈 можно представить с помощью БФ FU (α,βk β,a,b):
⟨a│xk⟩ U ⇒ FU (α,β,a,𝓍)=∑(i=1)N L4(αi,a,1)·L4(βki,x,1) (21)
где введены следующие логические векторы:
α = (α1,α2,…αN ) βk = (βk1,βk2,…βkN ) (22)
Получим теперь выражения для представления в форме булевых функций матричного уравнения, которое обратное уравнению (19):
aU=⟨U│X⟩·aX (23)
где L4 векторы и представлены равенствами (20), а L4 числа ⟨𝑎|𝑢𝑘⟩ определяются равенством (15) работы [13]. Для этого сначала преобразуем формулу (15) указанной работы в следующее эквивалентное представление:
⟨𝑎|𝑢𝑘⟩ (24)
где
(25)
Тогда правило матричного умножения (23)-(25) можно преобразовать в форму следующей БФ
(26)
где - логический вектор, а логические переменные определяются следующими формулами:
Логические переменные и в (27) определяются как:
(28)
которые также используются в следующие преобразования L4 чисел с помощью БФ:
L4 (βi, a, x) = βi1 · a · x +βi2· a · x ̅+ βi3 ·a ̅· x + βi4· a ̅· x ̅
L4 (γik, x, u ) = γik1 · x · u + γik2 · x · u ̅+ γik3 · x ̅ · u + γik4 · x ̅· u ̅
6. Возможность реализации аппарата пятен в нейроморфных устройствах
Реализация образно-логических нейроморфных устройств возможна, например, на программируемых логических матрицах (ПЛМ) или на новых перспективных элементах памяти - мемристорах и FeFET-транзисторах [24, 25]. Указанные элементы обладают энергонезависимой памятью, чрезвычайно низкими потерями переключения и более быстрыми операциями чтения/записи. Мемристоры и FeFET-транзисторы обладают также уникальным свойством, позволяющим хранить и использовать логику в одном устройстве. Нейроморфные устройства, построенные с применением этих перспективных элементах памяти, реализуют концепцию вычислений в памяти, что позволяет значительно ускорить работу систем за счет сокращения передачи данных между вычислениями и памятью, обеспечивая максимальный параллелизм вычислений [24, 25].
При моделировании, например, уравнения (19) с помощью БФ L4 векторы и будут играть роль входных и выходных данных. При этом будет кодироваться с помощью логических векторов αi , а L4 матрица ⟨𝑿|𝑼⟩ должна храниться в ячейках памяти в форме логических векторов (22). Результат матричного умножения вычисляется с помощью БФ FU (α, β, a, x) (21). Аналогично, для представления уравнения (23) с помощью БФ, L4 матрицу ⟨𝑼|𝑿⟩, ее необходимо хранить в ячейках памяти в форме логических векторов γik (27), а результат матричного умножения вычислять с помощью БФ (26)-(28).
Математический аппарат пятен в форме БФ можно, например, реализовать на прямоугольных логических матрицах элементов памяти, используя метод кодирования, предложенный Акерсом [26], позволяющий формировать любую логическую функцию. В логической матрице Акерса выполнение любой булевой функции осуществляется путем передачи данных через матрицу элементарных логических ячеек, каждая из которых вычисляет одну из четырех простых логических функций. В работе [27] было предложено использовать этот подход для формирования БФ на кроссбарах мемристоров [24], где все ячейки используют только одну из четырех БФ работы [26]:
(29)
БФ матрицы Акерса формируется с помощью переменных , которые сохраняются в элементах памяти и определяют состояние логической матрицы. Тогда входные данные будут обрабатываться с помощью сформированной БФ, которую можно изменять переключением состояний мемристоров. Такие структуры БФ названы логикой состояний (“stateful logic”) [28].
Реализация этой функции на мемристорах в работе [27] осуществляется следующим образом. Каждая элементарная ячейка Акерса включает два комплиментарно включенных мемристора и четыре КМОП транзистора, играющих роль переключателей, которые используются для изоляции между логическими ячейками и поддержания регулярных операций чтения и записи (см. [27], рис. 6 и рис. 7c). Очевидно, что построение БФ на ячейках Акерса (29) также возможно и на кроссбарах FeFET, играющих роль элементов энергонезависимой памяти. Отметим, что кодирование аппарата пятен в форме БФ на логических матрицах Акерса соответствует компьютерной архитектуре вычислений в памяти [20, 25].
Были предложены и другие архитектуры БФ, построенных на кроссбарах мемристоров. Например, это - логические ячейки, называемые блоками обработки памяти (Memory Processing Unit), включая IMPLY [28], MAGIC [29], and FELIX [30]. Архитектуры указанных логических элементов позволяют формировать, такие операции как NOT/NOR, NAND, OR.
В работах [31, 32] предложена архитектура многослойных мемристорно-диодных матриц для создания нейроморфного процессора. Здесь используются технология интегрирования мемристорного кроссбара с КМОП-транзисторной логикой. Элементарные логические ячейки построены на комплементарных мемристорах и диодах Зенера, включенных последовательно с первыми. Применение диодов Зенера позволяет уменьшить деградацию выходного сигнала при суммировании входных импульсов напряжения. Многослойная логическая матрица, состоящая из КМОП-инверторов и мемристоров, в основном режиме работы реализует БФ, построенную на основе конъюнктивной многовходовой логики с отрицанием типа «И-НЕ», которая предварительно сформирована мемристорными переключателями в режиме обучения [32].
Дальнейшая работа в направлении разработки архитектуры образно-логических нейроморфных устройств предполагает сравнение предложенных разными авторами архитектур логических функций на мемристорах и FeFET, а также выбор их оптимальной архитектуры.
В работе [12] было показано, что аппарат пятен позволяет строить архитектуры глубоких нейронных сетей, где каждый слой производит операцию умножения L4 матрицы на L4 вектор, играющий роль входных сигналов. В результате умножения получается новый L4 вектор, играющий роль выходных сигналов этого слоя и входных сигналов следующего слоя. Формулы умножения работы [13] позволяют рассмотреть это представление более детально и предложить концепцию образно-логических нейронных сетей.
В частности, рис. 4а представляет слой такой нейронной сети, который пересчитывает отображение пятна-образа на произвольный базис пятен , используя данные об его отображении на базисе фрагментов (частей) пятен базиса . При этом применяются формулы (11), (12) работы [13]. Этот слой выполняет расчет, который моделирует мыслительную операцию синтеза или обобщения. рис. 4б иллюстрирует работу слоя нейронной сети, который решает задачу, обратную предыдущей: по данным отображения пятна-образа на произвольном базисе пятен , найти его отображение на базисе фрагментов (частей) пятен базиса . При этом применяются формулы (15), (16) работы [13]. Этот слой выполняет расчет, моделирующий мыслительную операцию анализа.
Рис. 4. Пример архитектуры одного слоя образно-логических нейронных сетей: (а) моделирование обобщения или синтеза; (б) моделирование анализа.
Отдельными квадратами на рис. 4 обозначены схемы искусственных нейронов, соответствующих пятнам-образам и . Эти нейроны производят образно-логическую обработку информации, поступающую на их входы, что эквивалентно элементарным актам мышления. Поэтому предложенный тип нейронных сетей мы назвали образно-логическими.
Заключение
В работе рассмотрено применение аппарата пятен для представления информации и рассуждений в форме ментальных образов, а также его реализация для нейроморфных устройств нового типа, которые названы образно-логическими. Особенностью предлагаемых нейроморфных устройств является то, что обработка информации в них аналогична рассуждениям человека, что должно позволить решить серьезную проблему современных глубоких нейронных сетей, связанную с неизбежностью возникновения случайных ошибок. Рассмотрена возможность построения архитектуры образно-логических нейроморфных устройств на базе кроссбаров мемристоров или FeFET, которая соответствует схеме вычислений в памяти. Все это позволяет сформулировать новую парадигму интеллектуальных систем, способных не только представлять информацию в образной форме, но и моделировать образное мышление.
Финансирование
Работа выполнена в рамках Государственного задания ФТИАН им К. А. Валиева РАН Минобрнауки РФ по теме FFNN-2022-0019 «Фундаментальные и поисковые исследования в области создания перспективной элементной базы наноэлектроники и ее ключевых технологий.
Благодарность
Автор выражает благодарность Лукичеву В. Ф., Руденко К. В., Волковой Е. В. и Гостеву А. А. за поддержку и плодотворные обсуждения.
Конфликт интересов
Автор заявляет об отсутствии конфликта интересов.
Sobre autores
N. Simonov
Valiev Institute of Physics and Technology, Russian Academy of Sciences
Autor responsável pela correspondência
Email: nsimonov@ftian.ru
Rússia, Moscow
Bibliografia
- Seo J.S., Brezzo B., Liu Y., Parker B.D., et al. A 45nm CMOS neuromorphic chip with a scalable architecture for learning in networks of spiking neurons // IEEE Custom Integrated Circuits Conf (CICC). 2011. P. 1–4. IEEE.
- Indiveri G., Linares-Barranco B., Hamilton T.J. et al. Neuromorphic silicon neuron circuits // Front. Neurosci. 2011. V. 5. P. 1–23.
- Zhu J., Zhang T., Yang Y., and Huang R. A comprehensive review on emerging artificial neuromorphic devices // Applied Physics Reviews. 2020. Rev. 7, 011312. P. 1–107.
- Gostev A.A. Psychology of the Secondary Image. M.: Litres. 2022 (in Russian).
- Gorban A.N. The Problem of Reliability of Multidimensional AI in a Multidimensional World. Presentation at the ONIT RAS Meeting, February 24 2022. URL: https://cloud.niime.ru/s/fwfX8eYHg6EDz6q?path=%2F2021%20-%202023 (in Russian).
- Image Classification on ImageNet. URL: https://paperswithcode.com/sota/image-classification-on-imagenet
- Searle J.R. Minds, brains, and programs // Behav. Brain Sci. 1980. V. 3. P. 417–424.
- Finn V.K. Inductive methods of D.S. Mill in artificial intelligence systems. Part I // Artificial intelligence and decision making. 2010. № 3. С. 3–21 (in Russian).
- Finn V.K. Inductive methods of D.S. Mill in artificial intelligence systems. Part II // Artificial intelligence and decision making. 2010. № 4. С. 14–40.
- Wang P. Cognitive Logic vs Mathematical Logic // Lecture Notes of the 3rd International Seminar on Logic and Cognition. China, Guangzhou, 2004.
- Hadamard J. An essay on the psychology of invention in the mathematical field. Courier Corporation. 1954.
- Simonov N.A. Spots Concept for Problems of Artificial Intelligence and Algorithms of Neuromorphic Systems // Russian Microelectronics. 2020. V. 49. P. 431–444. https://doi.org/10.1134/S106373972005008X
- Simonov N.A. Application of the model of spots for inverse problems. // Sensors. 2023. V. 23. No 3. 1247.
- Simonov N.A., Rusalova M.N. Mental imagery representation by model of spots in psychology // Natural Systems of Mind. 2023. V. 3. No 1. P. 4–22.
- Nanay B. Mental Imagery // E.N. Zalta (ed.) The Stanford Encyclopedia of Philosophy. 2021. [Электронный ресурс] URL: https://plato.stanford.edu/archives/win2021/entries/mental-imagery/
- Vekker L.M. Psyche and reality: a unified theory of mental processes. M.: Smysl, 1998 (in Russian).
- Simonov N.A. Spatial representation of concepts and processes in psychology by the spots model // Natural Systems of Mind. 2024. V. 4. No 2, P. 6–20. https://doi.org/ 10.38098/nsom_2024_04_02_01.
- Sima J.F., Freksa C. Towards computational cognitive modeling of mental imagery: The attention-based quantification theory // KI-Künstliche Intelligenz. 2012. V. 26. P. 261–267.
- Donini F.M., Lenzerini M., Nardi D., Pirri F., and Schaerf M. Nonmonotonic reasoning // Artificial Intelligence Review. 1990. V. 4. No 3. P. 163–210.
- Svetlov V.A. Charles Peirce's Methodological Concept of Scientific Knowledge: The Unity of Abduction, Deduction and Induction // Logiko-fylosofskiye shtudii. 2012. No 5. P. 165–188 (in Russian).
- Bochman A. Causal reasoning from almost first principles // Synthese. 2024. V. 203:19.
- Wikipedia contributors, 'Karnaugh map' // Wikipedia, The Free Encyclopedia, 20 August 2024, from https://en.wikipedia.org/w/index.php?title=Karnaugh_map&oldid=1241369572.
- Simonov N.A. Development of a mathematical apparatus with an imagery representation of information for neuromorphic systems. // Russian Microelectronics. 2023. V. 52. No 6, Suppl. 1. P. S158–S161.
- Ielmini D. and Wong H.S.P. In-memory computing with resistive switching devices // Nature electronics. 2018. V.1. No 6. P. 333–343.
- Tarkov M., Tikhonenko F., Popov V., Antonov V., Miakonkikh A., and Rudenko K. Ferroelectric Devices for Content-Addressable Memory. Nanomaterials. 2022. V. 12. 4488.
- Akers S.B. A rectangular logic array // 12th Annual Symposium on Switching and Automata Theory (SWAT). 1971. P. 79–90. IEEE.
- Levy Y., Bruck J., Cassuto Y., Friedman E.G., Kolodny A., Yaakobi E., and Kvatinsky S. Logic operations in memory using a memristive Akers array // Microelectronics Journal. 2014. V. 45. No 11. P. 1429–1437.
- Borghetti J., Snider G.S., Kuekes P.J., Yang J.J., Stewart D.R., and Williams R.S. Memristive’switches enable ‘stateful’logic operations via material implication // Nature. 2010. V. 464. P. 873–876.
- Kvatinsky S., Belousov D., Liman S., Satat G., Wald N., Friedman E.G., Kolodny A. and Weiser U.C. MAGIC – Memristor-aided logic // IEEE Transactions on Circuits and Systems II: Express Briefs. 2014. V. 61. No 11. P. 895–899.
- Gupta S., Imani M. and Rosing T. Felix: Fast and energy-efficient logic in memory // IEEE/ACM International Conference on Computer-Aided Design (ICCAD). 2018. P. 1–7. IEEE.
- Udovichenko S., Pisarev A., Busygin A., Mayevskiy O. 3D CMOS memristor nanotechnology for creating logical and memory matrices of a neuroprocessor // Nanoindustry. 2017. No 5. P. 26–34 (in Russian).
- Udovichenko S., Pisarev A., Busygin A., Mayevskiy O. Neuroprocessor based on a combined memristor-diode crossbar // Nanoindustry. 2018. V. 11. No 5. P. 344–355 (in Russian).
Arquivos suplementares






