Автоматический анализ поведения животных в соотношении с ключевыми аспектами среды выявляет новые когнитивные специализации нейронов

Обложка

Цитировать

Полный текст

Открытый доступ Открытый доступ
Доступ закрыт Доступ предоставлен
Доступ закрыт Только для подписчиков

Аннотация

Анализ специфических активаций нейронов относительно элементов внешней среды, поведения или внутреннего состояния животных невозможен без детального анализа поведенческих актов экспериментального животного. В настоящее время достигнуты некоторые успехи в автоматической сегментации поведения животных с использованием методов машинного обучения [1–3] на основе данных о местоположении частей тела животного [3]. При этом на данном этапе такие методы не позволяют достичь желаемого уровня точности в сегментации поведения, а также соотнести поведенческие акты животного с целевыми и мотивационными аспектами среды. В связи с этим авторами был разработан комплекс программных средств для извлечения широкого спектра поведенческих переменных из видеозаписей поведения животных в экспериментальных обстановках и математического анализа континуума поведенческих актов.

Для извлечения широкого спектра поведенческих переменных необходима детекция отдельных частей тела животного. Для той задачи нами был использован DeepLabCut — открытый тулбокс для поведенческого трекинга экспериментальных животных, основанный на принципе трансферного обучения c использованием глубоких нейронных сетей. Нами была отработана методика определения местоположения частей тела животного в различных поведенческих средах и сформирован набор частей тела животного, удовлетворяющий двум требованиям: высокая чувствительность к мелким моторным движениям животного и высокий процент точного определения местоположения части тела. В случае съёмки камерой сверху такой набор включает кончик носа, уши, основание хвоста, центр тела мыши, передние и задние конечности, левый и правый бок туловища животного.

Далее нами был разработан комплекс программных средств извлечения и детальной аннотации поведенческих переменных из данных о кинематике частей тела животного в различных когнитивных задачах. Разработанная автоматизированная система состоит из двух основных скриптовых модулей: CreatePreset и BehaviorAnalyzer. Модуль CreatePreset осуществляет взаимодействие с пользователем, в ходе которого происходит выбор типа геометрии арены и расположения в ней объектов, указание необходимых для анализа временных и пространственных параметров. Результат работы скрипта сохраняется в виде mat-файла, который может быть использован для анализа поведения во всех видео эксперимента при условии постоянства взаимного расположения арены и видеокамеры, а также дизайна эксперимента. Модуль BehaviorAnalyzer осуществляет предварительную обработку временных рядов координат частей тела животных, формирует массив данных о кинематике частей тела — кинематограмму, выделяет дискретные поведенческие акты животного и аннотирует его поведение в соотношении с мотивационными и целевыми аспектами среды.

С помощью методов на основе взаимной информации нами был проведён анализ специализаций нейронов CA1 гиппокампа при обследовании животными арены с разным уровнем новизны. В результате анализа выявлены нейроны, селективные относительно определённых значений непрерывных кинематических параметров позы и траектории животного, таких как местоположение в пространстве арены (координаты X и Y), а также скорости и угла поворота головы (т.е. абсолютной ориентации в пространстве арены). Выявлены также нейроны, специализированные относительно дискретных актов поведения, а именно: остановки, побежки, замирание (фризинг), стойки и акты взаимодействия с объектами. Кроме того, были обнаружены нейроны, селективно активирующиеся относительно дополнительного набора дискретных параметров, представляющих собой комбинацию местоположения животного в арене и скорости.

Полный текст

Анализ специфических активаций нейронов относительно элементов внешней среды, поведения или внутреннего состояния животных невозможен без детального анализа поведенческих актов экспериментального животного. В настоящее время достигнуты некоторые успехи в автоматической сегментации поведения животных с использованием методов машинного обучения [1–3] на основе данных о местоположении частей тела животного [3]. При этом на данном этапе такие методы не позволяют достичь желаемого уровня точности в сегментации поведения, а также соотнести поведенческие акты животного с целевыми и мотивационными аспектами среды. В связи с этим авторами был разработан комплекс программных средств для извлечения широкого спектра поведенческих переменных из видеозаписей поведения животных в экспериментальных обстановках и математического анализа континуума поведенческих актов.

Для извлечения широкого спектра поведенческих переменных необходима детекция отдельных частей тела животного. Для той задачи нами был использован DeepLabCut — открытый тулбокс для поведенческого трекинга экспериментальных животных, основанный на принципе трансферного обучения c использованием глубоких нейронных сетей. Нами была отработана методика определения местоположения частей тела животного в различных поведенческих средах и сформирован набор частей тела животного, удовлетворяющий двум требованиям: высокая чувствительность к мелким моторным движениям животного и высокий процент точного определения местоположения части тела. В случае съёмки камерой сверху такой набор включает кончик носа, уши, основание хвоста, центр тела мыши, передние и задние конечности, левый и правый бок туловища животного.

Далее нами был разработан комплекс программных средств извлечения и детальной аннотации поведенческих переменных из данных о кинематике частей тела животного в различных когнитивных задачах. Разработанная автоматизированная система состоит из двух основных скриптовых модулей: CreatePreset и BehaviorAnalyzer. Модуль CreatePreset осуществляет взаимодействие с пользователем, в ходе которого происходит выбор типа геометрии арены и расположения в ней объектов, указание необходимых для анализа временных и пространственных параметров. Результат работы скрипта сохраняется в виде mat-файла, который может быть использован для анализа поведения во всех видео эксперимента при условии постоянства взаимного расположения арены и видеокамеры, а также дизайна эксперимента. Модуль BehaviorAnalyzer осуществляет предварительную обработку временных рядов координат частей тела животных, формирует массив данных о кинематике частей тела — кинематограмму, выделяет дискретные поведенческие акты животного и аннотирует его поведение в соотношении с мотивационными и целевыми аспектами среды.

С помощью методов на основе взаимной информации нами был проведён анализ специализаций нейронов CA1 гиппокампа при обследовании животными арены с разным уровнем новизны. В результате анализа выявлены нейроны, селективные относительно определённых значений непрерывных кинематических параметров позы и траектории животного, таких как местоположение в пространстве арены (координаты X и Y), а также скорости и угла поворота головы (т.е. абсолютной ориентации в пространстве арены). Выявлены также нейроны, специализированные относительно дискретных актов поведения, а именно: остановки, побежки, замирание (фризинг), стойки и акты взаимодействия с объектами. Кроме того, были обнаружены нейроны, селективно активирующиеся относительно дополнительного набора дискретных параметров, представляющих собой комбинацию местоположения животного в арене и скорости.

ДОПОЛНИТЕЛЬНАЯ ИНФОРМАЦИЯ

Вклад авторов. Все авторы подтверждают соответствие своего авторства международным критериям ICMJE (все авторы внесли существенный вклад в разработку концепции, проведение исследования и подготовку статьи, прочли и одобрили финальную версию перед публикацией).

Источник финансирования. Исследование выполнено при финансовой поддержке междисциплинарной научно-образовательной школы Московского университета «Мозг, когнитивные системы, искусственный интеллект» и некоммерческого фонда развития науки и образования «Интеллект».

Конфликт интересов. Авторы декларируют отсутствие явных и потенциальных конфликтов интересов, связанных с публикацией настоящей статьи.

×

Об авторах

В. В. Плюснин

Московский государственный университет имени М.В. Ломоносова

Автор, ответственный за переписку.
Email: witkax@mail.ru
Россия, Москва

Н. А. Поспелов

Московский государственный университет имени М.В. Ломоносова

Email: witkax@mail.ru
Россия, Москва

В. П. Сотсков

Московский государственный университет имени М.В. Ломоносова

Email: witkax@mail.ru
Россия, Москва

Н. В. Докукин

Московский государственный университет имени М.В. Ломоносова

Email: witkax@mail.ru
Россия, Москва

О. С. Рогожникова

Московский государственный университет имени М.В. Ломоносова

Email: witkax@mail.ru
Россия, Москва

К. А. Торопова

Московский государственный университет имени М.В. Ломоносова

Email: witkax@mail.ru
Россия, Москва

О. И. Ивашкина

Московский государственный университет имени М.В. Ломоносова

Email: witkax@mail.ru
Россия, Москва

К. В. Анохин

Московский государственный университет имени М.В. Ломоносова; Институт нормальной физиологии имени П.К. Анохина

Email: witkax@mail.ru
Россия, Москва; Москва

Список литературы

  1. Weinreb C., Osman M.A.M., Zhang L., et al. Keypoint-MoSeq: parsing behavior by linking point tracking to pose dynamics // bioRxiv. 2023. Vol. 2023. P. 03.16.532307. doi: 10.1101/2023.03.16.532307
  2. Hsu A., Yttri E. B-SOiD, an open-source unsupervised algorithm for identification and fast prediction of behaviors // Nat Commun. 2021. Vol. 12, N 1. P. 5188. doi: 10.1038/s41467-021-25420-x
  3. Mathis A., Mamidanna P., Cury K.M., et al. DeepLabCut: markerless pose estimation of user-defined body parts with deep learning // Nat Neurosci. 2018. Vol. 21, N 9. P. 1281–1289. doi: 10.1038/s41593-018-0209-y

Дополнительные файлы

Доп. файлы
Действие
1. JATS XML

© Эко-Вектор, 2023

Creative Commons License
Эта статья доступна по лицензии Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.

Согласие на обработку персональных данных

 

Используя сайт https://journals.rcsi.science, я (далее – «Пользователь» или «Субъект персональных данных») даю согласие на обработку персональных данных на этом сайте (текст Согласия) и на обработку персональных данных с помощью сервиса «Яндекс.Метрика» (текст Согласия).