image-block
20.02.2026Светина Майя
post image

Питерские ученые научили нейросеть читать эмоции по ЭЭГ работников

Ученые из Санкт-Петербурга обучили ИИ определять позитивное, негативное или нейтральное состояние человека по сигналам мозга с точностью 70–80%. Технологию протестировали на реальных данных и планируют внедрить для мониторинга сотрудников на транспортных, промышленных и оборонных объектах.

Исследователи Федерального исследовательского центра РАН (СПб ФИЦ РАН) создали нейросетевую модель, которая анализирует электроэнцефалограмму (ЭЭГ) в реальном времени. Сигналы снимаются неинвазивно с помощью компактных носимых устройств, без повреждения тканей. Модель классифицирует эмоциональное состояние на основе электрической активности мозга, справляясь с индивидуальными различиями между людьми.

Для обучения использовали две открытые базы данных — FACED и SEED, содержащие обезличенные ЭЭГ более 130 человек разных возрастов и полов. Команда собрала дополнительные данные: у 16 добровольцев одновременно фиксировали мозговую активность и видео, чтобы сопоставить результаты. Несмотря на то что паттерны эмоций в ЭЭГ сильно варьируются от человека к человеку, точность вышла стабильной — от 70 до 80%.

Систему планируют применять для оценки работоспособности операторов на критически важных объектах. Это транспортные узлы, где диспетчеры и водители не должны терять концентрацию, промышленные предприятия с высоким риском и оборонная инфраструктура. ИИ поможет в режиме реального времени выявлять эмоциональную нестабильность или снижение внимания, снижая вероятность ошибок в управлении сложными системами.

Работа опубликована в журнале Big Data and Cognitive Computing (Q1-категория). Она выполнена по госзаказу Минобрнауки России, что открывает путь к дальнейшим тестам и интеграции в цифровые помощники для охраны психофизиологического здоровья. Напомним, что ранее та же лаборатория разрабатывала системы распознавания эмоций по видео, речи и биомаркерам вроде пульса.