image-block
26.11.2025Светина Майя
post image

Ученые нашли способ встроить код защиты в готовую нейросеть, не переделывая ее заново

Российские исследователи из Центрального университета разработали метод, позволяющий защитить модели компьютерного зрения от кражи и несанкционированного использования без необходимости переобучения или переделки уже готовых систем. Технология использует специальные "нейроны-детекторы" и "нейроны-нарушители", которые встраиваются в обученную модель с вероятностью случайной активации менее 0,01%. Подход может быть применен не только к системам машинного зрения, но и к языковым моделям, что позволит создать защищенный рынок лицензирования ИИ-технологий.

Защита интеллектуальной собственности в сфере искусственного интеллекта давно стала острой проблемой. Научные команды и корпорации тратят огромные ресурсы на создание моделей компьютерного зрения и других ИИ-систем, но существующие методы защиты от копирования либо требуют встраивания защиты еще на этапе обучения модели, либо совершенно неприменимы к уже готовым решениям. Это создает уязвимость для пиратства и затрудняет правовую защиту авторских прав разработчиков.

Группа исследователей под руководством Глеба Рыжакова, старшего научного сотрудника Лаборатории ИИ, анализа данных и моделирования, нашла выход из этого тупика. Они предложили встраивать в уже обученную модель специальные нейронные компоненты, которые действуют как система охранной сигнализации. Первый тип — "нейроны-детекторы" — распознают специальный визуальный ключ (так называемый "раздражитель") на входящих изображениях и активируются только при его обнаружении, игнорируя все остальные картинки. Второй тип — "нейроны-нарушители" — работают противоположным образом: они намеренно вносят помехи в работу алгоритма, если подаваемые данные не содержат этого секретного кода.

Главное достоинство метода заключается в его "прозрачности" для исходной функциональности. Тестирование показало, что встраивание защитных компонентов не нарушает работу машинного зрения. Вероятность случайного срабатывания такого механизма составляет менее 0,01%, что гарантирует стабильное функционирование модели при нормальном использовании, но одновременно создает мощный барьер против попыток несанкционированного применения.

Исследователи подчеркивают, что разработанный подход имеет универсальный характер. В перспективе его можно адаптировать для защиты больших языковых моделей, систем принятия решений и других ИИ-алгоритмов. Это откроет возможность создания полноценного лицензионного рынка для технологий искусственного интеллекта с надежной защитой интеллектуальной собственности.

Разработка стала результатом работы в стенах Центрального университета — первого в России вуза, построенного на базе STEM-модели подготовки кадров. Это учебное заведение создано и развивается при участии 30 крупнейших российских компаний, включая "Тинькофф", Газпромбанк, Kaspersky, МТС, Tele2, Yandex Cloud, VK, Avito, Ozon, Банк России, Росатом, "Норникель", "Сибур", "Уралхим", "Самолет", X5 Group, S7 Airlines и другие. Компании выступают в качестве полноправных сооснователей, партнеров и корпоративных инвесторов, что обеспечивает практическую ориентированность исследований университета.