Новый метод защиты от кражи ИИ-моделей с водяными знаками

Российские ученые создали метод выявления кражи ИИ-моделей с водяными знаками. Новый протокол, основанный на триггерном наборе данных, поможет защитить интеллектуальную собственность разработчиков от несанкционированного использования моделей. Метод не требует дополнительного обучения и подходит как для "закрытых", так и для моделей с открытым доступом
Новости 2024 05 21

Новый метод выявления кражи ИИ-моделей

Научная группа «Доверенные и безопасные интеллектуальные системы» Института искусственного интеллекта AIRI разработала инновационный метод для выявления кражи моделей искусственного интеллекта. Этот метод основан на использовании триггерного набора данных и системы "водяных знаков". По мнению учёных, кражи моделей ИИ происходят, когда неавторизованные лица незаконно получают и используют модели, права на которые принадлежат другим лицам. Такие действия могут включать дистилляцию модели, дообучение на новом наборе данных или утаивание способов получения исходной модели. Новый метод разработан с учётом того, что украденные модели подвергаются изменениям, что затрудняет определение их происхождения. Предложенный подход позволяет создавать уникальные триггеры, встроенные в модель ИИ с высокой вероятностью сохранения при любых модификациях. Этот новый метод призван помочь разработчикам защитить свои интеллектуальные модели и поддержать ответственное использование технологий искусственного интеллекта.

Что такое кража моделей искусственного интеллекта?

Кражи моделей искусственного интеллекта представляют собой ситуации, когда несанкционированные лица получают доступ к моделям ИИ, права на которые фактически принадлежат другим лицам, и используют их без согласия создателей. Такие действия могут включать в себя различные способы, в том числе дистилляцию модели, дообучение на новых данных с утаенным источником или создание копии модели, основанной на украденных знаниях. Эти формы кражи моделей ИИ подрывают интеллектуальную собственность и нарушают права тех, кто инвестировал усилия и ресурсы в их создание. Для борьбы с подобными нарушениями разработан новый метод выявления краж моделей искусственного интеллекта, который позволяет эффективно защитить интеллектуальную собственность и обеспечить ответственное использование технологий ИИ.

Сложности в выявлении кражи моделей ИИ

Идентификация украденных моделей искусственного интеллекта представляет серьезные трудности из-за сложной структуры, которая объединяет множество компонентов. Злоумышленники активно модифицируют украденные модели, внося изменения в параметры, проводя переобучение или добавляя новые слои. Эти действия усложняют определение прямой связи между оригинальной моделью и ее копией, что делает задачу идентификации кражи искусственных интеллектуальных моделей крайне сложной. Подобная ситуация осложняет процесс обнаружения украденных моделей и создает необходимость в разработке эффективных методов и технологий для их выявления и защиты от несанкционированного использования.

Использование триггерного набора данных и водяных знаков для выявления кражи

Научная группа «Доверенные и безопасные интеллектуальные системы» разработала инновационный метод выявления краж моделей искусственного интеллекта, который основан на использовании триггерного набора данных и водяных знаков. Эти уникальные метки встраиваются в ИИ-модели и остаются незаметными для несанкционированных пользователей. Даже при значительных изменениях в модели, включая изменение параметров, переобучение или добавление новых слоев, эти "знаки" остаются сохраненными, что облегчает обнаружение кражи. Новый подход позволяет эффективно бороться с незаконным использованием моделей ИИ и защищать интеллектуальную собственность и конфиденциальность данных разработчиков.

Применение метода в различных типах моделей ИИ

Новый метод выявления краж ИИ-моделей, разработанный российскими учёными, представляет собой важный инструмент для обеспечения безопасности и конфиденциальности данных в моделях искусственного интеллекта. Этот подход особенно полезен для "закрытых" моделей, которые доступны через API, поскольку их кража может указывать на возможные нарушения конфиденциальности внутри компании. Кроме того, новый метод может быть успешно применен и к моделям, распространяемым под открытыми лицензиями, помогая выявлять незаконное копирование и защищать авторские права разработчиков. Разработчики смогут использовать эти цифровые водяные знаки для защиты своих идей и данных, обеспечивая ответственное использование технологий искусственного интеллекта и предотвращая случаи некорректного использования моделей.

Патент и открытый доступ

Метод выявления краж моделей искусственного интеллекта, разработанный российскими учёными, уже оформлен как патентная заявка. Этот инновационный подход основан на создании триггерного набора данных, встраиваемых в модель искусственного интеллекта. Он позволяет эффективно обнаруживать случаи незаконного использования моделей ИИ без согласия их создателей. Новый протокол защиты основан на использовании системы "водяных знаков", которые остаются неподдельно присутствующими в модели даже при попытках изменений и украдения.

Ключевое преимущество этого подхода заключается в том, что он обладает высокой вероятностью сохранения уникальных идентификационных знаков в процессе любых внешних воздействий на модель. Таким образом, разработчики могут не только защитить свои интеллектуальные права, но и обеспечить ответственное использование технологий искусственного интеллекта. Код алгоритма маркирования уже доступен для использования на общедоступных ресурсах, что позволяет всем заинтересованным лицам воспользоваться этим инструментом для обеспечения безопасности и этичного использования ИИ.

Поиск