Правовой статус ИИ не урегулирован
Правовой статус ИИ и ответственность за нарушения авторских прав
Правовой статус искусственного интеллекта пока не урегулирован: ИИ не является субъектом гражданского права, и за его действия несут ответственность люди — разработчики, операторы и пользователи. В разных юрисдикциях спорят, стоит ли признавать ИИ отдельным субъектом, но консенсуса нет. Большинство экспертов считают, что формальный гражданско-правовой статус для ИИ не нужен: ответственность лежит на тех, кто создал и эксплуатирует систему. По поводу обучения нейросетей материалами авторских прав доктрина добросовестного использования остаётся спорной и зависит от конкретного кейса.
Судебные иски против OpenAI, Stability AI и Getty Images демонстрируют сложности распределения ответственности за использование охраняемых материалов в обучении моделей. Некоторые эксперты считают, что судебная практика может привести к новым правилам сбора данных и более жёсткому регулированию. Другие полагают, что данные можно использовать на промежуточных этапах подготовки к обучению, если они открыты и не ведут к простому копированию; при этом ответственность за результаты остаётся за человеком, стоящим за ИИ.
Добросовестное использование материалов
В сложной дискуссии о правах на данные для обучения ИИ встречаются разные позиции. OpenAI заявляет, что использование материалов для обучения технологий может считаться добросовестным использованием. Однако в деле The Times против OpenAI приводятся примеры почти дословного воспроизведения статей ChatGPT, что может противоречить доктрине добросовестного использования. Эксперты подчёркивают, что граница между общедоступным контентом и копированием оригиналов остаётся расплывчатой, особенно в коммерческих целях ИИ и влиянии на рынок авторских прав. Как промежуточный этап подготовки данных часто приводят пример: защищённые авторским правом материалы можно использовать на стадии препроработки для анализа стиля или аннотирования, если итогом не является простое копирование и выдача оригинала.
Кто несет ответственность за материалы ИИ
Обсуждение ответственности за ошибки ИИ ведется отдельно от вопросов статуса самой технологии. Некоторые авторы считают, что ответственность должна лежать на юридических или физических лицах, а не на самом ИИ. Утверждают, что гражданский статус ИИ вводить не следует: за системой стоит человек, и именно он несет ответственность перед законом. Что касается продуктов, созданных нейросетью, то акцент делают на анализе и управлении рисками: человек выполняет проверку, оценку и принимает решения, а сама нейросеть не является субъектом ответственности.
В рамках концепции источника повышенной опасности современные элементы ИИ не полностью укладываются в традиционные признаки такого источника, поэтому четкого ответа нет: ответственность может лечь на разработчиков, на поставщиков услуг или на пользователей — в зависимости от конкретных условий использования и характера вреда.
Судебные иски против ИИ
Первые громкие иски против инструментов ИИ появились в 2022 году: сторонники открытого программного обеспечения и коммерческие проекты заявляли претензии к обучению моделей на чужом коде и контенте. В 2023 году Getty Images подала иск против Stability AI, Midjourney и DeviantArt, обвиняя их в незаконном копировании и обработке миллионов изображений для обучения генеративной нейросети. Сейчас суды продолжаются, и такие дела формируют практику, которая может повлиять на методики сбора и использования данных: какие источники допустимы для обучения, как лицензировать материалы и какие границы коммерческого использования устанавливают правообладатели. Результаты дел станут ориентиром для регуляторов и индустрии.
К чему приведут судебные разбирательства
Юрас Юршенес отмечает, что судебные иски могут изменить правила сбора данных для обучения нейросетей и запустить процесс регулирования в рамках авторского права. По его мнению, судебная практика станет драйвером обновления норм, концентрируясь на том, каким образом нейросети получают и обрабатывают материалы и какие цели преследуют их создатели. Вопросы ответственности за ошибки ИИ остаются дискуссионными: одни видят в них рост рисков и необходимость четкой регулятивной рамки, другие — постепенное развитие практики, которое уточнит границы допустимого использования контента.
Заключение
Сторонники разных подходов сходятся в том, что гражданский статус ИИ и распределение ответственности пока определить однозначно не удается. Важнее увидеть, как на практике будут применяться принципы добросовестного использования и кто именно будет отвечать за последствия решений нейросети — не сама технология, а человек или организация, за которой она стоит. Не менее критично — какие данные допустимо использовать для обучения и где проходит грань между обработкой и копированием материалов. В этом контексте развитие судебной практики и формирование регуляторных норм станут ключевыми факторами, формирующими будущее правового статуса искусственного интеллекта.