Новый закон ЕС о искусственном интеллекте вступает в силу поэтапно

Новый закон ЕС о искусственном интеллекте вступает в силу: поэтапное внедрение начнется 1 августа. Разработчики приложений ИИ будут подвергаться регулированию, сроки применения различны для разных категорий систем
Новости 2024 07 16

Введение закона ЕС о регулировании использования искусственного интеллекта

В Европейском Союзе был опубликован полный и окончательный текст Закона ЕС об искусственном интеллекте, который представляет собой регулирование на основе оценки рисков для применения искусственного интеллекта. Согласно новому закону, который вступит в силу через 20 дней, основные положения будут полностью применимы для разработчиков ИИ в течение следующих 24 месяцев. Однако закон предусматривает поэтапную реализацию правил ЕС об использовании искусственного интеллекта, поэтому существуют различные сроки, на которые стоит обратить внимание, до наступления этого момента и даже позже, так как различные правовые положения начнут применяться постепенно. Новый закон организует разные обязательства для разработчиков ИИ в зависимости от сферы применения и оценки риска. В основном применения ИИ не будут регулироваться, поскольку считаются низким риском, но некоторые потенциальные сферы применения ИИ запрещены по закону. "Элитные" сферы применения, такие как биометрические технологии ИИ или его использование в правоохранительной деятельности, трудоустройстве, образовании и критической инфраструктуре, разрешены по закону, но разработчики таких приложений сталкиваются с обязательствами в области качества данных и борьбы с предвзятостью. Также применяется третий уровень риска с некоторыми более легкими требованиями прозрачности для создателей инструментов, таких как чат-боты на ИИ.

Вступление в силу и фазы внедрения

Полный и окончательный текст Закона ЕС о ИИ, важного регулирующего риски документа для применения искусственного интеллекта в Европейском союзе, был опубликован в Официальном журнале блока. Через 20 дней, с 1 августа, новый закон вступит в силу, а к середине 2026 года его положения в основном будут применяться к разработчикам ИИ. Закон принимает поэтапный подход, поэтому международным разработчикам ИИ предстоит соблюдать дедлайны. Сначала будет запрещен список использования ИИ, затем вступят в силу правила поведения для разработчиков приложений с ИИ. The EU's AI Office будет отвечать за предоставление этих кодексов, но кто именно напишет руководства, пока остается вопросом. Другой ключевой срок - это 12 месяцев после вступления в силу закона - 1 августа 2025 года - когда правила закона о GPAIs, которые должны соответствовать требованиям прозрачности, начнут действовать.

Политическое соглашение

В декабре прошлого года депутаты Европейского союза достигли политического соглашения о первом всестороннем сборнике правил по использованию искусственного интеллекта. Этот законопроект является революционным регулирующим актом для приложений искусственного интеллекта в ЕС и был окончательно опубликован в Официальном журнале блока. В соответствии с утвержденной дорожной картой, закон вступит в силу через 20 дней, то есть 1 августа, и в течение 24 месяцев, к середине 2026 года, его положения в основном будут полностью применимы к разработчикам искусственного интеллекта. Однако реализация закона осуществляется поэтапно, что подразумевает наличие нескольких важных сроков между настоящим временем и указанной датой.

Обязанности разработчиков в зависимости от рисков

Фреймворк накладывает разные обязательства на разработчиков искусственного интеллекта в зависимости от предполагаемых рисков и случаев использования. В основном, большинство применений ИИ считаются низкорисковыми и не подлежат регулированию. Однако некоторые потенциальные случаи использования ИИ будут запрещены законом.

"Высокорисковые" сценарии использования, такие как биометрические приложения, использование ИИ в правоохранительных органах, сфере трудоустройства, образовании и критической инфраструктуре, разрешены, однако разработчики подобных приложений обязаны соблюдать стандарты качества данных и противодействия предвзятости.

Требования к уровню риска также устанавливают легкие требования по прозрачности для создателей инструментов, таких как чатботы ИИ. В результате, законодательство ЕС стремится обеспечить баланс между инновацией в области искусственного интеллекта и защитой прав потребителей и общества от потенциальных угроз.

Обязательства для разработчиков GPAI

В новом законе о регулировании использования искусственного интеллекта (ИИ) Евросоюза предусмотрены обязательства для разработчиков моделей общего назначения ИИ (GPAI), таких как GPT от OpenAI. Согласно этим требованиям, наиболее мощные GPAI могут быть обязаны проводить системную оценку рисков, которая зависит от порога вычислительной мощности. Однако некоторые элементы индустрии ИИ, подкрепленные определенными правительствами стран-членов, пытались смягчить обязательства по GPAI, опасаясь, что закон может помешать развитию в Европе мощных компаний в области искусственного интеллекта, способных соревноваться с американскими и китайскими конкурентами.

Этапы внедрения

В году вступления закона в силу, конкретнее, в начале 2025 года, вступит в силу список запрещенных применений искусственного интеллекта. Среди недопустимых сценариев использования ИИ, которые вскоре станут незаконными, будут включены китайский стиль оценки кредитоспособности общества; сбор баз данных по лицам с помощью недискриминационного сканирования интернета или систем видеонаблюдения; и использование биометрии в реальном времени правоохранительными органами на общественных местах без необходимых исключений, таких как поиск пропавших или похищенных лиц. Эти жесткие меры направлены на защиту частной жизни и прав граждан от недопустимого использования технологий ИИ, которые могут представлять угрозу для общества и индивидуумов.

Запрещенные применения ИИ

Вступивший в силу закон ЕС о регулировании использования искусственного интеллекта запрещает определенные виды применения ИИ, которые оцениваются как неприемлемо рискованные. Среди таких запрещенных случаев использования искусственного интеллекта в Европейском Союзе будут включены социокредитные системы в стиле Китая, сбор баз данных для распознавания лиц путем нецелевого сканирования интернета или видеонаблюдения, а также использование правоохранительными органами реального времени удаленной биометрии в общественных местах без соответствующих исключений. Такие аспекты использования ИИ будут признаны незаконными согласно новому законодательству ЕС, что подчеркивает важность защиты частной жизни и предотвращения потенциального злоупотребления данными граждан.

Кодексы практики

В согласии с законодательством ЕС по искусственному интеллекту, внедрение кодексов практики на разработчиков приложений, подпадающих подошедшее законодательство, запланировано на следующий этап реализации закона. Этот этап начнется через девять месяцев после его вступления в силу, что примерно соответствует апрелю 2025 года. Кодексы практики представляют собой детальные стандарты и руководства, которые разработчики приложений ИИ обязаны будут соблюдать в своей деятельности. Основная цель этих кодексов - создать прозрачность и надежность в применении искусственного интеллекта, а также защитить права и интересы пользователей. В то же время, существуют опасения, что участие представителей индустрии искусственного интеллекта в разработке этих кодексов может повлиять на конечные правила, которые будут применяться к ним.

Ответственность AI-офиса ЕС

AI-офис ЕС, созданный для регулирования применения искусственного интеллекта в рамках реализации закона Европейского союза, будет ответственным за разработку кодексов практики для разработчиков приложений с использованием ИИ. Однако возникают вопросы относительно того, кто именно будет разрабатывать данные правила. Организация MLex сообщила, что AI-офис будет проводить конкурс для заинтересованных сторон с целью определения тех, кто будет задействован в создании правил практики для общего назначения моделей искусственного интеллекта. Эти шаги принимаются после требований членов Европарламента о включении различных заинтересованных сторон в процесс формирования правил, чтобы обеспечить более широкое представительство и инклюзивность в разработке регуляторных актов для области искусственного интеллекта в Европе.

Сроки для GPAI

В соответствии с законом ЕС о регулировании использования искусственного интеллекта, производители общецелевых моделей искусственного интеллекта (GPAI), таких как ChatGPT от OpenAI, будут обязаны соблюдать требования прозрачности. Начиная с 1 августа 2025 года, производители GPAI должны будут представлять информацию о системе в соответствии с предписанными правилами. Эти требования направлены на снижение рисков и повышение прозрачности в использовании таких моделей искусственного интеллекта. И хотя некоторые из наиболее мощных общецелевых моделей будут подвергаться системному оцениванию рисков, сроки их соответствия будут определены и отложены во времени с учетом различных категорий риска и уровня ответственности.

Сроки для высокорисковых систем

Некоторым высокорисковым системам искусственного интеллекта в Европейском союзе предоставлен самый длительный срок для выполнения предусмотренных законом обязательств — целых 36 месяцев после вступления закона в силу, что означает, что они должны соответствовать правилам к 2027 году. Другие системы искусственного интеллекта, также отнесенные к высокому риску, будут обязаны следовать правилам раньше — в течение 24 месяцев с момента вступления закона в силу. Это означает, что различным высокорисковым приложениям AI необходимо будет соответствовать строгим нормам и требованиям, установленным в законе ЕС о регулировании использования искусственного интеллекта, в определенные сроки, чтобы обеспечить безопасное и этичное использование технологий AI в Европе.

Поиск