OpenAI предлагает запретить китайские модели ИИ из-за безопасности

OpenAI предлагает запретить китайские модели ИИ, такие как DeepSeek, из-за опасений по безопасности и конфиденциальности. Лаборатория признаётся «государственно контролируемой», что вызывает подозрения относительно утечки данных. OpenAI уточняет, что цель не в ограничении использования, а в улучшении экспортных правил
Новости 2025 03 10

OpenAI предлагает ограничить китайские модели ИИ

В новом предложении OpenAI рассматривает китайскую лабораторию ИИ DeepSeek как организацию, находящуюся под контролем государства и получающую государственное финансирование. В связи с этим компания рекомендует правительству США принять меры, направленные на запрет использования моделей, разработанных DeepSeek и аналогичными организациями, поддерживаемыми Китайской Народной Республикой (КНР). OpenAI утверждает, что модели DeepSeek, в частности R1, представляют собой угрозу безопасности из-за обязательств компании соблюдать требования китайского законодательства, что может привести к утечке пользовательских данных и угрозе интеллектуальной собственности. Это предложение является частью инициативы "AI Action Plan" администрации Трампа и предполагает запрет на использование таких "моделей, произведенных КНР" в странах с высоким уровнем безопасности. В то же время OpenAI подчеркивает, что главной целью является защита от рисков, связанных с использованием технологий, которые могут представлять угрозу.

Аргументация ограничений

OpenAI в своем предложении, направленном в рамках инициативы администрации Трампа «План действий по ИИ», утверждает, что модели, разработанные китайской лабораторией DeepSeek, в частности модель R1, представляют собой угрозу безопасности. Это аргументируется тем, что DeepSeek обязана по китайскому законодательству предоставлять данные пользователей, что создает риски утечки персональной информации и кражи интеллектуальной собственности. OpenAI рекомендует запретить использование моделей, произведенных в КНР, в странах, классифицируемых как «Уровень 1» по экспортным правилам администрации Байдена. Такой запрет, по мнению компании, поможет предотвратить потенциальные угрозы как для пользователей, так и для безопасности в целом, обеспечивая защиту конфиденциальности. Таким образом, OpenAI подчеркивает важность поддержки этих мер для минимизации рисков, связанных с участием китайских технологий в глобальной экосистеме ИИ.

Неопределенность с типами моделей

Упоминание OpenAI о "моделях" в контексте DeepSeek вызывает вопросы касательно того, какие именно технологии имеются в виду. Неясно, подразумеваются ли API компании или открытые модели, продаваемые DeepSeek. Примечательно, что открытые модели DeepSeek не имеют встроенных механизмов, которые могли бы позволить китайскому правительству извлекать пользовательские данные. Эти модели размещаются на инфраструктуре крупных американских компаний, таких как Microsoft, Perplexity и Amazon, что добавляет ещё один уровень безопасности. Таким образом, важно уточнить, о каких именно моделях говорит OpenAI, поскольку от этого зависит понимание рисков, связанных с потенциальным запретом и ограничениями со стороны правительства США. Это также подчеркивает необходимое различие между опасениями по поводу технологий, поддерживаемых государством, и теми, которые используются в зарубежных дата-центрах.

Эскалация конфликта с DeepSeek

OpenAI продолжает свою кампанию против китайской лаборатории DeepSeek, ранее обвиняя её в «дистилляции» знаний из собственных моделей, что является нарушением условий обслуживания. Однако недавние обвинения представляют собой новое обострение конфликта: OpenAI утверждает, что DeepSeek находится под контролем и финансированием китайского государства. Эти заявления сопровождаются утверждением о том, что модели DeepSeek представляют угрозу для безопасности, так как могут быть подвержены требованиям китайского законодательства о предоставлении пользовательских данных. Хотя прямой связи между китайским правительством и DeepSeek не установлено, интерес властей КНР к лаборатории возрос в последние месяцы, что вызывает еще большее беспокойство у OpenAI. Эта эскалация конфликта подчеркивает растущий тренд по регулированию и ограничению использования ИИ-моделей, поддерживаемых государствами, представляющими риски для безопасности.

Связи DeepSeek с правительством Китая

Ясной связи между китайским правительством и DeepSeek на данный момент нет. Эта компания была образована как спин-офф от количественного хедж-фонда High-Flyer, и её связь с государственными структурами пока не была подтверждена. Тем не менее, за последние месяцы наблюдается растущий интерес властей Китая к DeepSeek. Одним из значимых событий стал недавний визит основателя компании, Ляна Вэньфэна, к лидеру Китая Си Цзиньпину. Встреча с Высшим руководством страны может свидетельствовать о том, что DeepSeek попадает в поле зрения государственной политики в области технологий и искусственного интеллекта. Это повышение интереса со стороны правительства вызывает опасения у некоторых экспертов в сфере кибербезопасности, так как может способствовать появлению рисков, связанных с контролем доступа к данным и соблюдением законов о защите информации.

Поправка к заявлению

Проясняя свою позицию, представитель OpenAI Лиз Буржуа заявила, что компания не выступает за ограничения на использование моделей, подобных DeepSeek. Вместо этого они предлагают ряд изменений в правилах экспорта США, которые позволят большему количеству стран получить доступ к американским вычислительным мощностям. Однако это допускается только при условии, что центры обработки данных этих стран не будут зависеть от технологий, произведённых в Китае, которые могут представлять угрозу безопасности. Буржуа продолжила, что вместо того чтобы ограничивать доступ к чипам на основании предположений о возможном перенаправлении технологий в Китай, цель OpenAI заключается в обеспечении большего количества вычислительных ресурсов и возможностей в области ИИ для более широкого круга стран и людей. Выражение мнения посредством такой поправки дает понять, что компания сосредотачивается на расширении международного сотрудничества и честной конкуренции без угроз для безопасности.

Оценка заявления

Собственный инструмент глубокого исследования ИИ от OpenAI провел анализ последнего заявления компании, выделив его неопределенность и использование смягчающего языка. Характеризуя информацию как «двусмысленную», инструмент указывает на то, что формулировки представляют собой попытку отклонить внимание от более жесткой позиции, изложенной в первоначальном предложении по запрету китайских моделей ИИ. Вместо решения по строгим ограничениям, OpenAI предлагает изменения в экспортных правилах США, что создает видимость гибкости и открытости. Однако это смягчение позиции может вызвать недоверие и вопросы о реальных намерениях компании, особенно учитывая углубляющееся противостояние между американскими и китайскими технологическими компаниями. Интересный контраст между первоначальными жесткими заявлениями и последующим более внятным подходом поднимает важные вопросы о прозрачности и последовательности в позициях OpenAI относительно конкуренции в сфере технологий.

Поиск