Партнерство для безопасного развития искусственного интеллекта

Институт безопасности искусственного интеллекта США оформил партнерство с Anthropic и OpenAI для исследований и оценки безопасности искусственного интеллекта. Сотрудничество ориентировано на продвижение безопасного AI и обмен опытом с U.K. AI Safety Institute
Новости 2024 08 29

Партнерство для безопасного развития искусственного интеллекта

Партнерство для безопасного развития искусственного интеллекта - это новаторское соглашение между правительством США и ведущими компаниями в области искусственного интеллекта, направленное на продвижение безопасного и надежного развития инноваций в этой области. Сегодняшние соглашения, заключенные между U.S. Artificial Intelligence Safety Institute при Национальном институте стандартов и технологий министерства торговли США (NIST) и компаниями Anthropic и OpenAI, устанавливают формальное сотрудничество по исследованиям, тестированию и оценке безопасности искусственного интеллекта.

Меморандумы о взаимопонимании с каждой из компаний обеспечивают доступ U.S. AI Safety Institute к основным новым моделям каждой компании до и после их публичного выпуска. Соглашения позволят проводить совместные исследования по оценке возможностей и рисков безопасности, а также методов их уменьшения.

U.S. AI Safety Institute также планирует предоставить обратную связь Anthropic и OpenAI относительно потенциальных улучшений в области безопасности их моделей, в тесном сотрудничестве с партнерами из U.K. AI Safety Institute.

Эти оценки помогут продвинуть безопасное, надежное и доверенное развитие и использование искусственного интеллекта, а также усилят работу NIST по искусственному интеллекту, обеспечивая глубокое сотрудничество и исследовательскую работу над продвинутыми системами искусственного интеллекта в различных областях риска.

Безопасные и надежные инновации

Эти соглашения открывают новые возможности сотрудничества между правительством США и ведущими компаниями в области искусственного интеллекта. Институт Безопасности Искусственного Интеллекта США начинает формальное сотрудничество с Anthropic и OpenAI для исследования, тестирования и оценки безопасности инноваций в области ИИ. Эти соглашения открывают путь к совместным исследованиям оценки возможностей и рисков безопасности, а также разработке методов их смягчения. Планируется также обеспечить обратную связь по улучшению безопасности моделей компаний Anthropic и OpenAI совместно с партнерами из Института Безопасности ИИ в Великобритании.

Меморандум о взаимопонимании

Институт безопасности ИИ США при Национальном институте стандартов и технологий министерства коммерции США объявил о заключении соглашений, содействующих формальному сотрудничеству по исследованию, тестированию и оценке безопасности ИИ с компаниями Anthropic и OpenAI. Каждый меморандум с компаниями устанавливает основу для получения доступа к новым моделям для проведения совместных исследований по оценке возможностей и рисков безопасности, а также разработке методов для уменьшения этих рисков. Эти соглашения отмечают важный этап в работе Института Безопасности ИИ на пути к ответственному управлению будущим ИИ, а также подчеркивают стремление к безопасному и надежному развитию и использованию технологии.

Продвижение научных исследований в области безопасности ИИ

Сегодня институт безопасности искусственного интеллекта при Национальном институте стандартов и технологий Министерства торговли США объявил о соглашениях, позволяющих формальное сотрудничество по исследованиям, тестированию и оценке безопасности ИИ с компаниями Anthropic и OpenAI. Меморандумы о взаимопонимании с каждой компанией устанавливают рамки для получения доступа к крупным новым моделям от обеих компаний до и после их публичного выпуска. Соглашения содействуют совместному исследованию способов оценки возможностей и рисков безопасности, а также методов их смягчения.

Обратная связь и сотрудничество с партнерами из Великобритании

Институт Безопасности ИИ США сотрудничает с компаниями Anthropic и OpenAI для обеспечения безопасности и надежности инноваций в области искусственного интеллекта. В рамках соглашений, каждая компания предоставляет доступ к своим новым моделям до и после их публичного выпуска для проведения совместных исследований по оценке возможностей и рисков безопасности, а также разработке методов их смягчения. Институт также планирует давать обратную связь Anthropic и OpenAI относительно потенциальных улучшений безопасности моделей, работая рука об руку с Институтом Безопасности ИИ Великобритании. Эти оценки, выполненные в рамках партнерства, способствуют продвижению безопасного и надежного развития и использования искусственного интеллекта, согласно указанию Байдена-Харриса и добровольным обязательствам ведущих разработчиков моделей искусственного интеллекта перед администрацией.

Опираясь на более чем 120-летнюю историю NIST

Институт Безопасности ИИ США, основанный на NIST, продолжает свою передовую работу, поддерживая традиции и наследие более чем 120-летней истории NIST. Соглашения с Anthropic и OpenAI открывают новые возможности для совместного исследования и тестирования безопасности ИИ и оценки его потенциальных рисков. Эти оценки обеспечат плодотворное сотрудничество и позволят проработать важные аспекты безопасного, надежного и доверенного развития и использования искусственного интеллекта, соответствуя указаниям инициативы Байдена-Харриса по ИИ.

Поиск