Создание безопасных систем ИИ с помощью CoSAI

CoSAI - инициатива для безопасных систем ИИ с участием ведущих компаний и экспертов. Цель - улучшить безопасность в области искусственного интеллекта, создавая стандарты и меры по защите от рисков. Приглашаем присоединиться к проекту для создания безопасных систем будущего
Новости 2024 07 19

Участники CoSAI

Coalition for Secure AI (CoSAI) объединяет ведущих отраслевых игроков, академиков и других экспертов с целью решения проблемы фрагментации в области безопасности искусственного интеллекта. Основными спонсорами-основателями являются такие крупные компании, как Google, IBM, Intel, Microsoft, NVIDIA и PayPal, поддерживаемые Amazon, Anthropic, Cisco, Chainguard, Cohere, GenLab, OpenAI и Wiz. Миссия CoSAI заключается в установлении доверия и безопасности в области использования и развертывания искусственного интеллекта. Активное участие широкого круга заинтересованных сторон позволит развивать стандартизированные практики, повышая уровень доверия среди заинтересованных лиц по всему миру.

Цели и Задачи CoSAI

Целью инициативы CoSAI является обеспечение безопасности создания, интеграции, развертывания и эксплуатации систем искусственного интеллекта. Основной упор делается на снижении рисков, таких как кража моделей, отравление данных, инъекции запросов, масштабируемые злоупотребления и атаки на вывод. Проект направлен на разработку обширных мер безопасности, которые затрагивают как классические, так и уникальные угрозы, связанные с системами искусственного интеллекта.

Необходимость создания CoSAI

Искусственный интеллект (ИИ) становится все более важным с каждым днем, переформатируя нашу реальность и возможности. Он обладает неоспоримым потенциалом для решения сложных проблем, но при этом требует особых мер безопасности. Фрагментированность в направлениях обеспечения безопасности ИИ создает препятствия для разработчиков, не позволяя им использовать четкие стандарты и подходы. Важность создания CoSAI заключается в установлении единого набора практик и стандартов, направленных на улучшение безопасности и повышение доверия к системам ИИ. Совместные усилия ведущих компаний и экспертов, сосредоточенные на разработке стандартов безопасности, позволят создать надежное и ответственное окружение для применения и развертывания ИИ в масштабах мирового сообщества.

Поддержка и Выступления

CoSAI, с поддержкой ведущих компаний и экспертов, готова принять существенные меры в установлении стандартных практик, способствующих безопасности и использованию безопасных методов в области искусственного интеллекта. Целью CoSAI является создание доверия среди заинтересованных сторон по всему миру путем разработки и распространения методологий, которые уделяют особое внимание вопросам безопасности и устранению уязвимостей в системах искусственного интеллекта. С учетом фрагментированного подхода к безопасности ИИ в настоящее время, CoSAI выступает как инициатива, объединяющая различных участников, чтобы создать единые стандарты и поделиться открытыми методиками для разработчиков и практиков в данной области.

Инициативы и первые шаги

Для начала работы Коалиция по безопасному искусственному интеллекту (CoSAI) планирует создать три рабочих группы. Первая группа будет заниматься обеспечением безопасности цепочки поставок программного обеспечения для искусственного интеллекта, улучшая состав и отслеживая источник для обеспечения безопасности приложений с использованием ИИ. Вторая группа будет готовить защитников к быстро меняющемуся ландшафту кибербезопасности, решая вопросы инвестиций и интеграции в области ИИ и классических систем. Третья группа будет разрабатывать лучшие практики и рамки оценки рисков для безопасности в области искусственного интеллекта. Эти рабочие группы будут ориентированы на разработку стандартизированных подходов к защите искусственного интеллекта, что поможет создать доверие среди заинтересованных сторон по всему миру.

Участие

Сообщество с открытым исходным кодом CoSAI приглашает всех заинтересованных лиц внести свой вклад в развитие безопасности искусственного интеллекта. OASIS открыто приветствует дополнительную поддержку от компаний, деятельность которых связана с этой областью. Для получения более подробной информации о возможностях участия в проекте, обращайтесь по электронной почте join@oasis-open.org. Совместными усилиями и экспертным опытом мы сможем повысить уровень доверия к использованию и развертыванию искусственного интеллекта, защищая общие интересы и нормы безопасности в этой важной области технологий.

Отзывы участников

CoSAI, созданный коалицией лидеров отрасли, включая Google, IBM, Intel, Microsoft, NVIDIA и PayPal, призван обеспечить безопасность и надежность систем искусственного интеллекта. Эта инициатива направлена на разработку стандартных методологий и инструментов для создания безопасных систем ИИ, а также на содействие сотрудничеству в обмене открытыми методами, стандартизированными рамками и инструментами. CoSAI охватывает вопросы построения, интеграции, развертывания и эксплуатации систем ИИ, с акцентом на снижение рисков, таких как кража моделей, загрязнение данных и другие угрозы безопасности. В рамках коалиции будут созданы три рабочих направления, а также открытое сообщество для технических специалистов и разработчиков, дополняемое партнерской поддержкой от компаний, заинтересованных в этой сфере.

Поиск