OpenAI и Учреждение США сотрудничают для безопасности ИИ
OpenAI и США сотрудничают для безопасности ИИ
OpenAI и США активно сотрудничают для обеспечения безопасности искусственного интеллекта (ИИ). Генеральный директор OpenAI, Сэм Альтман, объявил о сотрудничестве с Институтом безопасности ИИ США, организацией федерального уровня, занимающейся исследованием и устранением рисков, связанных с платформами ИИ. Соглашение между компаниями предусматривает предоставление возможности тестирования новой крупной модели генеративного ИИ от OpenAI для оценки ее безопасности. Это партнерство призвано усилить усилия по обеспечению безопасности в области искусственного интеллекта, выступая против возрастающей критики OpenAI в отношении приоритетов компании в создании передовых технологий ИИ.
Объявление и контекст
Альтман из OpenAI заявил о сотрудничестве с Учреждением США по безопасности ИИ для проведения тестов безопасности своей новой модели генеративного ИИ. Это объявление, вместе с подобным соглашением с британским органом безопасности ИИ, имеет целью подчеркнуть важность работы над безопасностью ИИ для OpenAI. Ранее критики утверждали, что OpenAI отходит от работы над безопасностью в погоне за более мощными технологиями. Недавние шаги компании включают создание комиссии по безопасности и выделение компьютерных ресурсов на исследования в этой области. Однако некоторые наблюдатели остаются скептически настроенными, особенно после переключения руководителя по безопасности ИИ на другую должность.
Проблемы с безопасностью ранее
В мае OpenAI распустила подразделение, занимавшееся проблемой создания механизмов контроля для предотвращения действий "суперинтеллектуальных" систем ИИ. Отложение исследований в области безопасности в пользу запуска новых продуктов привело к уходу двух руководителей команды. Ян Лейке теперь возглавляет исследовательскую работу по безопасности в стартапе Anthropic, а Илья Суцкевер основал компанию по безопасности ИИ, Safe Superintelligence Inc.
Ответ OpenAI на критику
В ответ на возрастающую критику от общественности и законодателей, OpenAI приняла решение устранить ограничительные положения о неразглашении, которые препятствовали разоблачениям и создать комиссию по безопасности. Кроме того, компания обещает выделить 20% вычислительной мощности для исследований в области безопасности, чтобы оправдать обещание, данное расформированной команде по безопасности. Несмотря на это, некоторые критики остаются недовольными и сомневаются в этих шагах OpenAI, особенно после того как компания недавно назначила внутренних сотрудников в состав комиссии по безопасности.
Неполное удовлетворение критиков
Несмотря на ходатайства и обещания OpenAI, остается значительное количество критиков, которых не удалось успокоить. Особенное беспокойство вызвало укомплектование комиссии по безопасности исключительно внутренними сотрудниками компании, включая самого генерального директора. Переназначение ведущего специалиста по вопросам безопасности искусственного интеллекта на другую должность также вызвало резонанс. Эти действия OpenAI могут быть восприняты как попытка оказать влияние на формирование законодательной базы в области искусственного интеллекта на федеральном уровне. Компания резко увеличила финансирование лоббистских усилий в Вашингтоне, что также вызвало недовольство среди обозревателей и законодателей.
Вопросы сенаторов и ответ OpenAI
Пять сенаторов, включая Брайана Шаца, выразили обеспокоенность политиками OpenAI в связи с их деятельностью, касающейся искусственного интеллекта. Главный стратег компании, Джейсон Квон, ответил на их письмо, подтверждая, что OpenAI серьезно относится к реализации строгих протоколов безопасности на всех этапах своей работы. Этот ответ является частью широких усилий OpenAI по обеспечению безопасности и надежности разработок в области искусственного интеллекта, включая сотрудничество с Учреждением США по безопасности ИИ.
Подозрительные совпадения и участие в политике
Время заключения соглашения между OpenAI и Институтом безопасности ИИ США весьма подозрительно, учитывая активное утверждение компанией ранее на этой неделе Закона о будущем инноваций. Данный закон предлагает учреждение Института безопасности в качестве исполнительного органа, устанавливающего стандарты и руководства для моделей искусственного интеллекта. Такие действия со стороны OpenAI могут быть восприняты как попытка контроля над регулированием, либо как стремление компании к влиянию на разработку политики в области искусственного интеллекта на федеральном уровне.
Участие Альтмана и расходы на лоббирование
Стремительное развитие сферы искусственного интеллекта приводит к важным вопросам о безопасности и ограничении потенциальных угроз. В связи с этим важно отметить, что глава OpenAI, Сэм Альтман, активно участвует в совете по безопасности и защите искусственного интеллекта при Министерстве внутренней безопасности США. Этот орган предоставляет рекомендации по обеспечению безопасной и защищенной реализации ИИ в критически важных отраслях инфраструктуры Соединенных Штатов. Кроме того, OpenAI сделала значительные инвестиции в федеральное лоббирование данной области, увеличив бюджет на эту цель до $800,000 за первые полгода 2024 года. Это свидетельствует о стремлении компании активно влиять на процессы формирования законов и стандартов, касающихся развития технологий искусственного интеллекта.
Институт безопасности ИИ
Институт безопасности ИИ в США, находящийся в пределах Национального института стандартов и технологий Министерства торговли, активно консультируется с лидирующими компаниями, включая Anthropic, Google, Microsoft, Meta, Apple, Amazon и Nvidia. Цель этой группы - разработка стратегий в соответствии с инструкциями президента Джо Байдена относительно искусственного интеллекта, включая оценку возможностей и рисков, а также предоставление рекомендаций по безопасности и защите в сфере искусственного интеллекта. Сотрудничество с такими ведущими технологическими компаниями демонстрирует стремление к развитию общих стандартов и безопасности в области искусственного интеллекта.