Google разрешила разработку ИИ для создания оружия

Использование ИИ в военных целях
С недавними изменениями в политике Google, компания теперь открыта для разработки искусственного интеллекта с потенциальным военным применением. Исчезновение из ее принципов положения о запрете на создание технологий, которые могут нанести вред, стало предметом общественного обсуждения и возмущения. В то время как другие крупные игроки в сфере ИИ, такие как OpenAI и Meta, продолжают запрещать своим системам причинять ущерб, Google делает шаг в сторону военных технологий, утверждая, что это необходимо для поддержки национальной безопасности демократических стран.
По информации, представленной топ-менеджерами компании, использование ИИ в процессе разработки стратегий, определения и отслеживания угроз становится все более актуальным. Применение технологий Google, включая облачное вычисление и машинное обучение, уже зарекомендовало себя в проекте Nimbus, который предоставил Израилю доступ к мощным инструментам ИИ. Эта тенденция демонстрирует нарастающую связь технологий и военных нужд, поднимая этические вопросы о будущем ИИ и его влиянии на мир. Кроме того, использование генеративного ИИ силами США, включая Корпус морской пехоты, показывает, что стремление интегрировать современные технологии в военное дело становится обычной практикой.
Отказ от обещаний
Американская корпорация Google приняла решение отменить свое предыдущее обещание не использовать искусственный интеллект для разработки оружия. Как выяснили журналисты Bloomberg, из обновленных принципов ИИ на официальном сайте компании исчезло положение о том, какие применения ИИ компания не будет развивать. Это положение включало технологии, способные нанести вред, включая оружие. Маргарет Митчелл, которая ранее отвечала за этику в проекте ИИ Google, выразила обеспокоенность, указав, что такой шаг свидетельствует о намерении компании разрабатывать технологии, способные угрожать человеческим жизням. В последние годы Google демонстрирует значительный прогресс в создании ИИ-моделей, способных имитировать человеческое мышление, включая опыт, полученный с помощью чат-ботов Gemini и Bard, что подчеркивает потенциал их использования в военной сфере.
Защита демократических ценностей
Старший вице-президент Google Джеймс Манийка и руководитель лаборатории ИИ DeepMind Демис Хассабис подчеркнули важность лидерства демократических государств в разработке искусственного интеллекта, основываясь на принципах, таких как свобода, равенство и уважение к правам человека. Они утверждают, что только через сотрудничество между компаниями, правительствами и организациями, разделяющими эти ценности, можно создать технологии, способные защитить людей и обеспечить национальную безопасность. Примером такого сотрудничества служит проект Nimbus — контракты на облачные вычисления между Google, Amazon и правительством Израиля, который предоставляет доступ к продвинутым ИИ-технологиям. Это показывает, как ИИ может быть интегрирован в стратегические инициативы, поддерживающие интересы демократических стран, несмотря на продолжающиеся дебаты о моральных и этических аспектах использования таких технологий.
Практика применения
В 2024 году компании, занимающиеся искусственным интеллектом, такие как OpenAI, Anthropic и Meta, пересмотрели свои политики, чтобы дать возможность разведывательным и оборонным агентствам США использовать свои ИИ-системы. Стоит отметить, что при этом они все еще вводят строгие ограничения на использование этих технологий в целях причинения вреда людям. Пентагон сообщает, что генеративный ИИ играет важную роль в планировании и разработке стратегий, а также в выявлении и отслеживании угроз с помощью сложных систем датчиков.
Кроме того, Корпус морской пехоты США активно использует ИИ для оценки и идентификации новобранцев, которые могут не завершить свою службу. Применяемая большая языковая модель (LLM) позволяет более эффективно планировать учения и операции, опираясь на анализ обширного хранилища текстов, накопленных из прежних военных действий. В то время как ИИ продолжает развиваться, его интеграция в военные практики открывает новые горизонты для анализов и стратегий, однако остается под контролем жестких этических стандартов, которые направлены на предотвращение причинения вреда людям.