Anthropic, ведущий разработчик ИИ, оказался в тупике с Пентагоном из-за ограничений, наложенных на использование его моделей искусственного интеллекта военными. Спор касается приверженности Anthropic принципам “безопасность прежде всего” и требования Пентагона к неограниченному доступу к ИИ для “всех законных целей”. Этот конфликт подчеркивает растущее напряжение между этической разработкой ИИ и потребностями национальной безопасности.

Быстрый взлёт Anthropic и военный интерес

Anthropic стремительно стал одним из ключевых игроков в индустрии ИИ. Его новейшие модели, Claude Opus 4.6 и Sonnet 4.6, демонстрируют передовые возможности, включая координацию команд автономных агентов, навигацию по веб-приложениям и обработку огромных объёмов данных. Компания недавно привлекла $30 млрд финансирования при оценке в $380 млрд, что свидетельствует о её стремительном росте.

Интерес Пентагона к технологиям Anthropic усилился после появления сообщений о том, что спецназ США якобы использовал Claude во время рейда в Венесуэле. Эта операция, проведённая в партнёрстве с Palantir, заставила Пентагон рассмотреть возможность обозначения Anthropic как “риск в цепочке поставок” – ярлык, обычно предназначенный для иностранных противников – если компания не снимет ограничения на военное использование.

Основной конфликт: этические границы против оперативных потребностей

Anthropic чётко обозначил две границы: никакого массового наблюдения за американцами и никакого полностью автономного оружия. Генеральный директор Дарио Амодей настаивает на том, что Anthropic будет поддерживать национальную оборону, не повторяя практики авторитарных режимов. Однако Пентагон утверждает, что эти ограничения непрактичны и препятствуют полному использованию ИИ в военных операциях.

Этот спор поднимает фундаментальные вопросы: сможет ли компания, основанная на принципах безопасности ИИ, поддерживать эти стандарты, когда её инструменты интегрируются в засекреченные военные сети? Возможно ли примирить потребность в передовых возможностях ИИ со строгими этическими ограничениями?

Серые зоны и меняющиеся определения

Эксперты предупреждают, что существующие правовые рамки могут не успевать за стремительным развитием ИИ. Разоблачения Сноудена показали, как правительства могут использовать правовые лазейки для оправдания массового сбора данных. Теперь ИИ-системы могут анализировать огромные наборы данных в беспрецедентных масштабах, размывая границы между наблюдением и сбором разведданных.

Определение “автономного оружия” также меняется. В то время как Anthropic запрещает системы, которые выбирают и поражают цели без участия человека, израильские системы Lavender и Gospel демонстрируют, как ИИ может автоматизировать идентификацию целей, оставляя людям право утверждать удары. Это вызывает опасения по поводу степени человеческого контроля, необходимого для поддержания этического управления.

Будущее ИИ в обороне

Противостояние Anthropic и Пентагона подчёркивает проблемы интеграции ИИ в военные операции. Передовые модели компании, включая координацию автономных агентов и большую рабочую память, предлагают значительные преимущества для анализа разведданных и оперативной эффективности. Однако эти же возможности затрудняют соблюдение строгих этических границ.

По мере того как ИИ становится всё мощнее, грань между аналитической поддержкой и целевым применением может становиться всё более размытой. Приверженность Anthropic принципам “безопасность прежде всего” будет подвергнута испытанию по мере дальнейшего внедрения её технологий в засекреченные военные сети. Остаётся ли компания верна своим принципам, покажет время.

Это противостояние является критическим тестом: могут ли этическая разработка ИИ и потребности военных операций сосуществовать, или прагматизм неизбежно возобладает над принципами? Исход этого конфликта определит будущее развёртывания ИИ в обороне и поставит более широкие вопросы об ответственности в эпоху машинного интеллекта.