Команда Трампа возмущена принципиальной позицией Дарио Амодеи, который настаивает на том, чтобы Министерство обороны не использовало его инструменты ИИ в военных целях
Контракт Anthropic на сумму 200 миллионов долларов с Министерством обороны находится под вопросом после того, как Anthropic якобы выразила озабоченность использованием модели Claude AI Пентагоном во время рейда против Николаса Мадуро в январе.
Рекомендуемое видео
«Отношения Министерства войны с Anthropic пересматриваются», — заявил главный пресс-секретарь Пентагона Шон Парнелл в заявлении для Fortune. «Нашей стране необходимо, чтобы наши партнеры были готовы помочь нашим бойцам побеждать в любой ситуации. В конечном итоге, речь идет о наших войсках и безопасности американского народа.»
Напряженность в последние недели усилилась после того, как, по данным The Hill, высокопоставленный представитель Anthropic якобы связался с руководителем компании Palantir, чтобы поставить под сомнение использование Claude в рейде. Руководитель Palantir интерпретировал этот контакт как неодобрение использования модели в операции и передал детали обмена в Пентагон. (Президент Трамп заявил, что во время рейда военные использовали оружие «дезориентатор», которое делало оборудование противника «неработоспособным».)
«Anthropic не обсуждала использование Claude для конкретных операций с Министерством войны», — заявил представитель Anthropic в комментарии для Fortune. «Мы также не обсуждали это с кем-либо из отраслевых партнеров, кроме рутинных технических обсуждений.»
В центре этого спора — контрактные ограничения, регулирующие использование моделей ИИ в оборонных операциях. Генеральный директор Anthropic Дарио Амодеи постоянно выступает за строгие ограничения и регулирование использования ИИ, признавая, что балансировать безопасность и прибыль становится все сложнее. Уже несколько месяцев компания и Министерство обороны ведут напряженные переговоры о том, как можно использовать Claude в военных операциях.
По контракту с Министерством обороны Anthropic не разрешает Пентагону использовать свои модели ИИ для массового наблюдения за американцами или в полностью автономных вооружениях. Компания также запретила использование своей технологии в «смертельных» или «кинетических» военных приложениях. Любое прямое участие в активных стрельбах во время рейда против Мадуро, скорее всего, нарушит эти условия.
Среди компаний, разрабатывающих ИИ для правительства — включая OpenAI, Google и xAI — Anthropic занимает выгодную позицию, являясь единственной крупной языковой моделью, разрешенной на секретных сетях Пентагона.
Об этом подчеркнули в заявлении Anthropic для Fortune. «Claude используется для широкого спектра задач, связанных с разведкой, по всему правительству, включая Министерство войны, в соответствии с нашей Политикой использования.»
Компания «нацелена на использование передового ИИ в поддержку национальной безопасности США», говорится в заявлении. «Мы ведем продуктивные, добросовестные переговоры с Министерством войны о том, как продолжить эту работу и правильно решить эти сложные вопросы.»
Palantir, OpenAI, Google и xAI не сразу ответили на запрос о комментарии.
ИИ идет на войну
Несмотря на то, что Министерство обороны ускоряет интеграцию ИИ в свои операции, только xAI предоставила Пентагону право использовать свои модели «для всех законных целей», в то время как остальные сохраняют ограничения на использование.
Амодеи уже несколько месяцев предупреждает о необходимости защиты пользователей, предлагая Anthropic как безопасную альтернативу OpenAI и Google в условиях отсутствия государственных регуляций. «Меня глубоко беспокоит, что такие решения принимают всего несколько компаний», — говорил он еще в ноябре. Хотя ходили слухи, что Anthropic планирует смягчить ограничения, сейчас компания сталкивается с возможностью полного исключения из оборонной отрасли.
Высокопоставленный представитель Пентагона сообщил Axios, что министр обороны Пит Хегсэт «близок» к тому, чтобы исключить Anthropic из военной цепочки поставок, что заставит всех, желающих вести бизнес с армией, разорвать связи с компанией.
«Это будет огромной головной болью, и мы убедимся, что они заплатят цену за то, что вынудили нас так поступить», — заявил представитель издания.
Объявление о признании компании угрозой для военной поставки — особый статус, обычно предназначенный только для иностранных противников. Ближайшим прецедентом является запрет правительства на Huawei в 2019 году из-за опасений национальной безопасности. В случае Anthropic источники сообщили Axios, что военные чиновники давно ищут повод для конфликта с компанией из Сан-Франциско.
Комментарии Пентагона — это последний виток публичного спора, который выходит на поверхность. Правительство утверждает, что установка этических границ для моделей ИИ со стороны компаний была бы излишне ограничительной, а множество неопределенных моментов сделало бы технологии бесполезными. По мере того, как Пентагон продолжает переговоры с субподрядчиками по ИИ о расширении использования, публичный конфликт превращается в прокси-спор о том, кто будет определять границы использования ИИ.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Команда Трампа возмущена принципиальной позицией Дарио Амодеи, который настаивает на том, чтобы Министерство обороны не использовало его инструменты ИИ в военных целях
Контракт Anthropic на сумму 200 миллионов долларов с Министерством обороны находится под вопросом после того, как Anthropic якобы выразила озабоченность использованием модели Claude AI Пентагоном во время рейда против Николаса Мадуро в январе.
Рекомендуемое видео
«Отношения Министерства войны с Anthropic пересматриваются», — заявил главный пресс-секретарь Пентагона Шон Парнелл в заявлении для Fortune. «Нашей стране необходимо, чтобы наши партнеры были готовы помочь нашим бойцам побеждать в любой ситуации. В конечном итоге, речь идет о наших войсках и безопасности американского народа.»
Напряженность в последние недели усилилась после того, как, по данным The Hill, высокопоставленный представитель Anthropic якобы связался с руководителем компании Palantir, чтобы поставить под сомнение использование Claude в рейде. Руководитель Palantir интерпретировал этот контакт как неодобрение использования модели в операции и передал детали обмена в Пентагон. (Президент Трамп заявил, что во время рейда военные использовали оружие «дезориентатор», которое делало оборудование противника «неработоспособным».)
«Anthropic не обсуждала использование Claude для конкретных операций с Министерством войны», — заявил представитель Anthropic в комментарии для Fortune. «Мы также не обсуждали это с кем-либо из отраслевых партнеров, кроме рутинных технических обсуждений.»
В центре этого спора — контрактные ограничения, регулирующие использование моделей ИИ в оборонных операциях. Генеральный директор Anthropic Дарио Амодеи постоянно выступает за строгие ограничения и регулирование использования ИИ, признавая, что балансировать безопасность и прибыль становится все сложнее. Уже несколько месяцев компания и Министерство обороны ведут напряженные переговоры о том, как можно использовать Claude в военных операциях.
По контракту с Министерством обороны Anthropic не разрешает Пентагону использовать свои модели ИИ для массового наблюдения за американцами или в полностью автономных вооружениях. Компания также запретила использование своей технологии в «смертельных» или «кинетических» военных приложениях. Любое прямое участие в активных стрельбах во время рейда против Мадуро, скорее всего, нарушит эти условия.
Среди компаний, разрабатывающих ИИ для правительства — включая OpenAI, Google и xAI — Anthropic занимает выгодную позицию, являясь единственной крупной языковой моделью, разрешенной на секретных сетях Пентагона.
Об этом подчеркнули в заявлении Anthropic для Fortune. «Claude используется для широкого спектра задач, связанных с разведкой, по всему правительству, включая Министерство войны, в соответствии с нашей Политикой использования.»
Компания «нацелена на использование передового ИИ в поддержку национальной безопасности США», говорится в заявлении. «Мы ведем продуктивные, добросовестные переговоры с Министерством войны о том, как продолжить эту работу и правильно решить эти сложные вопросы.»
Palantir, OpenAI, Google и xAI не сразу ответили на запрос о комментарии.
ИИ идет на войну
Несмотря на то, что Министерство обороны ускоряет интеграцию ИИ в свои операции, только xAI предоставила Пентагону право использовать свои модели «для всех законных целей», в то время как остальные сохраняют ограничения на использование.
Амодеи уже несколько месяцев предупреждает о необходимости защиты пользователей, предлагая Anthropic как безопасную альтернативу OpenAI и Google в условиях отсутствия государственных регуляций. «Меня глубоко беспокоит, что такие решения принимают всего несколько компаний», — говорил он еще в ноябре. Хотя ходили слухи, что Anthropic планирует смягчить ограничения, сейчас компания сталкивается с возможностью полного исключения из оборонной отрасли.
Высокопоставленный представитель Пентагона сообщил Axios, что министр обороны Пит Хегсэт «близок» к тому, чтобы исключить Anthropic из военной цепочки поставок, что заставит всех, желающих вести бизнес с армией, разорвать связи с компанией.
«Это будет огромной головной болью, и мы убедимся, что они заплатят цену за то, что вынудили нас так поступить», — заявил представитель издания.
Объявление о признании компании угрозой для военной поставки — особый статус, обычно предназначенный только для иностранных противников. Ближайшим прецедентом является запрет правительства на Huawei в 2019 году из-за опасений национальной безопасности. В случае Anthropic источники сообщили Axios, что военные чиновники давно ищут повод для конфликта с компанией из Сан-Франциско.
Комментарии Пентагона — это последний виток публичного спора, который выходит на поверхность. Правительство утверждает, что установка этических границ для моделей ИИ со стороны компаний была бы излишне ограничительной, а множество неопределенных моментов сделало бы технологии бесполезными. По мере того, как Пентагон продолжает переговоры с субподрядчиками по ИИ о расширении использования, публичный конфликт превращается в прокси-спор о том, кто будет определять границы использования ИИ.