A equipa de Trump está furiosa com a posição de princípio de Dario Amodei de impedir que o Departamento de Defesa utilize as suas ferramentas de IA para fins bélicos
O contrato de 200 milhões de dólares da Anthropic com o Departamento de Defesa está em risco após a Anthropic supostamente ter levantado preocupações sobre o uso do seu modelo de IA Claude durante a operação de Nicolas Maduro em janeiro.
Vídeo Recomendado
“A relação do Departamento de Guerra com a Anthropic está a ser revista,” afirmou o porta-voz-chefe do Pentágono, Sean Parnell, numa declaração à Fortune. “A nossa nação exige que os nossos parceiros estejam dispostos a ajudar os nossos combatentes a vencer qualquer batalha. No final, isto trata-se dos nossos soldados e da segurança do povo americano.”
As tensões aumentaram nas últimas semanas após um alto responsável da Anthropic supostamente ter contactado um executivo sénior da Palantir para questionar como Claude foi utilizado na operação, segundo The Hill. O executivo da Palantir interpretou o contacto como uma desaprovação do uso do modelo na operação e encaminhou os detalhes da troca ao Pentágono. (O presidente Trump afirmou que o exército usou uma arma “desconectadora” durante a operação, que fez com que o equipamento inimigo “não funcionasse”.)
“A Anthropic não discutiu o uso de Claude para operações específicas com o Departamento de Guerra,” afirmou um porta-voz da Anthropic numa declaração à Fortune. “Também não discutimos isso com, nem expressamos preocupações a, quaisquer parceiros da indústria fora de discussões rotineiras sobre assuntos estritamente técnicos.”
No centro desta disputa estão as regras contratuais que determinam como os modelos de IA podem ser utilizados em operações de defesa. O CEO da Anthropic, Dario Amodei, tem defendido consistentemente limites rigorosos ao uso e à regulamentação de IA, admitindo até que se torna difícil equilibrar segurança e lucros. Há meses, a empresa e o DOD têm mantido negociações contenciosas sobre como Claude pode ser utilizado em operações militares.
De acordo com o contrato do Departamento de Defesa, a Anthropic não permitirá que o Pentágono utilize os seus modelos de IA para vigilância em massa de americanos ou para uso em armas totalmente autônomas. A empresa também proibiu o uso da sua tecnologia em aplicações militares “letais” ou “cinéticas”. Qualquer envolvimento direto em fogo ativo durante a operação de Maduro provavelmente violaria esses termos.
Entre as empresas de IA que contratam com o governo — incluindo OpenAI, Google e xAI — a Anthropic detém uma posição lucrativa ao colocar Claude como o único grande modelo de linguagem autorizado nas redes classificadas do Pentágono.
Esta posição foi destacada pela Anthropic numa declaração à Fortune. “Claude é utilizado em uma grande variedade de casos de uso relacionados com inteligência em todo o governo, incluindo o DoW, de acordo com a nossa Política de Uso.”
A empresa “está comprometida em usar IA de fronteira em apoio à segurança nacional dos EUA,” dizia a declaração. “Estamos a ter conversas produtivas, de boa-fé, com o DoW sobre como continuar esse trabalho e resolver essas questões complexas corretamente.”
A Palantir, OpenAI, Google e xAI não responderam imediatamente a um pedido de comentário.
IA vai à guerra
Apesar do DOD ter acelerado os esforços para integrar IA nas suas operações, apenas a xAI concedeu ao DOD o uso dos seus modelos para “todos os fins legais,” enquanto as outras mantêm restrições de uso.
Amodei tem alertado há meses sobre a proteção dos utilizadores, oferecendo a Anthropic como uma alternativa de segurança prioritária à OpenAI e Google na ausência de regulamentações governamentais. “Estou profundamente desconfortável com estas decisões serem tomadas por algumas empresas,” afirmou em novembro. Embora se tenha especulado que a Anthropic planeava aliviar as restrições, a empresa agora enfrenta a possibilidade de ser excluída completamente da indústria de defesa.
Um alto responsável do Pentágono disse à Axios que o secretário de Defesa, Pete Hegseth, está “próximo” de retirar a Anthropic da cadeia de fornecimento militar, forçando qualquer entidade que deseje fazer negócios com o exército a cortar também os laços com a empresa.
“Vai ser uma dor enorme de cabeça desassociar, e vamos garantir que eles paguem um preço por forçar a nossa mão assim,” afirmou o responsável à publicação.
Ser considerado uma questão de risco de fornecimento militar é uma designação especial, geralmente reservada apenas para adversários estrangeiros. O precedente mais próximo é a proibição do governo à Huawei em 2019, por motivos de segurança nacional. No caso da Anthropic, fontes disseram à Axios que os responsáveis pela defesa têm procurado provocar um conflito com a empresa sediada em São Francisco há algum tempo.
Os comentários do Pentágono representam o mais recente episódio de uma disputa pública que está a chegar ao ponto de ebulição. O governo afirma que estabelecer limites éticos às suas modelos por parte das empresas seria excessivamente restritivo, e que o grande número de áreas cinzentas tornaria as tecnologias inúteis. À medida que o Pentágono continua a negociar com os subcontratados de IA para expandir o uso, a disputa pública torna-se uma batalha indireta sobre quem vai ditar os usos da IA.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A equipa de Trump está furiosa com a posição de princípio de Dario Amodei de impedir que o Departamento de Defesa utilize as suas ferramentas de IA para fins bélicos
O contrato de 200 milhões de dólares da Anthropic com o Departamento de Defesa está em risco após a Anthropic supostamente ter levantado preocupações sobre o uso do seu modelo de IA Claude durante a operação de Nicolas Maduro em janeiro.
Vídeo Recomendado
“A relação do Departamento de Guerra com a Anthropic está a ser revista,” afirmou o porta-voz-chefe do Pentágono, Sean Parnell, numa declaração à Fortune. “A nossa nação exige que os nossos parceiros estejam dispostos a ajudar os nossos combatentes a vencer qualquer batalha. No final, isto trata-se dos nossos soldados e da segurança do povo americano.”
As tensões aumentaram nas últimas semanas após um alto responsável da Anthropic supostamente ter contactado um executivo sénior da Palantir para questionar como Claude foi utilizado na operação, segundo The Hill. O executivo da Palantir interpretou o contacto como uma desaprovação do uso do modelo na operação e encaminhou os detalhes da troca ao Pentágono. (O presidente Trump afirmou que o exército usou uma arma “desconectadora” durante a operação, que fez com que o equipamento inimigo “não funcionasse”.)
“A Anthropic não discutiu o uso de Claude para operações específicas com o Departamento de Guerra,” afirmou um porta-voz da Anthropic numa declaração à Fortune. “Também não discutimos isso com, nem expressamos preocupações a, quaisquer parceiros da indústria fora de discussões rotineiras sobre assuntos estritamente técnicos.”
No centro desta disputa estão as regras contratuais que determinam como os modelos de IA podem ser utilizados em operações de defesa. O CEO da Anthropic, Dario Amodei, tem defendido consistentemente limites rigorosos ao uso e à regulamentação de IA, admitindo até que se torna difícil equilibrar segurança e lucros. Há meses, a empresa e o DOD têm mantido negociações contenciosas sobre como Claude pode ser utilizado em operações militares.
De acordo com o contrato do Departamento de Defesa, a Anthropic não permitirá que o Pentágono utilize os seus modelos de IA para vigilância em massa de americanos ou para uso em armas totalmente autônomas. A empresa também proibiu o uso da sua tecnologia em aplicações militares “letais” ou “cinéticas”. Qualquer envolvimento direto em fogo ativo durante a operação de Maduro provavelmente violaria esses termos.
Entre as empresas de IA que contratam com o governo — incluindo OpenAI, Google e xAI — a Anthropic detém uma posição lucrativa ao colocar Claude como o único grande modelo de linguagem autorizado nas redes classificadas do Pentágono.
Esta posição foi destacada pela Anthropic numa declaração à Fortune. “Claude é utilizado em uma grande variedade de casos de uso relacionados com inteligência em todo o governo, incluindo o DoW, de acordo com a nossa Política de Uso.”
A empresa “está comprometida em usar IA de fronteira em apoio à segurança nacional dos EUA,” dizia a declaração. “Estamos a ter conversas produtivas, de boa-fé, com o DoW sobre como continuar esse trabalho e resolver essas questões complexas corretamente.”
A Palantir, OpenAI, Google e xAI não responderam imediatamente a um pedido de comentário.
IA vai à guerra
Apesar do DOD ter acelerado os esforços para integrar IA nas suas operações, apenas a xAI concedeu ao DOD o uso dos seus modelos para “todos os fins legais,” enquanto as outras mantêm restrições de uso.
Amodei tem alertado há meses sobre a proteção dos utilizadores, oferecendo a Anthropic como uma alternativa de segurança prioritária à OpenAI e Google na ausência de regulamentações governamentais. “Estou profundamente desconfortável com estas decisões serem tomadas por algumas empresas,” afirmou em novembro. Embora se tenha especulado que a Anthropic planeava aliviar as restrições, a empresa agora enfrenta a possibilidade de ser excluída completamente da indústria de defesa.
Um alto responsável do Pentágono disse à Axios que o secretário de Defesa, Pete Hegseth, está “próximo” de retirar a Anthropic da cadeia de fornecimento militar, forçando qualquer entidade que deseje fazer negócios com o exército a cortar também os laços com a empresa.
“Vai ser uma dor enorme de cabeça desassociar, e vamos garantir que eles paguem um preço por forçar a nossa mão assim,” afirmou o responsável à publicação.
Ser considerado uma questão de risco de fornecimento militar é uma designação especial, geralmente reservada apenas para adversários estrangeiros. O precedente mais próximo é a proibição do governo à Huawei em 2019, por motivos de segurança nacional. No caso da Anthropic, fontes disseram à Axios que os responsáveis pela defesa têm procurado provocar um conflito com a empresa sediada em São Francisco há algum tempo.
Os comentários do Pentágono representam o mais recente episódio de uma disputa pública que está a chegar ao ponto de ebulição. O governo afirma que estabelecer limites éticos às suas modelos por parte das empresas seria excessivamente restritivo, e que o grande número de áreas cinzentas tornaria as tecnologias inúteis. À medida que o Pentágono continua a negociar com os subcontratados de IA para expandir o uso, a disputa pública torna-se uma batalha indireta sobre quem vai ditar os usos da IA.