# Os meios de comunicação descobriram o uso da ferramenta de IA Claude numa operação militar para capturar Maduro
O exército dos EUA utilizou Claude da Anthropic numa operação para capturar o presidente da Venezuela, Nicolás Maduro. Segundo o WSJ, citando fontes.
A missão incluiu bombardeamentos de vários alvos em Caracas.
O uso do modelo para tais fins contraria a política pública da Anthropic. As regras da empresa proíbem explicitamente a aplicação de IA para violência, desenvolvimento de armamento ou organização de vigilância.
“Não podemos comentar se Claude ou qualquer outro modelo foi utilizado numa operação específica — seja ela secreta ou de outro tipo. Qualquer uso de LLM — tanto no setor privado quanto em entidades governamentais — deve estar de acordo com a nossa política de implementação de redes neurais. Trabalhamos em estreita colaboração com parceiros para garantir o cumprimento dessas regras”, afirmou um representante da Anthropic.
A implementação do Claude nas estruturas do Ministério da Defesa foi possível graças à parceria entre a Anthropic e a Palantir Technologies. O software da última é amplamente utilizado por militares e órgãos federais de aplicação da lei.
Após a operação, um funcionário da Anthropic perguntou a um colega da Palantir qual papel exatamente a rede neural desempenhou na operação de captura de Maduro, relata o WSJ. Um representante da startup afirmou que a empresa não discutiu o uso de seus modelos em missões específicas “com quaisquer parceiros, incluindo a Palantir”, limitando-se a questões técnicas.
“A Anthropic está comprometida com o uso de IA avançada para apoiar a segurança nacional dos EUA”, acrescentou o representante da empresa.
Anthropic contra o Pentágono?
O representante do Pentágono, Sean Parnell, anunciou uma revisão das relações com o laboratório de IA.
“Nosso país precisa de parceiros dispostos a ajudar os combatentes a vencer qualquer guerra”, disse ele.
Em julho de 2025, o Departamento de Defesa dos EUA assinou contratos de até 200 milhões de dólares com a Anthropic, Google, OpenAI e xAI para desenvolver soluções de IA na área de segurança. A principal divisão de tecnologias digitais e IA do departamento planejava usar esses desenvolvimentos para criar sistemas de segurança baseados em agentes.
No entanto, já em janeiro de 2026, o WSJ relatou o risco de rompimento do acordo com a Anthropic. As divergências surgiram devido à rígida política ética da startup. As regras proíbem o uso do Claude para vigilância em massa e operações autônomas letais, limitando sua aplicação por agências de inteligência como ICE e FBI.
A insatisfação dos oficiais aumentou com a integração do chatbot Grok na rede do Pentágono. O secretário de Defesa, Pite Hegset, ao comentar a parceria com a xAI, destacou que o departamento “não usará modelos que não permitam conduzir guerras”.
Pressão sobre os desenvolvedores
A Axios, citando fontes, informou que o Pentágono está pressionando quatro grandes empresas de IA para que permitam às forças armadas dos EUA usar as tecnologias para “todos os fins legais”. Isso inclui o desenvolvimento de armas, coleta de inteligência e operações de combate.
A Anthropic recusa-se a remover as restrições à vigilância de cidadãos americanos e à criação de armamento totalmente autônomo. As negociações chegaram a um impasse, mas substituir rapidamente o Claude é difícil devido ao domínio tecnológico do modelo em tarefas governamentais específicas.
Além do chatbot da Anthropic, o Pentágono usa o ChatGPT da OpenAI, o Gemini do Google e o Grok da xAI em tarefas não secretas. Todas as três empresas concordaram em aliviar as restrições aplicadas aos usuários comuns.
Atualmente, discute-se a transferência dos LLM para um circuito secreto e seu uso “para todos os fins legais”. Uma das três empresas já concordou em fazer isso, enquanto as outras duas “mostram maior flexibilidade” em relação à Anthropic.
Militarização da IA
Os EUA não são o único país a implementar ativamente inteligência artificial no setor de defesa.
China
Em junho de 2024, a China apresentou um comandante de IA para simulações militares em grande escala envolvendo todas as forças do Exército de Libertação Popular (NÃOAK). O comandante virtual possui amplos poderes, aprende rapidamente e aprimora táticas durante exercícios digitais.
Em novembro, a mídia informou que pesquisadores chineses adaptaram o modelo Llama 13B da Meta para criar a ferramenta ChatBIT. A rede neural foi otimizada para coleta e análise de inteligência, além de apoiar a tomada de decisões operacionais.
Índia
Nova Deli também aposta na IA como motor da segurança nacional. O governo desenvolveu estratégias e programas nacionais, criou instituições e órgãos específicos para a implementação de IA, além de lançar projetos para aplicar a tecnologia em diversos setores.
Reino Unido
Londres consolidou a IA como uma prioridade. Na “Estratégia de IA para Defesa” (2022), o ministério considera a IA um componente-chave das forças armadas futuras. No “Revisão Estratégica de Defesa” (2025), a tecnologia é considerada um elemento fundamental na guerra moderna.
Se antes a inteligência artificial era vista como uma ferramenta auxiliar no contexto militar, agora as Forças Armadas britânicas planejam uma transformação em “forças tecnologicamente integradas”, onde sistemas de IA devem ser utilizados em todos os níveis — desde análises táticas até o campo de batalha.
Lembre-se, em março de 2025, o Pentágono anunciou o uso de agentes de IA para modelar confrontos com adversários estrangeiros.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A imprensa soube do uso da ferramenta de IA Claude numa operação militar para capturar Maduro - ForkLog: criptomoedas, IA, singularidade, futuro
O exército dos EUA utilizou Claude da Anthropic numa operação para capturar o presidente da Venezuela, Nicolás Maduro. Segundo o WSJ, citando fontes.
A missão incluiu bombardeamentos de vários alvos em Caracas.
O uso do modelo para tais fins contraria a política pública da Anthropic. As regras da empresa proíbem explicitamente a aplicação de IA para violência, desenvolvimento de armamento ou organização de vigilância.
A implementação do Claude nas estruturas do Ministério da Defesa foi possível graças à parceria entre a Anthropic e a Palantir Technologies. O software da última é amplamente utilizado por militares e órgãos federais de aplicação da lei.
Após a operação, um funcionário da Anthropic perguntou a um colega da Palantir qual papel exatamente a rede neural desempenhou na operação de captura de Maduro, relata o WSJ. Um representante da startup afirmou que a empresa não discutiu o uso de seus modelos em missões específicas “com quaisquer parceiros, incluindo a Palantir”, limitando-se a questões técnicas.
Anthropic contra o Pentágono?
O representante do Pentágono, Sean Parnell, anunciou uma revisão das relações com o laboratório de IA.
Em julho de 2025, o Departamento de Defesa dos EUA assinou contratos de até 200 milhões de dólares com a Anthropic, Google, OpenAI e xAI para desenvolver soluções de IA na área de segurança. A principal divisão de tecnologias digitais e IA do departamento planejava usar esses desenvolvimentos para criar sistemas de segurança baseados em agentes.
No entanto, já em janeiro de 2026, o WSJ relatou o risco de rompimento do acordo com a Anthropic. As divergências surgiram devido à rígida política ética da startup. As regras proíbem o uso do Claude para vigilância em massa e operações autônomas letais, limitando sua aplicação por agências de inteligência como ICE e FBI.
A insatisfação dos oficiais aumentou com a integração do chatbot Grok na rede do Pentágono. O secretário de Defesa, Pite Hegset, ao comentar a parceria com a xAI, destacou que o departamento “não usará modelos que não permitam conduzir guerras”.
Pressão sobre os desenvolvedores
A Axios, citando fontes, informou que o Pentágono está pressionando quatro grandes empresas de IA para que permitam às forças armadas dos EUA usar as tecnologias para “todos os fins legais”. Isso inclui o desenvolvimento de armas, coleta de inteligência e operações de combate.
A Anthropic recusa-se a remover as restrições à vigilância de cidadãos americanos e à criação de armamento totalmente autônomo. As negociações chegaram a um impasse, mas substituir rapidamente o Claude é difícil devido ao domínio tecnológico do modelo em tarefas governamentais específicas.
Além do chatbot da Anthropic, o Pentágono usa o ChatGPT da OpenAI, o Gemini do Google e o Grok da xAI em tarefas não secretas. Todas as três empresas concordaram em aliviar as restrições aplicadas aos usuários comuns.
Atualmente, discute-se a transferência dos LLM para um circuito secreto e seu uso “para todos os fins legais”. Uma das três empresas já concordou em fazer isso, enquanto as outras duas “mostram maior flexibilidade” em relação à Anthropic.
Militarização da IA
Os EUA não são o único país a implementar ativamente inteligência artificial no setor de defesa.
China
Em junho de 2024, a China apresentou um comandante de IA para simulações militares em grande escala envolvendo todas as forças do Exército de Libertação Popular (NÃOAK). O comandante virtual possui amplos poderes, aprende rapidamente e aprimora táticas durante exercícios digitais.
Em novembro, a mídia informou que pesquisadores chineses adaptaram o modelo Llama 13B da Meta para criar a ferramenta ChatBIT. A rede neural foi otimizada para coleta e análise de inteligência, além de apoiar a tomada de decisões operacionais.
Índia
Nova Deli também aposta na IA como motor da segurança nacional. O governo desenvolveu estratégias e programas nacionais, criou instituições e órgãos específicos para a implementação de IA, além de lançar projetos para aplicar a tecnologia em diversos setores.
Reino Unido
Londres consolidou a IA como uma prioridade. Na “Estratégia de IA para Defesa” (2022), o ministério considera a IA um componente-chave das forças armadas futuras. No “Revisão Estratégica de Defesa” (2025), a tecnologia é considerada um elemento fundamental na guerra moderna.
Se antes a inteligência artificial era vista como uma ferramenta auxiliar no contexto militar, agora as Forças Armadas britânicas planejam uma transformação em “forças tecnologicamente integradas”, onde sistemas de IA devem ser utilizados em todos os níveis — desde análises táticas até o campo de batalha.
Lembre-se, em março de 2025, o Pentágono anunciou o uso de agentes de IA para modelar confrontos com adversários estrangeiros.