Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A imprensa soube do uso da ferramenta de IA Claude numa operação militar para capturar Maduro - ForkLog: criptomoedas, IA, singularidade, futuro
O exército dos EUA utilizou Claude da Anthropic numa operação para capturar o presidente da Venezuela, Nicolás Maduro. Segundo o WSJ, citando fontes.
A missão incluiu bombardeamentos de vários alvos em Caracas.
O uso do modelo para tais fins contraria a política pública da Anthropic. As regras da empresa proíbem explicitamente a aplicação de IA para violência, desenvolvimento de armamento ou organização de vigilância.
A implementação do Claude nas estruturas do Ministério da Defesa foi possível graças à parceria entre a Anthropic e a Palantir Technologies. O software da última é amplamente utilizado por militares e órgãos federais de aplicação da lei.
Após a operação, um funcionário da Anthropic perguntou a um colega da Palantir qual papel exatamente a rede neural desempenhou na operação de captura de Maduro, relata o WSJ. Um representante da startup afirmou que a empresa não discutiu o uso de seus modelos em missões específicas “com quaisquer parceiros, incluindo a Palantir”, limitando-se a questões técnicas.
Anthropic contra o Pentágono?
O representante do Pentágono, Sean Parnell, anunciou uma revisão das relações com o laboratório de IA.
Em julho de 2025, o Departamento de Defesa dos EUA assinou contratos de até 200 milhões de dólares com a Anthropic, Google, OpenAI e xAI para desenvolver soluções de IA na área de segurança. A principal divisão de tecnologias digitais e IA do departamento planejava usar esses desenvolvimentos para criar sistemas de segurança baseados em agentes.
No entanto, já em janeiro de 2026, o WSJ relatou o risco de rompimento do acordo com a Anthropic. As divergências surgiram devido à rígida política ética da startup. As regras proíbem o uso do Claude para vigilância em massa e operações autônomas letais, limitando sua aplicação por agências de inteligência como ICE e FBI.
A insatisfação dos oficiais aumentou com a integração do chatbot Grok na rede do Pentágono. O secretário de Defesa, Pite Hegset, ao comentar a parceria com a xAI, destacou que o departamento “não usará modelos que não permitam conduzir guerras”.
Pressão sobre os desenvolvedores
A Axios, citando fontes, informou que o Pentágono está pressionando quatro grandes empresas de IA para que permitam às forças armadas dos EUA usar as tecnologias para “todos os fins legais”. Isso inclui o desenvolvimento de armas, coleta de inteligência e operações de combate.
A Anthropic recusa-se a remover as restrições à vigilância de cidadãos americanos e à criação de armamento totalmente autônomo. As negociações chegaram a um impasse, mas substituir rapidamente o Claude é difícil devido ao domínio tecnológico do modelo em tarefas governamentais específicas.
Além do chatbot da Anthropic, o Pentágono usa o ChatGPT da OpenAI, o Gemini do Google e o Grok da xAI em tarefas não secretas. Todas as três empresas concordaram em aliviar as restrições aplicadas aos usuários comuns.
Atualmente, discute-se a transferência dos LLM para um circuito secreto e seu uso “para todos os fins legais”. Uma das três empresas já concordou em fazer isso, enquanto as outras duas “mostram maior flexibilidade” em relação à Anthropic.
Militarização da IA
Os EUA não são o único país a implementar ativamente inteligência artificial no setor de defesa.
China
Em junho de 2024, a China apresentou um comandante de IA para simulações militares em grande escala envolvendo todas as forças do Exército de Libertação Popular (NÃOAK). O comandante virtual possui amplos poderes, aprende rapidamente e aprimora táticas durante exercícios digitais.
Em novembro, a mídia informou que pesquisadores chineses adaptaram o modelo Llama 13B da Meta para criar a ferramenta ChatBIT. A rede neural foi otimizada para coleta e análise de inteligência, além de apoiar a tomada de decisões operacionais.
Índia
Nova Deli também aposta na IA como motor da segurança nacional. O governo desenvolveu estratégias e programas nacionais, criou instituições e órgãos específicos para a implementação de IA, além de lançar projetos para aplicar a tecnologia em diversos setores.
Reino Unido
Londres consolidou a IA como uma prioridade. Na “Estratégia de IA para Defesa” (2022), o ministério considera a IA um componente-chave das forças armadas futuras. No “Revisão Estratégica de Defesa” (2025), a tecnologia é considerada um elemento fundamental na guerra moderna.
Se antes a inteligência artificial era vista como uma ferramenta auxiliar no contexto militar, agora as Forças Armadas britânicas planejam uma transformação em “forças tecnologicamente integradas”, onde sistemas de IA devem ser utilizados em todos os níveis — desde análises táticas até o campo de batalha.
Lembre-se, em março de 2025, o Pentágono anunciou o uso de agentes de IA para modelar confrontos com adversários estrangeiros.