Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
A disputa de defesa dos EUA aprofunda-se à medida que a Anthropic apresenta uma ação judicial contra o Pentágono, contestando a lista negra de...
Num aumento acentuado de tensões com Washington, a empresa de IA Anthropic entrou com uma ação judicial devido à sua súbita inclusão na lista negra pelo establishment de defesa dos EUA.
Anthropic processa o Pentágono por etiqueta de “risco na cadeia de abastecimento”
Na segunda-feira, a Anthropic entrou com duas ações contra o Departamento de Defesa (DoD), argumentando que a decisão do governo de classificar a empresa como “risco na cadeia de abastecimento” é ilegal e viola os seus direitos de Primeira Emenda. A disputa tem vindo a ferver há meses, enquanto a empresa procurava salvaguardas que limitassem o uso militar da sua IA para vigilância doméstica em massa ou armas letais totalmente autônomas.
Os novos processos, apresentados no tribunal do distrito norte da Califórnia e no tribunal de apelações dos EUA para o Circuito de Washington DC, seguem a emissão formal da designação de risco pelo Pentágono na última quinta-feira. Notavelmente, é a primeira vez que esta ferramenta de blacklisting foi usada contra uma empresa dos EUA. Além disso, a designação instrui efetivamente qualquer contratante que faça negócios com o governo a cortar todos os laços com a Anthropic, representando uma ameaça séria ao modelo de negócio da empresa.
Reclamações de liberdade de expressão e retaliação contra a administração Trump
A queixa da Anthropic afirma que a administração Trump está a punir a empresa por se recusar a cumprir o que ela descreve como as exigências ideológicas do governo. Segundo o documento, essa suposta retaliação viola a liberdade de expressão protegida e tenta forçar a empresa a mudar a sua posição sobre aplicações militares de IA.
“Estas ações são sem precedentes e ilegais. A constituição não permite que o governo use seu enorme poder para punir uma empresa por sua liberdade de expressão,” afirmou a Anthropic na sua ação na Califórnia. No entanto, o governo ainda não detalhou publicamente a sua justificativa para a designação.
Integração profunda de Claude nos sistemas de defesa dos EUA
Ao longo do último ano, o modelo de IA principal da Anthropic, Claude, tornou-se profundamente integrado no Departamento de Defesa. Até recentemente, dizia-se que Claude era o único modelo de IA aprovado para uso em sistemas classificados, destacando a sua importância estratégica. O DoD teria utilizado extensivamente o sistema em operações militares, incluindo na decisão de onde direcionar ataques de mísseis na sua guerra contra o Irã.
A Anthropic destacou nos seus documentos que continua comprometida em fornecer IA para fins de segurança nacional. Além disso, a empresa afirmou na ação na Califórnia que já colaborou anteriormente com o Pentágono para modificar os seus sistemas para casos de uso específicos, adaptando a tecnologia às exigências sensíveis de defesa.
Empresa busca revisão judicial e diálogo contínuo
A empresa insiste que buscar revisão judicial não significa recuar do trabalho de defesa. Pelo contrário, ela vê a ação legal como uma salvaguarda necessária. Em uma declaração ao The Guardian, um porta-voz afirmou: “Buscar revisão judicial não altera o nosso compromisso de longa data de usar IA para proteger a nossa segurança nacional, mas é um passo necessário para proteger o nosso negócio, os nossos clientes e os nossos parceiros.”
A Anthropic acrescentou que deseja continuar as negociações com o governo dos EUA, apesar do litígio. No entanto, a empresa prometeu explorar todas as vias possíveis para resolver a disputa, incluindo ações legais adicionais e diálogo direto com funcionários federais.
Reclamações de prejuízo económico e sinais mistos
Nos seus documentos judiciais, a Anthropic alega que as ações punitivas da administração Trump e do Pentágono estão a “prejudicar irreparavelmente” a Anthropic ao cortá-la de negócios críticos com o governo. A empresa argumenta que a designação de risco na cadeia de abastecimento pode inibir parcerias no ecossistema de defesa e tecnologia mais amplo.
No entanto, essas alegações parecem entrar em conflito com as declarações do CEO Dario Amodei numa entrevista recente à CBS News. Na semana passada, Amodei afirmou que “o impacto desta designação é relativamente pequeno” e insistiu que a empresa “vai ficar bem.” Observadores notam que esse contraste pode tornar-se um ponto focal à medida que os casos avançam.
Um caso-teste para IA, segurança nacional e liberdade de expressão
A Anthropic enquadra a disputa como um confronto de alto risco sobre inovação e liberdade de expressão. “Os réus procuram destruir o valor económico criado por uma das empresas privadas de crescimento mais rápido do mundo, que lidera o desenvolvimento responsável de uma tecnologia emergente de importância vital para a nossa Nação,” afirma a empresa na sua ação. A ação judicial da Anthropic também levanta questões mais amplas sobre como Washington irá regular fornecedores estratégicos de IA.
De forma mais geral, o caso deve testar até que ponto o governo dos EUA pode blacklistar uma empresa de IA por divergências políticas sobre o uso de IA para segurança nacional. Pode também influenciar futuras orientações sobre alegações de censura governamental e os limites do poder executivo sobre fornecedores de tecnologia emergente.
Pentágono mantém silêncio por enquanto
O Departamento de Defesa não respondeu imediatamente a um pedido de comentário sobre os processos ou o seu processo de decisão. Por ora, o desafio legal da Anthropic acrescenta um novo ponto de tensão ao debate sobre como os EUA devem equilibrar imperativos de segurança, liberdades civis e a rápida implementação de sistemas avançados de IA em operações militares e de inteligência.
Resumindo, as duas ações judiciais da Anthropic marcam um confronto decisivo entre uma desenvolvedora de IA de rápido crescimento e o establishment de defesa dos EUA, com resultados que podem reverberar na segurança nacional, na política tecnológica e nas batalhas de liberdade de expressão corporativa em 2024 e além.