A disputa de defesa dos EUA aprofunda-se à medida que a Anthropic apresenta uma ação judicial contra o Pentágono, contestando a lista negra de...

Num aumento acentuado de tensões com Washington, a empresa de IA Anthropic entrou com uma ação judicial devido à sua súbita inclusão na lista negra pelo establishment de defesa dos EUA.

Anthropic processa o Pentágono por etiqueta de “risco na cadeia de abastecimento”

Na segunda-feira, a Anthropic entrou com duas ações contra o Departamento de Defesa (DoD), argumentando que a decisão do governo de classificar a empresa como “risco na cadeia de abastecimento” é ilegal e viola os seus direitos de Primeira Emenda. A disputa tem vindo a ferver há meses, enquanto a empresa procurava salvaguardas que limitassem o uso militar da sua IA para vigilância doméstica em massa ou armas letais totalmente autônomas.

Os novos processos, apresentados no tribunal do distrito norte da Califórnia e no tribunal de apelações dos EUA para o Circuito de Washington DC, seguem a emissão formal da designação de risco pelo Pentágono na última quinta-feira. Notavelmente, é a primeira vez que esta ferramenta de blacklisting foi usada contra uma empresa dos EUA. Além disso, a designação instrui efetivamente qualquer contratante que faça negócios com o governo a cortar todos os laços com a Anthropic, representando uma ameaça séria ao modelo de negócio da empresa.

Reclamações de liberdade de expressão e retaliação contra a administração Trump

A queixa da Anthropic afirma que a administração Trump está a punir a empresa por se recusar a cumprir o que ela descreve como as exigências ideológicas do governo. Segundo o documento, essa suposta retaliação viola a liberdade de expressão protegida e tenta forçar a empresa a mudar a sua posição sobre aplicações militares de IA.

“Estas ações são sem precedentes e ilegais. A constituição não permite que o governo use seu enorme poder para punir uma empresa por sua liberdade de expressão,” afirmou a Anthropic na sua ação na Califórnia. No entanto, o governo ainda não detalhou publicamente a sua justificativa para a designação.

Integração profunda de Claude nos sistemas de defesa dos EUA

Ao longo do último ano, o modelo de IA principal da Anthropic, Claude, tornou-se profundamente integrado no Departamento de Defesa. Até recentemente, dizia-se que Claude era o único modelo de IA aprovado para uso em sistemas classificados, destacando a sua importância estratégica. O DoD teria utilizado extensivamente o sistema em operações militares, incluindo na decisão de onde direcionar ataques de mísseis na sua guerra contra o Irã.

A Anthropic destacou nos seus documentos que continua comprometida em fornecer IA para fins de segurança nacional. Além disso, a empresa afirmou na ação na Califórnia que já colaborou anteriormente com o Pentágono para modificar os seus sistemas para casos de uso específicos, adaptando a tecnologia às exigências sensíveis de defesa.

Empresa busca revisão judicial e diálogo contínuo

A empresa insiste que buscar revisão judicial não significa recuar do trabalho de defesa. Pelo contrário, ela vê a ação legal como uma salvaguarda necessária. Em uma declaração ao The Guardian, um porta-voz afirmou: “Buscar revisão judicial não altera o nosso compromisso de longa data de usar IA para proteger a nossa segurança nacional, mas é um passo necessário para proteger o nosso negócio, os nossos clientes e os nossos parceiros.”

A Anthropic acrescentou que deseja continuar as negociações com o governo dos EUA, apesar do litígio. No entanto, a empresa prometeu explorar todas as vias possíveis para resolver a disputa, incluindo ações legais adicionais e diálogo direto com funcionários federais.

Reclamações de prejuízo económico e sinais mistos

Nos seus documentos judiciais, a Anthropic alega que as ações punitivas da administração Trump e do Pentágono estão a “prejudicar irreparavelmente” a Anthropic ao cortá-la de negócios críticos com o governo. A empresa argumenta que a designação de risco na cadeia de abastecimento pode inibir parcerias no ecossistema de defesa e tecnologia mais amplo.

No entanto, essas alegações parecem entrar em conflito com as declarações do CEO Dario Amodei numa entrevista recente à CBS News. Na semana passada, Amodei afirmou que “o impacto desta designação é relativamente pequeno” e insistiu que a empresa “vai ficar bem.” Observadores notam que esse contraste pode tornar-se um ponto focal à medida que os casos avançam.

Um caso-teste para IA, segurança nacional e liberdade de expressão

A Anthropic enquadra a disputa como um confronto de alto risco sobre inovação e liberdade de expressão. “Os réus procuram destruir o valor económico criado por uma das empresas privadas de crescimento mais rápido do mundo, que lidera o desenvolvimento responsável de uma tecnologia emergente de importância vital para a nossa Nação,” afirma a empresa na sua ação. A ação judicial da Anthropic também levanta questões mais amplas sobre como Washington irá regular fornecedores estratégicos de IA.

De forma mais geral, o caso deve testar até que ponto o governo dos EUA pode blacklistar uma empresa de IA por divergências políticas sobre o uso de IA para segurança nacional. Pode também influenciar futuras orientações sobre alegações de censura governamental e os limites do poder executivo sobre fornecedores de tecnologia emergente.

Pentágono mantém silêncio por enquanto

O Departamento de Defesa não respondeu imediatamente a um pedido de comentário sobre os processos ou o seu processo de decisão. Por ora, o desafio legal da Anthropic acrescenta um novo ponto de tensão ao debate sobre como os EUA devem equilibrar imperativos de segurança, liberdades civis e a rápida implementação de sistemas avançados de IA em operações militares e de inteligência.

Resumindo, as duas ações judiciais da Anthropic marcam um confronto decisivo entre uma desenvolvedora de IA de rápido crescimento e o establishment de defesa dos EUA, com resultados que podem reverberar na segurança nacional, na política tecnológica e nas batalhas de liberdade de expressão corporativa em 2024 e além.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Em alta na Gate Fun

    Ver projetos
  • Cap. de M.:$0.1Holders:1
    0.00%
  • Cap. de M.:$0.1Holders:1
    0.00%
  • Cap. de M.:$2.41KHolders:1
    0.00%
  • Cap. de M.:$2.46KHolders:2
    0.23%
  • Cap. de M.:$2.41KHolders:0
    0.00%
  • Marcar