Les médias ont appris l'utilisation de l'outil d'IA Claude dans l'opération militaire pour capturer Maduro - ForkLog : cryptomonnaies, IA, singularité, avenir

применение ии в войне AI in war# Les médias ont découvert l’utilisation de l’outil d’IA Claude dans une opération militaire visant à capturer Maduro

L’armée américaine a utilisé Claude d’Anthropic dans une opération pour capturer le président vénézuélien Nicolás Maduro. Selon le WSJ, qui cite des sources.

La mission comprenait le bombardement de plusieurs cibles à Caracas.

L’utilisation de ce modèle à de telles fins contrevient à la politique publique d’Anthropic. Les règles de l’entreprise interdisent explicitement l’utilisation de l’IA pour la violence, le développement d’armements ou l’organisation de la surveillance.

« Nous ne pouvons pas commenter si Claude ou tout autre modèle a été utilisé dans une opération spécifique — qu’elle soit secrète ou autre. Toute utilisation de LLM — tant dans le secteur privé que dans les structures gouvernementales — doit respecter notre politique régissant les modalités de déploiement des réseaux neuronaux. Nous collaborons étroitement avec nos partenaires pour assurer le respect de ces règles », a déclaré un représentant d’Anthropic.

L’intégration de Claude dans les structures du ministère de la Défense a été rendue possible grâce au partenariat entre Anthropic et Palantir Technologies. Le logiciel de cette dernière est largement utilisé par les militaires et les forces de l’ordre fédérales.

Après le raid, un employé d’Anthropic a demandé à un collègue de Palantir quel rôle précis le réseau neuronal avait joué dans l’opération de capture de Maduro, rapporte le WSJ. Un représentant de la startup a indiqué que l’entreprise n’avait pas discuté de l’utilisation de ses modèles dans des missions spécifiques « avec aucun partenaire, y compris Palantir », se limitant à des questions techniques.

« Anthropic est engagée dans l’utilisation de l’IA de pointe pour soutenir la sécurité nationale des États-Unis », a ajouté le représentant de la société.

Anthropic contre le Pentagone ?

Un porte-parole du Pentagone, Sean Parnell, a annoncé une révision des relations avec le laboratoire d’IA.

« Notre pays a besoin de partenaires prêts à aider nos combattants à gagner dans toutes les guerres », a-t-il déclaré.

En juillet 2025, le ministère de la Défense des États-Unis a conclu des contrats d’un montant pouvant atteindre 200 millions de dollars avec Anthropic, Google, OpenAI et xAI pour le développement de solutions d’IA dans le domaine de la sécurité. La direction des technologies numériques et de l’IA du département envisageait d’utiliser leurs développements pour créer des systèmes de sécurité basés sur des agents.

Cependant, dès janvier 2026, le WSJ a rapporté un risque de rupture de l’accord avec Anthropic. Des désaccords sont apparus en raison de la politique éthique stricte de la startup. Les règles interdisent d’utiliser Claude pour la surveillance de masse et les opérations létales autonomes, ce qui limite son usage par des agences comme ICE ou le FBI.

Le mécontentement des responsables s’est accru avec l’intégration du chatbot Grok dans le réseau du Pentagone. Le secrétaire à la Défense, Pit Hegset, a souligné que le département « n’utilisera pas de modèles qui ne permettent pas de mener des guerres ».

Pressions sur les développeurs

Axios, citant des sources, a indiqué que le Pentagone fait pression sur quatre grandes entreprises d’IA pour qu’elles autorisent l’armée américaine à utiliser leurs technologies « pour toutes les fins légales ». Il s’agit notamment du développement d’armes, de la collecte de renseignements et des opérations de combat.

Anthropic refuse de lever les restrictions sur la surveillance des citoyens américains et la création d’armements entièrement autonomes. Les négociations sont au point mort, mais il est difficile de remplacer rapidement Claude en raison de la supériorité technologique du modèle dans des tâches gouvernementales spécifiques.

Outre le chatbot d’Anthropic, le Pentagone utilise ChatGPT d’OpenAI, Gemini de Google et Grok de xAI pour des tâches non secrètes. Les trois ont accepté d’assouplir les restrictions applicables aux utilisateurs ordinaires.

Il est actuellement question de transférer les LLM dans un circuit secret et de leur permettre une utilisation « pour toutes les fins légales ». Une des trois entreprises a déjà accepté, les deux autres « font preuve d’une plus grande flexibilité » par rapport à Anthropic.

Militarisation de l’IA

Les États-Unis ne sont pas le seul pays à intégrer activement l’intelligence artificielle dans le secteur de la défense.

Chine

En juin 2024, la Chine a présenté un commandant d’IA pour de vastes simulations militaires impliquant toutes les branches de l’APL. Ce stratège virtuel dispose de larges pouvoirs, apprend rapidement et améliore sa tactique lors d’exercices numériques.

En novembre, les médias ont rapporté que des chercheurs chinois avaient adapté le modèle Llama 13B de Meta pour créer l’outil ChatBIT. Ce réseau neuronal a été optimisé pour la collecte et l’analyse de renseignements ainsi que pour soutenir la prise de décisions opérationnelles.

Inde

New Delhi mise également sur l’IA comme moteur de la sécurité nationale. Le gouvernement a élaboré des stratégies et des programmes à l’échelle nationale, créé des instituts et des organes spécialisés pour l’intégration de l’IA, et lancé des projets pour appliquer la technologie dans divers secteurs.

Royaume-Uni

Londres a consacré l’intelligence artificielle comme priorité stratégique. Dans la « Stratégie de l’IA pour la défense » (2022), le ministère considère l’IA comme un composant clé des forces armées futures. Dans le « Rapport stratégique de défense » (2025), la technologie est qualifiée d’élément fondamental de la guerre moderne.

Alors qu’auparavant l’IA militaire était perçue comme un outil auxiliaire, le ministère britannique de la Défense prévoit désormais une transformation en « forces technologiquement intégrées », où les systèmes d’IA seront déployés à tous les niveaux — du commandement analytique au champ de bataille.

Rappelons qu’en mars 2025, le Pentagone a annoncé l’utilisation d’agents IA pour modéliser des affrontements avec des adversaires étrangers.

XAI-5,18%
GROK-2,52%
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)