L'équipe de Trump furieuse face à la position de principe de Dario Amodei visant à empêcher le Département de la Défense d'utiliser ses outils d'IA à des fins guerrières
Le contrat de 200 millions de dollars d’Anthropic avec le Département de la Défense est en suspens après que Anthropic aurait exprimé des préoccupations concernant l’utilisation de son modèle d’IA Claude par le Pentagone lors de la raid contre Nicolas Maduro en janvier.
Vidéo recommandée
« La relation entre le Département de la Guerre et Anthropic est en cours de révision », a déclaré le porte-parole en chef du Pentagone, Sean Parnell, dans un communiqué à Fortune. « Notre nation exige que nos partenaires soient prêts à aider nos combattants à gagner dans n’importe quel combat. En fin de compte, il s’agit de nos troupes et de la sécurité du peuple américain. »
Les tensions ont augmenté ces dernières semaines après qu’un haut responsable d’Anthropic aurait contacté un cadre supérieur de Palantir pour remettre en question l’utilisation de Claude lors de la raid, selon The Hill. Le cadre de Palantir aurait interprété cette démarche comme une désapprobation de l’utilisation du modèle lors de l’opération et aurait transmis les détails de l’échange au Pentagone. (Le président Trump a déclaré que l’armée avait utilisé une arme « discombobulatrice » lors de la raid, qui aurait empêché le fonctionnement de l’équipement ennemi.)
« Anthropic n’a pas discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la Guerre », a déclaré un porte-parole d’Anthropic dans un communiqué à Fortune. « Nous n’avons pas non plus abordé ce sujet avec, ni exprimé de préoccupations à l’égard de, nos partenaires industriels en dehors de discussions purement techniques de routine. »
Au cœur de ce différend se trouvent les garde-fous contractuels régissant l’utilisation des modèles d’IA dans les opérations de défense. Le PDG d’Anthropic, Dario Amodei, a constamment plaidé pour des limites strictes sur l’utilisation et la régulation de l’IA, admettant même qu’il devient difficile de concilier sécurité et profits. Depuis plusieurs mois, l’entreprise et le DOD ont mené des négociations tendues sur la manière dont Claude peut être utilisé dans les opérations militaires.
Dans le cadre du contrat avec le Département de la Défense, Anthropic n’autorise pas le Pentagone à utiliser ses modèles d’IA pour la surveillance de masse des Américains ou pour l’utilisation de sa technologie dans des armes entièrement autonomes. La société a également interdit l’utilisation de sa technologie dans des applications militaires « létales » ou « cinétiques ». Toute implication directe dans des tirs en cours lors de la raid Maduro violerait probablement ces termes.
Parmi les entreprises d’IA contractant avec le gouvernement — dont OpenAI, Google et xAI —, Anthropic occupe une position lucrative en plaçant Claude comme le seul grand modèle linguistique autorisé sur les réseaux classifiés du Pentagone.
Cette position a été mise en avant par Anthropic dans un communiqué à Fortune. « Claude est utilisé pour une grande variété de cas d’utilisation liés à l’intelligence dans l’ensemble du gouvernement, y compris le DoW, conformément à notre Politique d’Utilisation. »
L’entreprise « s’engage à utiliser l’IA de pointe pour soutenir la sécurité nationale des États-Unis », indique le communiqué. « Nous menons des discussions productives, de bonne foi, avec le DoW sur la manière de poursuivre ce travail et de bien gérer ces enjeux complexes. »
Palantir, OpenAI, Google et xAI n’ont pas répondu immédiatement à une demande de commentaire.
L’IA en guerre
Bien que le DOD ait accéléré ses efforts pour intégrer l’IA dans ses opérations, seul xAI a accordé au DOD l’utilisation de ses modèles pour « tous les usages légaux », tandis que les autres maintiennent des restrictions d’utilisation.
Amodei a tiré la sonnette d’alarme depuis plusieurs mois concernant la protection des utilisateurs, proposant Anthropic comme une alternative axée sur la sécurité face à OpenAI et Google en l’absence de régulations gouvernementales. « Je suis profondément mal à l’aise avec ces décisions prises par quelques entreprises », a-t-il déclaré en novembre. Bien qu’il ait été rumore que Anthropic envisageait d’assouplir ses restrictions, l’entreprise fait désormais face à la possibilité d’être exclue complètement du secteur de la défense.
Un haut responsable du Pentagone a indiqué à Axios que le secrétaire à la Défense, Pete Hegseth, est « proche » de retirer Anthropic de la chaîne d’approvisionnement militaire, obligeant quiconque souhaite faire affaire avec l’armée à couper également tout lien avec l’entreprise.
« Ce sera une énorme galère à démêler, et nous allons nous assurer qu’ils paient le prix de nous avoir forcés à agir ainsi », a déclaré le haut responsable à la publication.
Être considéré comme un risque pour l’approvisionnement militaire est une désignation spéciale généralement réservée aux adversaires étrangers. La précédente référence la plus proche est l’interdiction de Huawei en 2019 par le gouvernement pour des raisons de sécurité nationale. Dans le cas d’Anthropic, des sources ont indiqué à Axios que des responsables de la défense cherchent à provoquer une confrontation avec l’entreprise basée à San Francisco depuis un certain temps.
Les commentaires du Pentagone s’inscrivent dans une dispute publique qui monte en intensité. Le gouvernement affirme que fixer des limites éthiques aux modèles des entreprises serait inutilement restrictif, et que le grand nombre de zones grises rendrait ces technologies inutilisables. Alors que le Pentagone continue de négocier avec les sous-traitants en IA pour élargir leur usage, cette querelle publique devient un conflit de proxy sur qui dictera l’utilisation de l’IA.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
L'équipe de Trump furieuse face à la position de principe de Dario Amodei visant à empêcher le Département de la Défense d'utiliser ses outils d'IA à des fins guerrières
Le contrat de 200 millions de dollars d’Anthropic avec le Département de la Défense est en suspens après que Anthropic aurait exprimé des préoccupations concernant l’utilisation de son modèle d’IA Claude par le Pentagone lors de la raid contre Nicolas Maduro en janvier.
Vidéo recommandée
« La relation entre le Département de la Guerre et Anthropic est en cours de révision », a déclaré le porte-parole en chef du Pentagone, Sean Parnell, dans un communiqué à Fortune. « Notre nation exige que nos partenaires soient prêts à aider nos combattants à gagner dans n’importe quel combat. En fin de compte, il s’agit de nos troupes et de la sécurité du peuple américain. »
Les tensions ont augmenté ces dernières semaines après qu’un haut responsable d’Anthropic aurait contacté un cadre supérieur de Palantir pour remettre en question l’utilisation de Claude lors de la raid, selon The Hill. Le cadre de Palantir aurait interprété cette démarche comme une désapprobation de l’utilisation du modèle lors de l’opération et aurait transmis les détails de l’échange au Pentagone. (Le président Trump a déclaré que l’armée avait utilisé une arme « discombobulatrice » lors de la raid, qui aurait empêché le fonctionnement de l’équipement ennemi.)
« Anthropic n’a pas discuté de l’utilisation de Claude pour des opérations spécifiques avec le Département de la Guerre », a déclaré un porte-parole d’Anthropic dans un communiqué à Fortune. « Nous n’avons pas non plus abordé ce sujet avec, ni exprimé de préoccupations à l’égard de, nos partenaires industriels en dehors de discussions purement techniques de routine. »
Au cœur de ce différend se trouvent les garde-fous contractuels régissant l’utilisation des modèles d’IA dans les opérations de défense. Le PDG d’Anthropic, Dario Amodei, a constamment plaidé pour des limites strictes sur l’utilisation et la régulation de l’IA, admettant même qu’il devient difficile de concilier sécurité et profits. Depuis plusieurs mois, l’entreprise et le DOD ont mené des négociations tendues sur la manière dont Claude peut être utilisé dans les opérations militaires.
Dans le cadre du contrat avec le Département de la Défense, Anthropic n’autorise pas le Pentagone à utiliser ses modèles d’IA pour la surveillance de masse des Américains ou pour l’utilisation de sa technologie dans des armes entièrement autonomes. La société a également interdit l’utilisation de sa technologie dans des applications militaires « létales » ou « cinétiques ». Toute implication directe dans des tirs en cours lors de la raid Maduro violerait probablement ces termes.
Parmi les entreprises d’IA contractant avec le gouvernement — dont OpenAI, Google et xAI —, Anthropic occupe une position lucrative en plaçant Claude comme le seul grand modèle linguistique autorisé sur les réseaux classifiés du Pentagone.
Cette position a été mise en avant par Anthropic dans un communiqué à Fortune. « Claude est utilisé pour une grande variété de cas d’utilisation liés à l’intelligence dans l’ensemble du gouvernement, y compris le DoW, conformément à notre Politique d’Utilisation. »
L’entreprise « s’engage à utiliser l’IA de pointe pour soutenir la sécurité nationale des États-Unis », indique le communiqué. « Nous menons des discussions productives, de bonne foi, avec le DoW sur la manière de poursuivre ce travail et de bien gérer ces enjeux complexes. »
Palantir, OpenAI, Google et xAI n’ont pas répondu immédiatement à une demande de commentaire.
L’IA en guerre
Bien que le DOD ait accéléré ses efforts pour intégrer l’IA dans ses opérations, seul xAI a accordé au DOD l’utilisation de ses modèles pour « tous les usages légaux », tandis que les autres maintiennent des restrictions d’utilisation.
Amodei a tiré la sonnette d’alarme depuis plusieurs mois concernant la protection des utilisateurs, proposant Anthropic comme une alternative axée sur la sécurité face à OpenAI et Google en l’absence de régulations gouvernementales. « Je suis profondément mal à l’aise avec ces décisions prises par quelques entreprises », a-t-il déclaré en novembre. Bien qu’il ait été rumore que Anthropic envisageait d’assouplir ses restrictions, l’entreprise fait désormais face à la possibilité d’être exclue complètement du secteur de la défense.
Un haut responsable du Pentagone a indiqué à Axios que le secrétaire à la Défense, Pete Hegseth, est « proche » de retirer Anthropic de la chaîne d’approvisionnement militaire, obligeant quiconque souhaite faire affaire avec l’armée à couper également tout lien avec l’entreprise.
« Ce sera une énorme galère à démêler, et nous allons nous assurer qu’ils paient le prix de nous avoir forcés à agir ainsi », a déclaré le haut responsable à la publication.
Être considéré comme un risque pour l’approvisionnement militaire est une désignation spéciale généralement réservée aux adversaires étrangers. La précédente référence la plus proche est l’interdiction de Huawei en 2019 par le gouvernement pour des raisons de sécurité nationale. Dans le cas d’Anthropic, des sources ont indiqué à Axios que des responsables de la défense cherchent à provoquer une confrontation avec l’entreprise basée à San Francisco depuis un certain temps.
Les commentaires du Pentagone s’inscrivent dans une dispute publique qui monte en intensité. Le gouvernement affirme que fixer des limites éthiques aux modèles des entreprises serait inutilement restrictif, et que le grand nombre de zones grises rendrait ces technologies inutilisables. Alors que le Pentagone continue de négocier avec les sous-traitants en IA pour élargir leur usage, cette querelle publique devient un conflit de proxy sur qui dictera l’utilisation de l’IA.