L'entreprise d'IA Anthropic cherche un expert en armements pour empêcher les utilisateurs de « mauvais usages »

La société d’intelligence artificielle Anthropic recherche un expert en armes chimiques pour prévenir les « mauvais usages »

il y a 1 jour

PartagerEnregistrer

Zoe Kleinman, rédactrice en technologie

PartagerEnregistrer

Getty Images

La société américaine d’intelligence artificielle (IA) Anthropic cherche à embaucher un expert en armes chimiques et explosifs à haute puissance afin de tenter de prévenir les « usages catastrophiques » de ses logiciels.

En d’autres termes, elle craint que ses outils d’IA ne donnent à quelqu’un des instructions pour fabriquer des armes chimiques ou radioactives, et souhaite qu’un expert garantisse que ses garde-fous soient suffisamment solides.

Dans l’annonce de recrutement sur LinkedIn, la société indique que les candidats doivent avoir au moins cinq ans d’expérience dans la « défense contre les armes chimiques et/ou les explosifs » ainsi que des connaissances sur les « dispositifs de dispersion radiologique » – aussi appelés bombes sale.

La société a confié à la BBC que ce poste était similaire à d’autres emplois dans des domaines sensibles qu’elle a déjà créés.

Anthropic n’est pas la seule société d’IA à adopter cette stratégie.

Un poste similaire a été publié par OpenAI, développeur de ChatGPT. Sur son site de recrutement, il propose un poste de chercheur en « risques biologiques et chimiques », avec un salaire pouvant atteindre 455 000 dollars (335 000 livres sterling), soit presque le double de ce qu’offre Anthropic.

Mais certains experts s’inquiètent des risques liés à cette approche, avertissant qu’elle donne aux outils d’IA des informations sur les armes – même si ces derniers ont été instruits de ne pas les utiliser.

« Est-il jamais sûr d’utiliser des systèmes d’IA pour gérer des informations sensibles sur les produits chimiques et explosifs, y compris les bombes sale et autres armes radiologiques ? » a déclaré la Dr Stephanie Hare, chercheuse en technologie et co-animatrice de l’émission télévisée de la BBC, AI Decoded.

« Il n’existe aucun traité international ni autre réglementation pour ce type de travail et l’utilisation de l’IA avec ces types d’armes. Tout cela se passe à l’abri des regards. »

L’industrie de l’IA a constamment averti des menaces existentielles potentielles que pose sa technologie, mais aucune tentative n’a été faite pour ralentir ses progrès.

La question devient urgente alors que le gouvernement américain appelle les sociétés d’IA tout en lançant la guerre en Iran et des opérations militaires au Venezuela.

LinkedIn

L’annonce d’emploi d’Anthropic, société américaine d’IA, recrute un expert en armes chimiques et explosifs à haute puissance pour rejoindre son équipe de politiques

Anthropic poursuit en justice le Département de la Défense des États-Unis, qui l’a désignée comme un risque dans la chaîne d’approvisionnement lorsque la société a insisté sur le fait que ses systèmes ne doivent pas être utilisés dans des armes entièrement autonomes ou pour la surveillance de masse des Américains.

Le co-fondateur d’Anthropic, Dario Amodei, a écrit en février qu’il ne pensait pas que la technologie était encore suffisamment mature et qu’elle ne devait pas être utilisée à ces fins.

La Maison Blanche a déclaré que l’armée américaine ne serait pas régie par des entreprises technologiques.

L’étiquette de risque place la société américaine au même niveau que le géant chinois des télécommunications Huawei, qui a également été blacklisté pour des raisons de sécurité nationale différentes.

OpenAI a déclaré qu’il était d’accord avec la position d’Anthropic, mais a ensuite négocié son propre contrat avec le gouvernement américain, qui n’a pas encore commencé.

L’assistant IA d’Anthropic, appelé Claude, n’a pas encore été retiré, et il est toujours intégré dans des systèmes fournis par Palantir et déployés par les États-Unis dans le cadre de la guerre Iran-Israël.

Les grandes entreprises technologiques soutiennent Anthropic dans sa lutte contre l’administration Trump

Anthropic poursuit le gouvernement américain pour le qualifier de risque

Un leader de la sécurité de l’IA affirme que « le monde est en péril » et quitte son poste pour étudier la poésie

Inscrivez-vous à notre newsletter Tech Decoded pour suivre les principales actualités et tendances technologiques mondiales. Hors Royaume-Uni ? Inscrivez-vous ici.

Intelligence artificielle

Militaire

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler