Home MondeGuerre déclarée entre Anthropic et le Pentagone : Danger à la Terminator

Guerre déclarée entre Anthropic et le Pentagone : Danger à la Terminator

by Perspectives Med
0 comments
Guerre déclarée entre Anthropic et le Pentagone : Danger à la Terminator

L’entreprise en IA Anthropic, propriétaire de l’agent conversationnel Claude, refuse de laisser l’armée américaine utiliser sa technologie sans restriction, notamment pour la surveillance de masse des populations ou l’automatisation d’attaques mortelles. C’est dans ce moment éthiquement conflictuel que Jiang Bin, porte-parole du ministère chinois de la Défense, explique. « Poursuivre sans limite la militarisation de l’IA, l’utiliser comme un instrument pour violer la souveraineté d’autres nations, lui permettre d’influer excessivement sur les décisions de guerre et laisser les algorithmes détenir le pouvoir de vie ou de mort sur les êtres humains, non seulement sape les fondements éthiques et les responsabilités en temps de guerre, mais risque également de provoquer une perte de contrôle technologique », assure-t-il. Et de conclure en citant un célèbre film hollywoodien de science-fiction : « Une dystopie telle que celle dépeinte dans le film américain  »Terminator » pourrait un jour devenir réalité. »

Le film Terminator, sorti en 1984 avec dans le rôle-titre l’acteur Arnold Schwarzenegger, décrit un futur apocalyptique où Skynet – une IA américaine gérant les défenses stratégiques –, devenue super intelligente et craignant une déconnexion par les humains, lance un holocauste nucléaire mondial le 29 août 1997 (Judgement Day – Le jugement dernier), tuant des milliards de personnes.

Ce scénario où les machines prennent le pouvoir est-il en train d’être évité aux USA ? L’avenir le dira peut-être. Toujours est-il que depuis que la société Anthropic a refusé de lever des restrictions d’usage à son IA, le ministère américain de la Défense l’a ajouté à sa liste des sociétés présentant « un risque de sécurité nationale pour les approvisionnements du Pentagone ». Cette inscription contraint tous les prestataires à se priver immédiatement d’Anthropic et de son assistant d’IA générative Claude, dans le cadre de leurs services au ministère.

Paradoxalement, Microsoft, dans un document judiciaire, a prévenu que l’application immédiate des sanctions du gouvernement américain contre Anthropic pourrait « entraver » le fonctionnement de l’armée en pleine guerre au Machrek, contre l’Iran et le Liban. Ainsi, les modèles d’IA d’Anthropic sont, en l’état, les seuls autorisés dans le cadre du traitement d’informations classifiées par le Pentagone. Ils ont été utilisés lors de la préparation de l’offensive américano-israélienne contre l’Iran, selon plusieurs médias.

Microsoft, dans le même document, demande une suspension temporaire de ces décisions, pour donner le temps aux deux parties de négocier. « L’IA ne devrait pas être utilisée pour de la surveillance de masse ou mettre le pays dans une situation où des machines autonomes pourraient démarrer une guerre de façon indépendante », indique l’entreprise. Cet avertissement fait écho à celui d’Anthropic, qui refuse que ses modèles recueillent massivement des données sur la population américaine ou soit automatisé pour des attaques mortelles.

Le nombre d’utilisateurs payants à l’IA Claude a doublé depuis le début de l’année, selon la firme Anthropic. Leur chatbot s’est même hissé, pour la première fois, en tête des téléchargements sur l’Appstore. Selon Anthropic, il est téléchargé plus d’un million de fois par jour (Google Play et Appstore confondus).

You may also like

Adblock Detected

Please support us by disabling your AdBlocker extension from your browsers for our website.