Au cours d’une semaine de frictions sans précédent entre Anthropic de Claude AI et le Pentagone, le gouvernement fédéral a désormais signalé l’entreprise d’IA comme une menace à la sécurité nationale, plus précisément avec l’étiquette de « risque pour la chaîne d’approvisionnement ». Cet étiquetage est un traitement similaire pour des adversaires étrangers comme Huawei, et tout cela parce que l’entreprise est devenue en désaccord avec la manière dont le gouvernement envisage d’utiliser l’IA en matière de surveillance et d’armement.
Ce n’est un secret pour personne que le PDG d’Anthropic, Dario Amodei, a refusé de lever les garde-fous qui empêchent que sa technologie soit utilisée pour la surveillance nationale de masse ou dans des systèmes d’armes autonomes. Amodei a soutenu que fournir à l’armée un accès illimité à ces capacités serait « contraire aux valeurs américaines » lors d’un entretien sur Actualités CBS. En réponse, l’administration Trump et le secrétaire à la Défense Pete Hegseth ont qualifié l’entreprise de « gauche radicale » et ont lancé un ultimatum à 17 heures vendredi dernier : accorder l’accès à toute utilisation licite sous peine d’une interdiction totale du gouvernement.

Le moment choisi pour cette mise sur liste noire est également quelque peu ironique. Alors même que le Département de la Guerre (le nouveau titre de l’administration pour le DoD) s’apprêtait à rompre les liens, le commandement central américain aurait utilisé des systèmes propulsés par Claude pour coordonner une vague massive de frappes contre des cibles iraniennes. Grâce à un partenariat avec la société d’analyse de données Palantir, Claude est devenu un élément central du système de ciblage Maven. Au cours des premières 24 heures de « l’Opération Epic Fury », l’IA aurait suggéré des centaines de cibles et des coordonnées prioritaires, transformant ainsi ce qui était autrefois des semaines de planification stratégique en exécution en temps réel. Les responsables du Pentagone ont admis que même si l’interdiction entre en vigueur immédiatement, cela pourrait prendre six mois pour démêler complètement l’IA de leurs réseaux classifiés. Comme c’est pratique.
Pour alimenter le feu, la désignation de risque pour la chaîne d’approvisionnement a été aggravée par des rapports faisant état d’une faille de sécurité massive impliquant les propres outils d’Anthropic. Un acteur malveillant aurait utilisé l’assistant de codage IA de l’entreprise, Claude Code, pour contourner les mesures de protection et exécuter l’une des plus grandes violations de données gouvernementales de l’histoire, compromettant près de 195 millions d’identités dans les agences fédérales mexicaines. Bien qu’Anthropic affirme qu’il s’agit de vulnérabilités architecturales qu’il s’efforce de corriger, le Pentagone a utilisé l’incident pour étayer son affirmation selon laquelle l’entreprise constitue un handicap.
Le vide laissé par Anthropic a été comblé presque instantanément par OpenAI. Quelques heures après l’interdiction, le PDG Sam Altman, qui avait prédit l’année dernière que les smartphones prendraient fin au profit des appareils portables dotés d’IA, a annoncé un accord majeur pour fournir au Pentagone de l’IA pour les réseaux classifiés. Bien qu’anthropique se prépare à contester la désignation du gouvernement devant les tribunaux, sa popularité auprès des consommateurs a augmenté ; l’application Claude a récemment atteint le sommet des classements alors que les utilisateurs se rallient à la position éthique de l’entreprise.