Intelligence Artificielle||5 sources
Le Pentagone qualifie Anthropic de risque pour la chaîne d’approvisionnement après refus sur l’IA militaire
Le Pentagone a blacklisté Anthropic comme risque d’approvisionnement après son refus d’adapter Claude aux armes autonomes et surveillance. L’entreprise prévoit de contester en justice, impactant ses partenaires militaires.
Pete Hegseth, secrétaire américain à la Défense, a désigné Anthropic comme un « risque pour la chaîne d’approvisionnement » le vendredi, interdisant aux contractants militaires toute activité commerciale avec l’entreprise d’intelligence artificielle. Cette mesure fait suite à des négociations tendues au Pentagone, où Anthropic a refusé d’autoriser l’usage de son modèle Claude pour la surveillance de masse domestique ou les armes létales autonomes. La société argue que ces applications violent ses conditions d’utilisation. Ce bras de fer s’inscrit dans un conflit plus large sur les limites éthiques de l’IA militaire aux États-Unis. Dario Amodei, PDG d’Anthropic, a rencontré Pete Hegseth le mardi au Pentagone, sans aboutir à un accord. Le Département de la Défense réclamait un accès à « tous les usages légaux » sans exceptions, tandis qu’Anthropic maintient ses garde-fous contre les « robots tueurs » sans supervision humaine. Le président Donald Trump a également ordonné aux agences fédérales d’arrêter l’utilisation des produits d’Anthropic sous six mois. La désignation de risque, normalement réservée aux entités liées à des puissances étrangères, pourrait bannir Claude de vastes secteurs de l’économie américaine dépendant de contrats fédéraux. Des partenaires militaires comme Nvidia, Google, Amazon et Palantir doivent désormais évaluer leurs liens avec Anthropic, sous peine de perdre des marchés publics. Anthropic a répondu par un billet de blog, affirmant contester la décision en justice, car elle excéderait l’autorité légale de Pete Hegseth hors du cadre militaire. Anthropic envisage une procédure judiciaire immédiate pour annuler cette étiquette, tandis que le Pentagone pourrait invoquer la loi sur la production de défense pour imposer ses exigences. Cette affaire teste les tensions entre valeurs éthiques des entreprises d’IA et besoins sécuritaires nationaux.
5 sources
Anthropic's dispute with the DOD raises critical questions for US military partners like Nvidia, Google, Amazon, and...
Source éditoriale·Dev.to·28 févr. 2026
Pendant qu’Anthropic (Claude) dit non aux robots tueurs, OpenAI signe avec le Pentagone
Source éditoriale·FrAndroid·28 févr. 2026
Anthropic Hits Back After US Military Labels It a ‘Supply Chain Risk’
Source éditoriale·WIRED
Pentagon-Anthropic AI standoff is real-time testing balance of power in future of warfare
Source éditoriale·CNBC
Anthropic, DoD face off over acceptable military AI use
Source éditoriale·The Register