Aller au contenu
Intelligence Artificielle||5 sources

Le Pentagone qualifie Anthropic de risque pour la chaîne d’approvisionnement après refus sur l’IA militaire

Le Pentagone a blacklisté Anthropic comme risque d’approvisionnement après son refus d’adapter Claude aux armes autonomes et surveillance. L’entreprise prévoit de contester en justice, impactant ses partenaires militaires.
Pete Hegseth, secrétaire américain à la Défense, a désigné Anthropic comme un « risque pour la chaîne d’approvisionnement » le vendredi, interdisant aux contractants militaires toute activité commerciale avec l’entreprise d’intelligence artificielle. Cette mesure fait suite à des négociations tendues au Pentagone, où Anthropic a refusé d’autoriser l’usage de son modèle Claude pour la surveillance de masse domestique ou les armes létales autonomes. La société argue que ces applications violent ses conditions d’utilisation. Ce bras de fer s’inscrit dans un conflit plus large sur les limites éthiques de l’IA militaire aux États-Unis. Dario Amodei, PDG d’Anthropic, a rencontré Pete Hegseth le mardi au Pentagone, sans aboutir à un accord. Le Département de la Défense réclamait un accès à « tous les usages légaux » sans exceptions, tandis qu’Anthropic maintient ses garde-fous contre les « robots tueurs » sans supervision humaine. Le président Donald Trump a également ordonné aux agences fédérales d’arrêter l’utilisation des produits d’Anthropic sous six mois. La désignation de risque, normalement réservée aux entités liées à des puissances étrangères, pourrait bannir Claude de vastes secteurs de l’économie américaine dépendant de contrats fédéraux. Des partenaires militaires comme Nvidia, Google, Amazon et Palantir doivent désormais évaluer leurs liens avec Anthropic, sous peine de perdre des marchés publics. Anthropic a répondu par un billet de blog, affirmant contester la décision en justice, car elle excéderait l’autorité légale de Pete Hegseth hors du cadre militaire. Anthropic envisage une procédure judiciaire immédiate pour annuler cette étiquette, tandis que le Pentagone pourrait invoquer la loi sur la production de défense pour imposer ses exigences. Cette affaire teste les tensions entre valeurs éthiques des entreprises d’IA et besoins sécuritaires nationaux.

Restez informé avec Morni

Créez un compte gratuit pour accéder aux articles complets, aux flux personnalisés et aux résumés générés par IA.