Aller au contenu
Intelligence Artificielle||3 sources

Anthropic conteste en justice la désignation de risque pour sa chaîne d'approvisionnement par le Pentagone

Anthropic conteste judiciairement la menace du Pentagone de la blacklister pour refus de lever les garde-fous sur Claude. La mesure n'affecterait que les contrats militaires directs.
Anthropic, la société d'intelligence artificielle à l'avant-garde, a annoncé vendredi qu'elle saisira les tribunaux pour contester la désignation de risque pour sa chaîne d'approvisionnement imposée par le Pentagone. Cette mesure, menacée par le président Donald Trump et le secrétaire à la Défense Pete Hegseth, vise à exclure l'entreprise de contrats militaires en raison de son refus de lever toutes les protections sur son modèle Claude. L'affrontement marque une escalade rare dans les relations entre firmes d'IA et administration Trump. Le différend porte sur l'usage militaire de Claude, un modèle d'IA avancé conçu avec des garde-fous contre les applications jugées dangereuses, comme la surveillance massive domestique ou les armes autonomes. Les responsables de la Défense exigent un accès pour « tous les usages légaux », y compris classifiés, sans restrictions imposées par l'entreprise. Historiquement, les désignations de risque pour chaîne d'approvisionnement ciblent des acteurs étrangers soupçonnés de menaces sécuritaires, comme les fournisseurs chinois de télécoms. Anthropic argue que la statute 10 USC 3252 limite cette désignation aux contrats directs avec le Pentagone. Elle n'affecterait pas les clients individuels ou commerciaux utilisant Claude via l'API, claude.ai ou d'autres produits. Pour les sous-traitants militaires, l'interdiction ne s'appliquerait qu'aux travaux pour le Département de la Défense, laissant intacts les autres usages. Dans un communiqué, Anthropic a déclaré : « Aucune intimidation ou punition du Département de la Guerre ne changera notre position sur la surveillance domestique massive ou les armes autonomes pleinement autonomes. » L'entreprise exprime sa profonde tristesse face à cette escalade, tout en réaffirmant son engagement pour une transition fluide hors des opérations du Pentagone. Le président Trump a accordé six mois pour remplacer Claude, soit jusqu'à fin août 2026. Par ailleurs, le Pentagone aurait accepté les mesures de sécurité d'OpenAI, concurrent d'Anthropic, bien qu'aucun contrat n'ait été signé. Cette décision souligne les tensions persistantes sur l'équilibre entre innovation en IA et impératifs de sécurité nationale.

3 sources

Article enrichi par l'IA

Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.

Anthropic says it will challenge Pentagon supply chain risk designation in court

Source éditoriale·Reuters·28 févr. 2026

Anthropic to take Trump's Pentagon to court over AI dispute

Source éditoriale·Axios·28 févr. 2026

Contexte ajouté : désignations de risque chaîne d'approvisionnement historiquement pour menaces étrangères ; rôle de Claude comme modèle IA sécurisé d'Anthropic

Contexte IA

Restez informé avec Morni

Créez un compte gratuit pour accéder aux articles complets, aux flux personnalisés et aux résumés générés par IA.