Intelligence Artificielle||5 sources
Le Pentagone rompt les contrats d'Anthropic sur l'usage militaire de l'IA pour risques sécuritaires
Le secrétaire à la Défense Pete Hegseth a rompu les contrats d'Anthropic avec le Pentagone en la qualifiant de risque sécuritaire, provoquant une menace de poursuite de l'entreprise. OpenAI pourrait en profiter tandis qu'un délai expire vendredi.
Pete Hegseth, secrétaire à la Défense, a mis fin cette semaine aux contrats d'Anthropic avec le Pentagone et d'autres agences gouvernementales. Il a invoqué une loi visant les menaces de chaîne d'approvisionnement étrangères pour qualifier l'entreprise américaine, basée à San Francisco, de risque sécuritaire. Dario Amodei, PDG d'Anthropic, a refusé des termes autorisant un usage militaire de ses modèles d'IA, comme la surveillance de masse ou les drones armés autonomes. Ce bras de fer survient dans un contexte de tensions croissantes sur l'intégration de l'intelligence artificielle dans les opérations militaires classifiées. Anthropic, connu pour ses garde-fous éthiques sur l'IA via son modèle Claude, conteste cette mesure inédite appliquée à une firme américaine. Donald Trump et Hegseth accusent l'entreprise d'exposer la sécurité nationale, tandis que le président a publié sur les réseaux sociaux contre une « entreprise woke » dictant la stratégie militaire. Les détails révèlent des divergences : un responsable du Pentagone affirme qu'Amodei a répondu « appelez-nous, on s'arrangera » à une question sur l'usage de Claude pour abattre un missile balistique intercontinental, réponse qualifiée de « fausse » par Anthropic, qui dit avoir approuvé l'usage pour la défense antimissile. Un contrat de 200 millions de dollars pour systèmes classifiés expire vendredi à 17 h 01. OpenAI, éditeur de ChatGPT, a saisi l'occasion pour proposer sa technologie au Pentagone. Une bataille judiciaire se profile, avec des enjeux sur les règles encadrant l'IA létale et l'équilibre des pouvoirs dans la tech américaine.
5 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
What to know about the clash between the Pentagon and Anthropic over military's AI use
Source éditoriale·Newsday·28 févr. 2026
What to know about the clash between the Pentagon and Anthropic over military’s AI use
Source éditoriale·AP News
Pentagon-Anthropic Standoff Is a Decisive Moment for How A.I. Will Be Used in War
Source éditoriale·The New York Times
The hypothetical nuclear attack that escalated the Pentagon’s showdown with Anthropic
Source éditoriale·The Washington Post
Contexte ajouté : Anthropic comme entreprise axée sur la sécurité IA, fondateurs ex-OpenAI, modèle Claude avec garde-fous éthiques
Contexte IA