Intelligence Artificielle||4 sources
Le Pentagone interroge Boeing et Lockheed Martin sur leur dépendance à l’IA Claude d’Anthropic
Le Pentagone a sollicité Boeing et Lockheed Martin pour mesurer leur dépendance à l’IA Claude d’Anthropic, première étape vers un possible blacklistage pour restrictions militaires. Un ultimatum court jusqu’au 27 février 2026.
Le Pentagone a interrogé Boeing Defense, Space and Security et Lockheed Martin le 25 février 2026 pour évaluer leur dépendance à Claude, le modèle d’intelligence artificielle développé par Anthropic. Cette initiative constitue la première étape d’un processus susceptible de désigner Anthropic comme un « risque pour la chaîne d’approvisionnement », une mesure généralement appliquée aux entreprises liées à des États adversaires, à l’image de Huawei. Boeing et Lockheed Martin figurent parmi les principaux contractants de la défense américaine, spécialisés dans la production d’avions de chasse, de missiles et d’équipements spatiaux critiques. Cette pression s’inscrit dans des tensions persistantes concernant les conditions d’utilisation de Claude par le ministère de la Défense. Anthropic, dirigé par son PDG Dario Amodei, refuse catégoriquement tout usage militaire de son IA pour la surveillance massive des citoyens américains ou le développement d’armes totalement autonomes. Un responsable du Pentagone aurait déclaré que le département veillerait à ce que l’entreprise « paie le prix » de sa position restrictive, soulignant les frictions croissantes autour des applications militaires de l’intelligence artificielle. Lockheed Martin a confirmé avoir été approché pour examiner son exposition à Anthropic en vue d’une éventuelle déclaration de risque. Boeing, de son côté, a indiqué n’entretenir aucun contrat avec la société. Le Pentagone prévoit d’élargir cette enquête à d’autres grands fournisseurs d’équipements militaires, notamment ceux impliqués dans la fabrication d’avions de chasse et de missiles, dans un contexte où la dépendance à des technologies IA étrangères ou restrictives pose des questions de sécurité nationale. Dario Amodei dispose jusqu’au 27 février 2026 à 17 h 01 pour se conformer aux exigences du Pentagone, potentiellement en s’appuyant sur la loi sur la production de défense. Pete Hegseth, secrétaire à la Défense pressenti, pourrait alors enclencher une interdiction totale si l’ultimatum n’est pas respecté, obligeant les contractants à rompre tous leurs liens avec Anthropic. Cette affaire illustre les défis du paysage concurrentiel de l’IA militaire, où les restrictions éthiques des entreprises comme Anthropic entrent en conflit avec les besoins stratégiques du Département de la Défense.
4 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
Le Pentagone intensifie la pression sur Anthropic et consulte ses partenaires industriels
Source éditoriale·Numerama·26 févr. 2026
Pentagon taps Boeing, Lockheed Martin in first step to blacklist Anthropic: Report
Source éditoriale·Mint
Congress—Not the Pentagon or Anthropic—Should Set Military AI Rules
Source éditoriale·Lawfare
Contexte ajouté: signification de 'supply chain risk' (comme Huawei), restrictions précises d'Anthropic sur usage militaire, rôle des lois de production de défense
Contexte IA