Aller au contenu
Intelligence Artificielle||2 sources

L'administration Trump blacklist Anthropic après refus d'usage pour surveillance massive

L'administration Trump a blacklisté Anthropic du Pentagone après refus d'usage pour surveillance ou drones tueurs autonomes. L'entreprise, fondée par Dario Amodei, perd un contrat de 200 millions de dollars et prépare un recours en justice.
Pete Hegseth, secrétaire à la Défense, a invoqué vendredi une loi de sécurité nationale pour interdire à Anthropic, entreprise d'intelligence artificielle de San Francisco, de contracter avec le Pentagone. Dario Amodei, fondateur et dirigeant de Anthropic, a refusé d'adapter la technologie de l'entreprise à la surveillance de masse des citoyens américains ou à des drones armés autonomes capables de sélectionner et d'éliminer des cibles sans intervention humaine. Cette décision survient alors qu'une interview se déroulait, marquant un revirement brutal. Anthropic s'est distinguée depuis sa création en 2021 par son accent sur la sécurité de l'IA. Fondée par Amodei et d'anciens chercheurs d'OpenAI partis pour des divergences sur les risques liés à l'IA, l'entreprise a construit sa réputation en priorisant des garde-fous contre les usages militaires irresponsables. Ce positionnement, salué par des figures comme Max Tegmark, physicien du MIT et fondateur de l'Future of Life Institute en 2014, contraste avec la course effrénée à la puissance des modèles d'IA, souvent sans régulation adéquate. La mesure prive Anthropic d'un contrat potentiel allant jusqu'à 200 millions de dollars et l'empêche de collaborer avec d'autres sous-traitants de la défense. Le président Trump a renforcé l'ordre via un message sur Truth Social, enjoignant toutes les agences fédérales à cesser immédiatement l'usage de la technologie d'Anthropic. L'entreprise a annoncé qu'elle contestera la décision en justice, la qualifiant d'illégale et inédite pour une société américaine. Anthropic argue que la désignation de risque pour la chaîne d'approvisionnement est infondée. Alors que le secteur de l'IA peine à concilier innovation et contrôle, cette affaire pourrait influencer d'autres firmes réticentes aux applications militaires. Une procédure judiciaire est imminente.

2 sources

Article enrichi par l'IA

Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.

The trap Anthropic built for itself

Source éditoriale·TechCrunch·1 mars 2026

Contexte ajouté : historique de fondation d'Anthropic par ex-OpenAI, mission sécurité IA, rôle de Max Tegmark et Future of Life Institute

Contexte IA

Restez informé avec Morni

Créez un compte gratuit pour accéder aux articles complets, aux flux personnalisés et aux résumés générés par IA.