Intelligence Artificielle||2 sources
L'administration Trump blacklist Anthropic après refus d'usage pour surveillance massive
L'administration Trump a blacklisté Anthropic du Pentagone après refus d'usage pour surveillance ou drones tueurs autonomes. L'entreprise, fondée par Dario Amodei, perd un contrat de 200 millions de dollars et prépare un recours en justice.
Pete Hegseth, secrétaire à la Défense, a invoqué vendredi une loi de sécurité nationale pour interdire à Anthropic, entreprise d'intelligence artificielle de San Francisco, de contracter avec le Pentagone. Dario Amodei, fondateur et dirigeant de Anthropic, a refusé d'adapter la technologie de l'entreprise à la surveillance de masse des citoyens américains ou à des drones armés autonomes capables de sélectionner et d'éliminer des cibles sans intervention humaine. Cette décision survient alors qu'une interview se déroulait, marquant un revirement brutal. Anthropic s'est distinguée depuis sa création en 2021 par son accent sur la sécurité de l'IA. Fondée par Amodei et d'anciens chercheurs d'OpenAI partis pour des divergences sur les risques liés à l'IA, l'entreprise a construit sa réputation en priorisant des garde-fous contre les usages militaires irresponsables. Ce positionnement, salué par des figures comme Max Tegmark, physicien du MIT et fondateur de l'Future of Life Institute en 2014, contraste avec la course effrénée à la puissance des modèles d'IA, souvent sans régulation adéquate. La mesure prive Anthropic d'un contrat potentiel allant jusqu'à 200 millions de dollars et l'empêche de collaborer avec d'autres sous-traitants de la défense. Le président Trump a renforcé l'ordre via un message sur Truth Social, enjoignant toutes les agences fédérales à cesser immédiatement l'usage de la technologie d'Anthropic. L'entreprise a annoncé qu'elle contestera la décision en justice, la qualifiant d'illégale et inédite pour une société américaine. Anthropic argue que la désignation de risque pour la chaîne d'approvisionnement est infondée. Alors que le secteur de l'IA peine à concilier innovation et contrôle, cette affaire pourrait influencer d'autres firmes réticentes aux applications militaires. Une procédure judiciaire est imminente.
2 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
The trap Anthropic built for itself
Source éditoriale·TechCrunch·1 mars 2026
Contexte ajouté : historique de fondation d'Anthropic par ex-OpenAI, mission sécurité IA, rôle de Max Tegmark et Future of Life Institute
Contexte IA