Intelligence Artificielle||3 sources
Le Pentagone accepte les règles de sécurité IA d'OpenAI après avoir écarté celles d'Anthropic
Le Pentagone accepte les limites éthiques d'OpenAI sur l'usage militaire de l'IA, similaires à celles rejetées chez Anthropic. Sam Altman défend ces règles dans un mémo interne, malgré les critiques politiques.
Le Pentagone a accepté les conditions de sécurité imposées par OpenAI pour déployer sa technologie dans des environnements classifiés, écision survient après que le ministère de la Défense a critiqué vertement Anthropic, un concurrent, pour ses propres limites éthiques similaires. Sam Altman, PDG de OpenAI, a détaillé la position de son entreprise dans un mémo adressé aux employés dans la nuit. OpenAI refuse l'usage de ChatGPT pour la surveillance de masse ou les armes autonomes, tout comme Anthropic. L'entreprise exige la possibilité de renforcer ses systèmes de sécurité et de surveillance grâce aux retours d'expérience des déploiements réels. OpenAI réclame également des chercheurs dotés d'habilitations de sécurité pour suivre l'usage de la technologie et conseiller le gouvernement sur les risques. Des garde-fous techniques sont prévus, comme la confinement des modèles au cloud plutôt qu'en environnement de bord, tels que les armes autonomes. Ces mesures visent à prévenir les dérives dans un contexte militaire sensible. Dario Amodei, PDG d'Anthropic, a suscité l'ire des responsables de la Défense et du président Donald Trump, perçus comme idéologiquement opposés. « Nous déciderons du sort de notre pays — PAS une entreprise d'IA de gauche radicale hors de contrôle dirigée par des gens qui ignorent le vrai monde. Merci pour votre attention. MAKE AMERICA GREAT AGAIN ! », a posté Trump sur Truth Social. Un haut responsable du Pentagone a qualifié l'approche d'Amodei d'idéologique. « Il est important pour moi que nous fassions la bonne chose, pas la facile qui paraît forte mais est hypocrite », a écrit Altman dans son mémo. Des employés d'OpenAI et de Google appellent leurs dirigeants à soutenir Anthropic. Le Pentagone n'a pas répondu immédiatement aux demandes de commentaires. Cette avancée pourrait profiter à OpenAI, qui évite jusqu'ici les foudres politiques de l'administration. Les discussions se poursuivent sans calendrier précis pour un contrat, tandis que le ministère évalue les implications sécuritaires des déploiements IA.
3 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
Altman says OpenAI agrees with Anthropic's red lines in Pentagon dispute
Source éditoriale·The Hill·27 févr. 2026
Pentagon approves OpenAI safety red lines after dumping Anthropic
Source éditoriale·Axios·27 févr. 2026
Contexte ajouté : historique des politiques d'OpenAI et Anthropic sur l'usage militaire de l'IA, rivalité entre entreprises
Contexte IA