Aller au contenu
Dev & Open Source||3 sources

Anthropic abandonne un engagement clé de sa politique de sécurité face à la concurrence en IA

Anthropic révise son Responsible Scaling Policy en supprimant un engagement clé sur la garantie préalable de sécurité, sous pression concurrentielle. La nouvelle mouture met l’accent sur la transparence et l’alignement avec les rivaux.
Anthropic, entreprise d’intelligence artificielle basée à San Francisco aux États-Unis, a modifié sa politique de sécurité emblématique, le Responsible Scaling Policy (RSP), en abandonnant un engagement central face à une concurrence intense dans le domaine. Cette décision, annoncée mardi via un billet de blog sur son site, met fin à la promesse de ne pas entraîner de modèles d’IA sans garantie préalable de mesures de sécurité adéquates. Jared Kaplan, directeur scientifique d’Anthropic, a expliqué que cette contrainte unilatérale n’aiderait personne alors que les rivaux progressent rapidement. Ce revirement intervient dans un contexte où les avancées en IA s’accélèrent à un rythme effréné. Lancé en 2023, le RSP visait à instaurer une « course vers le haut » en matière de sécurité, en espérant que des concurrents comme Google et OpenAI adoptent des principes similaires. Anthropic avait été fondée par d’anciens employés d’OpenAI précisément pour promouvoir une approche « safety-first », en alternative à une course effrénée au profit potentiellement dangereuse. Bien que certains concurrents aient partiellement adopté ces principes, cette stratégie n’a pas fonctionné comme prévu, selon l’entreprise. La dynamique concurrentielle en IA impose désormais des ajustements stratégiques pour ne pas se laisser distancer. La nouvelle version du RSP insiste sur une plus grande transparence, avec des publications supplémentaires sur les tests de sécurité des modèles d’Anthropic. Elle s’engage à égaler ou dépasser les efforts des concurrents et à retarder les déploiements si les risques l’exigent. « Nous n’avons pas senti qu’il était sensé de faire des engagements unilatéraux », a déclaré Jared Kaplan. Ce changement reflète les difficultés à imposer des normes élevées sans adhésion collective de l’industrie. Anthropic continue d’affirmer son engagement fort pour la sécurité, mais cette révision souligne les tensions entre innovation rapide et précautions nécessaires. Dans un secteur où la compétition fait rage, l’entreprise cherche à concilier compétitivité et responsabilité. Les observateurs attendent les détails complets de la mise en œuvre, ainsi que les prochaines étapes prévues pour évaluer l’impact de ces ajustements sur le paysage de l’IA.

3 sources

Article enrichi par l'IA

Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.

Anthropic changes safety policy amid intense AI competition

Source éditoriale·Mashable·25 févr. 2026

Exclusive: Anthropic Drops Flagship Safety Pledge

Source éditoriale·Time Magazine

Contexte ajouté : origines d'Anthropic comme alternative safety-first à OpenAI, détails RSP 2023 et dynamique concurrence AI

Contexte IA

Restez informé avec Morni

Créez un compte gratuit pour accéder aux articles complets, aux flux personnalisés et aux résumés générés par IA.