Aller au contenu
Intelligence Artificielle||2 sources

n8n révèle une faille dans son nœud Guardrail permettant de contourner les sécurités IA

Une faille dans le nœud Guardrail de n8n permet de contourner les vérifications de sécurité IA par injection de prompt. Corrigée en version 2.10.0, elle incite à une mise à jour immédiate et à des audits de prompts.
n8n, plateforme d'automatisation open source, a publié le 26 février 2026 une alerte de sécurité identifiée sous l'ID GHSA-FVFV-PPW4-7H2W. Cette vulnérabilité, notée 6,5 sur l'échelle CVSS, affecte le nœud Guardrail, un composant conçu pour filtrer les entrées malveillantes via des modèles de langage volumineux (LLM). Les attaquants exploitent une faille logique par injection de prompt pour outrepasser les contrôles de sécurité. Dans le contexte des outils no-code/low-code en pleine expansion, n8n rivalise avec des solutions comme Zapier en intégrant des flux de travail avec des API et des LLM, souvent via la bibliothèque LangChain. Le nœud Guardrail vise à bloquer les contenus prohibés en soumettant les entrées à un verdict du LLM. Cette brèche met en lumière les risques inhérents à la délégation de la sécurité à des modèles probabilistes, où une séparation défaillante entre instructions système et données utilisateur suffit à compromettre le filtre. La faille provient de délimiteurs trop permissifs et d'une validation de schéma trop lâche, répertoriée sous CWE-20 (validation d'entrée incorrecte). Un proof-of-concept (POC) public démontre comment forcer le nœud à valider des entrées interdites. L'attaque se propage via le réseau, avec un impact de contournement de contrôles de sécurité. La version 2.10.0 corrige cela par le commit 8d0251d, renforçant la validation et les prompts. Les utilisateurs doivent mettre à jour vers n8n 2.10.0 ou ultérieure, tirer l'image Docker la plus récente et redémarrer les services. Ils gagneront à auditer leurs prompts Guardrail personnalisés pour interdire les instructions contradictoires, et à adopter une validation stricte comme celle de Zod (.strict()).

2 sources

Article enrichi par l'IA

Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.

GHSA-FVFV-PPW4-7H2W: n8n Guardrail Bypass: When AI Safety Rails Are Made of Paper

Source éditoriale·Dev.to·27 févr. 2026

Contexte ajouté : description de n8n comme outil d'automatisation open source similaire à Zapier, intégration LangChain et risques généraux des LLM en sécurité

Contexte IA

Restez informé avec Morni

Créez un compte gratuit pour accéder aux articles complets, aux flux personnalisés et aux résumés générés par IA.