Intelligence Artificielle||4 sources
Les enquêteurs ICAC accusent l’IA de Meta de les submerger de signalements inutiles sur les abus sexuels
Des officiers de l’ICAC au Nouveau-Mexique affirment que les milliers de signalements inutiles générés par l’IA de Meta submergent leurs enquêtes sur les abus sexuels sur enfants. Meta conteste ces critiques dans le cadre d’un procès en cours.
Benjamin Zwiebel, agent spécial de la taskforce Internet Crimes Against Children (ICAC) au Nouveau-Mexique, a témoigné la semaine dernière lors du procès intenté par l’État contre Meta. Les systèmes d’intelligence artificielle déployés par la plateforme génèrent chaque mois des milliers de signalements de faible qualité concernant du matériel présumé d’abus sexuel sur enfants. Ces rapports, souvent inutilisables, submergent les enquêteurs et ralentissent les enquêtes critiques sur les crimes graves. La taskforce ICAC, qui fait partie d’un vaste réseau national coordonné par le département de la Justice américain, est spécifiquement dédiée à la lutte contre les infractions sexuelles commises via internet contre les mineurs, mais elle se heurte désormais à un afflux massif de données non pertinentes issues de la modération automatisée. Ce dysfonctionnement survient dans le cadre d’un procès au Nouveau-Mexique accusant Meta de privilégier ses profits au détriment de la sécurité des enfants sur ses plateformes comme Facebook et Instagram. Les signalements cybertips adressés à l’ICAC ont doublé entre 2024 et 2025, accentuant la charge de travail. « C’est accablant car nous recevons tant de rapports, mais leur qualité est vraiment insuffisante pour agir sérieusement », a déclaré Benjamin Zwiebel. Ce réseau national peine à trier le bruit généré par l’IA pour identifier les vraies menaces, ce qui compromet l’efficacité globale des investigations dans un contexte où la modération automatisée par intelligence artificielle est devenue la norme sur les grandes plateformes numériques. Les officiers rapportent un impact profond sur le moral des équipes : « Cela tue le moral. Nous sommes submergés de signalements et nous voulons travailler sur le terrain », a indiqué un enquêteur. Meta conteste ces allégations, affirmant coopérer rapidement avec les forces de l’ordre et examiner les rapports avant leur transmission. Néanmoins, les volumes massifs issus de la modération automatisée par IA compliquent la tâche des équipes limitées en personnel, illustrant les limites de l’approche actuelle dans l’industrie des réseaux sociaux où l’automatisation vise à scaler la détection mais génère souvent plus de bruit que de signaux utiles. Le procès au Nouveau-Mexique se poursuit sans date précise pour un verdict. Les enquêteurs ICAC espèrent des améliorations dans la qualité et la pertinence des signalements pour restaurer leur capacité d’action et mieux protéger les enfants contre ...
4 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
Meta’s AI Floods Child Abuse Investigators With 'Junk' Tips, Law Enforcement Officials Claim
Source éditoriale·Decrypt·27 févr. 2026
Meta’s AI sending ‘junk’ tips to DoJ, US child abuse investigators say
Source éditoriale·ursaclimb.com
Meta’s AI moderates platforms, hinders U.S. ICAC, Guardian says
Source éditoriale·TipRanks
Contexte ajouté : rôle de l’ICAC comme réseau national DoJ et implications modération IA plateformes
Contexte IA