Dev & Open Source||2 sources
Instagram alertera les parents si des adolescents effectuent des recherches répétées sur des termes suicidaires
Instagram lancera des alertes parentales pour les recherches répétées sur le suicide par les adolescents, via son outil de supervision. Le déploiement commence début mars aux États-Unis, au Royaume-Uni et au Canada.
Instagram préviendra bientôt les parents lorsque des adolescents effectueront des recherches répétées sur des termes liés au suicide ou à l’automutilation. L’annonce a été faite jeudi par des responsables de la plateforme. Cette fonctionnalité, accessible via l’outil de supervision parentale, sera déployée en premier aux États-Unis, au Royaume-Uni et au Canada, avec des informations dès la semaine prochaine et des alertes officielles début mars. Elle s’adresse aux comptes adolescents, destinés aux 13-17 ans, et vise à renforcer la protection des jeunes utilisateurs face aux risques pour leur santé mentale. Cette mesure s’inscrit dans les efforts continus de Meta, la maison mère d’Instagram, pour améliorer la sécurité des adolescents sur ses plateformes. Auparavant, Instagram bloquait ces résultats de recherche et redirigeait les utilisateurs vers des lignes d’écoute spécialisées, sans jamais informer les parents. Les comptes adolescents peuvent désormais être associés à cet outil de supervision parentale, dans un contexte de critiques récurrentes sur l’impact des réseaux sociaux sur la santé mentale des mineurs. Ces préoccupations ont été soulignées depuis 2021 par des enquêtes internes de Meta révélées publiquement, qui mettaient en lumière les effets potentiellement néfastes d’Instagram sur le bien-être des jeunes, alimentant un débat plus large sur la responsabilité des géants du numérique. Les parents recevront une notification dans l’application, ainsi qu’un courriel, un SMS ou un message WhatsApp selon les contacts fournis lors de la configuration. Ils auront accès à du contenu conçu par des experts pour aborder les sentiments suicidaires avec leur enfant de manière appropriée. En cas de danger physique imminent, Instagram contacte les services d’urgence, une politique en vigueur depuis longtemps. Par ailleurs, Meta prépare des alertes similaires pour certaines expériences d’intelligence artificielle, dans le but d’anticiper d’autres risques émergents liés aux technologies avancées. La plateforme, qui compte des centaines de millions d’utilisateurs adolescents dans le monde, cherche ainsi à prévenir les risques de manière proactive sans recourir à une surveillance généralisée de toutes les activités. Ce déploiement initial aux États-Unis, au Royaume-Uni et au Canada permettra de tester l’efficacité de la fonctionnalité avant une extension probable à d’autres pays, contribuant à un paysage concurrentiel où les réseaux sociaux rivalisent pour démontrer...
2 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
Instagram to alert parents when teens search for suicide
Source éditoriale·Mashable·26 févr. 2026
Background: Meta's prior teen safety measures, Teen Accounts introduction, and 2021 internal reports on Instagram's mental health impact
Contexte IA