Intelligence Artificielle||2 sources
61 % des entreprises mondiales considèrent l’IA comme le principal risque pour la sécurité des données
Près de 61 % des entreprises voient l’IA comme le risque majeur pour leurs données, en raison d’accès larges et d’attaques par deepfakes touchant 60 % d’entre elles. 48 % subissent des dommages réputationnels dus à la désinformation IA.
Un rapport récent révèle que, dans le monde entier, 61 % des entreprises considèrent l’intelligence artificielle (IA) comme leur principal risque en matière de sécurité des données. Les sociétés intègrent massivement l’IA dans leurs flux de travail, analyses, services clients et pipelines de développement. Pour cela, elles accordent à ces outils un accès automatisé étendu, les transformant en quasi-insiders de confiance, avec des privilèges souvent supérieurs à ceux des employés humains. Les contrôles appliqués aux employés s’avèrent presque toujours plus stricts que ceux imposés à l’IA, exposant ainsi les données sensibles à des usages détournés potentiels. Parallèlement, près de 60 % des entreprises rapportent avoir subi des attaques impliquant des deepfakes. Ces médias synthétiques, générés par des algorithmes d’IA tels que les réseaux antagonistes génératifs ou les modèles de diffusion, reproduisent de manière hyper-réaliste audio, vidéo ou images afin d’imiter une personne réelle de façon convaincante. De telles offensives ont causé des dommages à la réputation pour 48 % des firmes, souvent par le biais de désinformation alimentée par l’IA. Les acteurs malveillants exploitent rapidement ces technologies pour des fraudes sophistiquées, telles que l’usurpation d’identité d’exécutifs via des clonages vocaux. Apparus vers 2017, les deepfakes ont évolué avec les modèles de diffusion, rendant les fraudes vocales et visuelles plus accessibles et destructrices. Face à une adoption accélérée de l’IA, les entreprises pourraient devoir renforcer la gestion des accès à ces outils d’ici 2026. Des cadres de gouvernance spécifiques à l’IA émergent dans le secteur de la cybersécurité, pour équilibrer innovation et protection des données critiques. Cette tendance reflète la nécessité d’adapter les pratiques de sécurité aux menaces issues des technologies mêmes que les entreprises déploient à grande échelle.
2 sources
Article enrichi par l'IA
Cet article a été enrichi avec du contexte additionnel provenant des connaissances de l'IA (historique, comparaisons, données techniques). Les sources éditoriales restent la base factuelle.
AI and deepfakes are proving to be a security nightmare for businesses everywhere
Source éditoriale·TechRadar·25 févr. 2026
Background: deepfake technology (GANs, diffusion models), history since 2017, examples like CEO voice cloning frauds, rising AI governance needs in cybersecurity
Contexte IA