Safety by Design

Une opération conjointe à l’échelle de 19 pays a conduit à l’arrestation, mercredi, de 25 personnes suspectées d’avoir alimenté et administré un réseau de distribution de contenus pédopornographiques générés par le biais d’outils d’intelligence artificielle.
« D’autres arrestations sont attendues dans les semaines à venir, l’opération étant toujours en cours », prévient Europol. Vendredi, l’agence de police européenne a annoncé la conclusion d’un coup de filet centré sur un réseau accusé d’avoir distribué en ligne des contenus pédopornographiques générés par intelligence artificielle.
273 suspects et 25 arrestations
25 personnes ont ainsi été arrêtées mercredi 26 février, dans le cadre d’une enquête qui a permis d’identifier 273 suspects, et qui a déjà donné lieu à 33 perquisitions, ainsi qu’à la saisie de nombreux équipements électroniques.
Baptisée Operation Cumberland, l’enquête a mobilisé les forces de police spécialisées de 19 pays, dont l’Office mineurs (Ofmin), le nouveau service de police judiciaire français, chargé de lutter contre les infractions les plus graves commises à l’encontre des mineurs.
Ces 25 personnes sont liées à un Danois, déjà arrêté en novembre 2024, accusé d’avoir opéré une plateforme dédié à la diffusion d’images pédopornographiques. « Suite à un paiement symbolique en ligne, des utilisateurs du monde entier ont pu obtenir un mot de passe pour accéder à la plateforme et assister à des abus contre des enfants », décrit Europol.
Au-delà des enquêtes criminelles, ces contenus générés par IA devraient, selon Europol, motiver des actions de sensibilisation dédiée. « Ces images générées artificiellement sont si faciles à créer qu’elles peuvent être produites par des individus aux intentions criminelles même sans connaissances techniques approfondies », alerte Catherine De Bolle, directrice exécutive d’Europol.
Des craintes quant à l’industrialisation du phénomène
Si les services d’IA en ligne intègrent de nombreuses protections visant à limiter les possibilités de génération de contenus illicites, ces barrières sont relativement faciles à contourner dans le cas de modèles exécutés localement.
Or la multiplication du phénomène poserait un véritable problème, estime l’agence. « Cela contribue à la prévalence croissante des contenus pédopornographiques et, à mesure que le volume augmente, il devient de plus en plus difficile pour les enquêteurs d’identifier les auteurs ou les victimes », fait valoir Catherine de Bolle.
L’apparition d’une pédopornographie générée par IA a déjà été mise en lumière à l’été 2023. Une enquête de la BBC révélait alors qu’un réseau utilisait Stable Diffusion, un modèle populaire d’apprentissage automatique de type « texte vers image », pour générer des contenus qui étaient ensuite proposés, en échange d’un paiement, par l’intermédiaire de la plateforme Patreon.
Octavia Sheepshanks, la journaliste indépendante à l’origine de l’enquête, alertait déjà sur le caractère industriel de cette production assistée par IA, dont certains membres évoquaient des objectifs de création allant jusqu’à 1 000 contenus par mois.
Toujours au Royaume-Uni, l’Internet Watch Foundation – organisation indépendante qui lutte contre les contenus montrant des abus sur des enfants – indique dans son dernier rapport avoir constaté que quelque 3 500 images à caractère pédopornographiques circulaient au travers d’un forum du dark web. Avec des visuels considérés, dans 90 % des cas, comme suffisamment réalistes pour pouvoir être interprétés, d’un point de vue juridique, comme de véritables contenus d’exploitation sexuelle de mineurs en ligne (CSAM).