L’Internet Watch Foundation, ONG qui gère la hotline des signalements de photos ou de vidéos d’abus sexuels sur enfants sur Internet, tire la sonnette d’alarme sur les contenus pédopornographiques générés par IA.
Elle explique rencontrer de plus en plus de contenus d’abus sexuels d’enfants créés en utilisant les technologies d’intelligence artificielle sur des sites aisément accessibles.
L’IWF ajoute avoir agi à propos de 74 signalements pour de tels contenus entre avril et fin septembre (une période de 6 mois donc). Elle avait agi sur 70 signalements sur la période des 12 mois précédents, entre avril 2023 et avril 2024.
Pour 99 % de ces contenus, aucun navigateur spécifique comme Tor Browser n’était nécessaire pour y accéder.
La plupart d’entre eux (78 %) lui ont d’abord été signalés par des internautes qui sont tombés sur un forum ou une galerie d’images générées par IA. Le reste a été détecté par les analystes de l’ONG en cherchant de manière proactive.
Mais, en plus du problème de la profusion d’images de ce type, l’Internet Watch Foundation explique que la détection de photos pédocriminelles réelles risque d’en pâtir.
Un de ses analystes témoigne : « Je trouve cela vraiment effrayant, car j’ai l’impression que nous sommes à un point de basculement et que des organisations comme nous et la police risquent d’être submergées par des centaines et des centaines de nouvelles images, sans que nous sachions toujours s’il s’agit d’un véritable enfant qui a besoin d’aide ».
L’ONG signale que plus de la moitié des serveurs qui hébergeaient ce type de contenus se trouvaient dans deux pays : 27 en Russie, 16 aux États-Unis. Le Japon et les Pays-Bas suivent avec respectivement 8 et 6 des serveurs. 3 de ces serveurs se trouvaient en France et un seul des serveurs listés par l’IWF n’était accessible que via une URL en .onion.
L’IWF rappelle que ses analystes continuent de repérer des images de victimes de pédocriminalité utilisées pour générer de nouvelles images et des deepfakes de violences sexuelles.