L’IA, nouveau terrain de chasse des prédateurs d’enfants

Les experts avertissent que l'intelligence artificielle facilite déjà la création d'images d'exploitation sexuelle d'enfants.

Selon les experts en cybersécurité, l'essor de l'intelligence artificielle (IA) a malheureusement ouvert un nouveau champ d'action aux individus produisant et partageant du matériel d'abus sexuel sur mineurs (MASM). Loin d'être une projection pour l'avenir, ce fléau facilité par l'IA est d'ores et déjà une réalité dévastatrice.

Une prolifération exponentielle

Les chiffres sont éloquents et ne cessent d'enfler de façon alarmante : le Centre américain pour les enfants disparus et exploités (National Center for Missing and Exploited Children, NCMEC) a reçu plus de 82 millions de signalements de MASM en 2022. Un volume en hausse de 87% par rapport à l'année 2019 selon le groupe de réflexion WeProtect Global Alliance.

Alimentée par les nouvelles capacités de génération d'images artificielles photoréalistes, cette prolifération de contenus pédopornographiques semble désormais hors de contrôle pour les systèmes de modération actuels, débordés par ce véritable tsunami numérique.

Un risque accru de banalisation

Au-delà de la production proprement dite de ces images explicites par les intelligences artificielles, les experts s'inquiètent d'un autre danger tout aussi pernicieux : la banalisation et la normalisation de l'exploitation sexuelle des mineurs que ces contenus virtuels pourraient insidieusement entraîner au sein des esprits les plus jeunes et influençables.

« Même artificielles, ces représentations contribuent à rendre acceptable la sexualisation des enfants », alerte ainsi Tori Rousay, du Centre national contre l'exploitation sexuelle basé aux États-Unis (National Center on Sexual Exploitation, NCSE).

Autre sujet de préoccupation : les potentielles origines de ces créations synthétiques. Il est impossible de garantir que les données ayant entraîné les intelligences artificielles ne contiennent pas elles-mêmes des images d'abus réels sur mineurs. Cette zone d'ombre plane au cœur même de cette prolifération de contenus illicites générés par l'IA.

Réagir sur tous les fronts

Face à cette menace de plus en plus pressante, différents acteurs tentent de réagir sur plusieurs fronts. Sur le plan législatif, le Congrès américain étudie actuellement diverses propositions de loi visant à mieux encadrer juridiquement les obligations de modération des contenus illicites par les grandes plateformes en ligne, et à faciliter les poursuites judiciaires à leur encontre en cas de manquements caractérisés dans ce domaine.

Une complète refonte du système centralisé de signalement des contenus pédopornographiques géré par le NCMEC est également jugée indispensable par de nombreux experts. Cela permettrait à cette structure d'absorber l'afflux massif de contenus signalés et d'en prioriser le traitement.

Sensibiliser activement les parents ainsi que les jeunes publics aux risques de ces nouvelles dérives numériques est, par ailleurs, considéré comme un axe prioritaire par la plupart des associations américaines de protection de l'enfance. Faire prendre conscience des conséquences psychologiques et pénales de tels agissements est vu comme un levier essentiel pour circonscrire ce fléau.

Rester collectivement vigilants sur ces terribles dérives et détournements des nouvelles technologies apparaît désormais comme un impératif pour les sociétés souhaitant préserver leurs enfants. Un défi de taille dans l'ère de l'intelligence artificielle démocratisée et des contenus synthétiques de plus en plus réalistes.

Restez à la pointe de l'information avec LEBIGDATA.FR !

Abonnez-vous à notre chaîne YouTube et rejoignez-nous sur Google Actualités pour garder une longueur d'avance.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *