La pornographie juvénile entre dans une nouvelle ère

GoogleAds

Les policiers ont eu toute une surprise en fouillant le matériel informatique de Steven Larouche.

Au cours des dernières années, le Sherbrookois de 61 ans s’est bâti une collection de pornographie juvénile. Et pas n’importe laquelle : l’une des plus grandes collections mises au jour dans l’histoire judiciaire canadienne. Un lot de plus de 545 000 fichiers.

Chaque jour, des gens s’échangent et partagent des vidéos de moi quand j’étais petite et que je me faisais violer le plus sadiquement possible, a raconté l’une des victimes rencontrées par la Cour du Québec.

« Ils ne me connaissent pas, mais ils m’ont vue sous toutes mes coutures. Ils s’amusent de ma honte et de ma douleur. »

— Une citation de Une victime de Steven Larouche

Steven Larouche a été condamné à huit ans de prison en avril. L’homme, qui a étudié en informatique et travaillé dans ce domaine durant quelques années, a eu recours à des techniques à la fine pointe de la technologie, y compris l’utilisation de l’intelligence artificielle, pour parvenir à ses fins.

Le cas du Sherbrookois témoigne d’un phénomène en plein essor, qui risque d’accaparer de plus en plus les systèmes de justice de partout dans le monde. Les tribunaux de toutes les juridictions au Canada sont unanimes à voir, dans l’expansion continue et l’utilisation de plus en plus facile d’Internet pour perpétrer des crimes de nature sexuelle envers les enfants, un mal à éradiquer de manière pressante, écrit le juge Benoit Gagnon dans sa décision.

Début du widget . Passer le widget?

Fin du widget . Retour au début du widget?

Plusieurs voix se sont jointes à celles du juge ces derniers mois : les nouvelles tactiques des cyberprédateurs pourraient rapidement devenir hors de contrôle.

Mais quelles sont donc ces tactiques?

Des robots dans la peau d’enfants

De nombreux chercheurs ont tenté de débroussailler les plus récents stratagèmes des cyberprédateurs. Le hic, comme l’explique Christian Jordan Howell, professeur en criminologie à l’Université de Floride du Sud, c’est que les méthodes évoluent à ce point vite qu’au moment où les articles scientifiques sont publiés, la plupart d’entre eux sont déjà désuets.

Les études analysent des données anciennes, qui viennent généralement de rapports de police, précise-t-il. Ces rapports peuvent prendre 3 ou 10 ans pour être disponibles, et l’article peut prendre un an pour être écrit et révisé. Au moment où l’article sort, les techniques de cyberprédation qu’il décrit ne sont souvent même plus utilisées.

Le professeur a fait équipe avec Eden Kamar, doctorante en cybersécurité à l’Université hébraïque de Jérusalem, pour tenter une approche différente. Afin d’étudier le comportement des cyberprédateurs toujours actifs, les chercheurs sont entrés en contact directement avec eux. Ou, plutôt, par l’intermédiaire de robots conversationnels.

Ils ont créé de faux profils de filles de 13 à 14 ans, qu’ils ont mis en ligne sur une trentaine de sites de clavardage populaires chez les jeunes. Des photos de profil ont été obtenues à partir du site web This Person Does Not Exist, lequel crée des images réalistes de personnes qui n’existent pas à l’aide de l’intelligence artificielle.

1/ de 4

Exemple de photo de jeune fille fictive crée par intelligence artificielle avec le site web « This Person Does Not Exist ».Photo : Radio-Canada / This Person Does Not Exist

Voir l’image précédente

Voir l’image suivante

Image 1 de 4Portrait de jeune fille fictive.

Exemple de photo de jeune fille fictive crée par intelligence artificielle avec le site web « This Person Does Not Exist ».Photo : Radio-Canada / This Person Does Not Exist

Image 2 de 4Portrait de jeune fille fictive.

Exemple de photo de jeune fille fictive crée par intelligence artificielle avec le site web « This Person Does Not Exist ».Photo : Radio-Canada / This Person Does Not Exist

Image 3 de 4Portrait de jeune fille fictive.

Exemple de photo de jeune fille fictive crée par intelligence artificielle avec le site web « This Person Does Not Exist ».Photo : Radio-Canada / This Person Does Not Exist

Image 4 de 4Portrait de jeune fille fictive.

Exemple de photo de jeune fille fictive crée par intelligence artificielle avec le site web « This Person Does Not Exist ».Photo : Radio-Canada / This Person Does Not Exist

Les chercheurs ont entraîné leurs algorithmes à répondre aux étrangers qui discutaient avec eux. Les robots n’entamaient jamais eux-mêmes une conversation. Lorsqu’un inconnu commençait à leur parler, ils lui demandaient systématiquement son âge, son sexe et son emplacement– une pratique courante dans les salons de clavardage –, et ils ne continuaient à discuter avec la personne que si elle disait avoir 18 ans ou plus.

Les messages n’ont pas tardé à déferler. En six mois, les robots ont entretenu au total près de 1000 conversations avec des personnes s’autodéclarant adultes.

« À peu près toutes ces conversations se transformaient en une forme d’abus sexuel. »

— Une citation de Eden Kamar, doctorante en cybersécurité à l’Université hébraïque de Jérusalem

L’équipe de recherche affirme que les conditions imposées au moment de l’approbation éthique de leur expérience les empêchent de dévoiler les pseudonymes des cyberprédateurs et les sites de clavardage étudiés. Radio-Canada a toutefois eu accès à des captures d’écran de conversations.

Certains inconnus étaient très explicites dans leur désir d’obtenir des vidéos de l’enfant effectuant un acte sexuel, en échange d’argent ou d’une relation amoureuse. Deux étrangers sur cinq avaient une approche plus subtile : l’envoi d’un lien URL dans la conversation.

Les liens contenaient un logiciel malveillant dans 19 % des cas et menaient sur un site d’hameçonnage dans 5 % des cas. Ces techniques permettent par exemple d’avoir accès aux informations personnelles, aux mots de passe et aux webcams des enfants.

Plus de 40 % des liens menaient quant à eux sur la plateforme de l’entreprise norvégienne Whereby.

C’est une plateforme semblable à Zoom, affirme Eden Kamar, et nous avons trouvé dans notre étude qu’il est possible pour un prédateur utilisant Whereby d’intégrer un code qui lui permet d’ouvrir la caméra de l’enfant et d’enregistrer sans son consentement.

Début du widget . Passer le widget?

Fin du widget . Retour au début du widget?

Fausses images, vrai problème

Au Canada, le programme Cyberaide, créé par le Centre canadien de protection de l’enfance (CCPE), recueille les dénonciations d’exploitation sexuelle d’enfants. Le nombre de signalements pour leurre informatique a bondi de 815 % dans le pays au cours des cinq dernières années.

Le dark Web [ou web clandestin] procure aux pédoprédateurs un moyen de se regrouper en communauté et de sortir jusqu’à un certain point de l’anonymat, explique René Morin, porte-parole du CCPE. C’est là qu’ils vont se passer tous les tuyaux pour dire comment utiliser tel nouveau site ou telle nouvelle application pour abuser les enfants.

Toutefois, l’échange de matériel de pornographie juvénile se fait généralement sur le web visible, ajoute-t-il. Sur le web clandestin, il y a des technologies qui cryptent les informations partagées, ce qui fait que le débit des vidéos va ralentir. Personne n’a envie de regarder une vidéo qui roule au ralenti.

M. Morin précise que des prédateurs ont très bien pu s’échanger leurs trucs sur le web clandestin s’ils ont trouvé une faille dans la plateforme Whereby. Cela dit, du côté de Cyberaide, seulement une poignée de signalements étaient liés à cette plateforme dans les dernières années.

Début du widget . Passer le widget?

Fin du widget . Retour au début du widget?

Le porte-parole du CCPE se dit particulièrement préoccupé par un autre phénomène : l’utilisation de l’intelligence artificielle pour produire de la pornographie juvénile. C’est l’une des méthodes qui ont permis au Sherbrookois Steven Larouche d’obtenir autant de fichiers. Plus de 86 000 d’entre eux montraient des scènes inspirées de véritables enfants… mais totalement fausses.

L’homme a eu recours aux techniques d’hypertrucage pour intégrer des visages d’enfants sur le corps d’autres individus de manière réaliste.

L’utilisation par des mains criminelles de la technologie de l’hypertrucage donne froid dans le dos, écrit le juge Gagnon dans sa décision. Ce type de logiciel permet de commettre des crimes qui pourraient mettre en cause virtuellement tous les enfants de nos communautés. Un simple extrait vidéo d’enfant disponible sur les réseaux sociaux, ou une capture vidéo subreptice d’enfants dans un lieu public pourraient les transformer en victimes potentielles de pornographie juvénile, renchérit-il.

« Les autorités policières se retrouvent visiblement dans une nouvelle ère de cybercriminalité. »

— Une citation de Le juge Benoit Gagnon

Même son de cloche du côté de l’Observatoire de l’Internet de Stanford et de l’organisme de lutte contre l’exploitation sexuelle Thorn, qui ont récemment produit un rapport commun sur le sujet.

Ils remarquent notamment l’usage détourné de Stable Diffusion, un outil d’apprentissage automatique semblable à DALL-E, d’OpenAI, qui permet de créer des images à partir de descriptions textuelles.

Contrairement à la situation avec DALL-E, le code source de Stable Diffusion est public. Des utilisateurs ont donc pu modifier le code pour en retirer les restrictions sur la création de matériel pornographique.

Les chercheurs ont montré que ces images générées peuvent même être modifiées pour que les visages ressemblent à ceux d’une personne donnée. Dans leur exemple, ils partent d’une image de jeune fille générée par intelligence artificielle afin de créer ce qui ressemble à une photographie de l’actrice Audrey Hepburn, en version rajeunie.

1/ de 3

Image de jeune fille fictive produite par Stable Diffusion et utilisée par les chercheurs pour leur exemple de transformation.Photo : Radio-Canada / Gracieuseté – Stanford Internet Observatory

Voir l’image précédente

Voir l’image suivante

Image 1 de 3Image de jeune fille fictive.

Image de jeune fille fictive produite par Stable Diffusion et utilisée par les chercheurs pour leur exemple de transformation.Photo : Radio-Canada / Gracieuseté – Stanford Internet Observatory

Image 2 de 3Filles aux traits similaires à ceux d'Audrey Hebpurn.

Modification de l’image précédente pour donner à la jeune fille des traits physiques similaires à ceux d’Audrey Hepburn.Photo : Radio-Canada / Gracieuseté – Stanford Internet Observatory

Image 3 de 3Jeune fille aux traits similaires à ceux d'Audrey Hepburn.

Transformations finales pour rajeunir la fille aux allures d’Audrey Hepburn.Photo : Radio-Canada / Gracieuseté – Stanford Internet Observatory

L’un des dangers est alors celui de la revictimisation, fait valoir Rebecca Portnoff, directrice de la science de données à Thorn et coautrice du rapport. Ces technologies ouvrent la porte à la production de nouveau matériel avec des images d’enfants qui ont été abusés. De nouvelles images de l’enfant commencent donc à circuler sur Internet, alors que le jeune tente déjà tant bien que mal de se remettre de son abus.

ll y a aussi un risque qui concerne l’identification des réelles victimes, remarque la chercheuse. Il devient extrêmement difficile de trier rapidement les images représentant des enfants activement en danger si elles sont noyées dans une quantité toujours croissante de contenu pornographique.

En juin, le FBI a quant a lui alerté que de plus en plus de prédateurs réussissent à transformer des photos et vidéos non explicites en matériel pornographique qu’ils font circuler sur le web pour harceler leurs victimes.

Rebecca Portnoff.

Rebecca Portnoff, directrice de la science de données à ThornPhoto : Radio-Canada / Gracieuseté – Thorn

Le pouvoir d’agir

Lors de leur expérience avec les faux profils de jeunes filles, Christian Jordan Howell et Eden Kamar ont programmé certains de leurs robots conversationnels pour simuler une supervision parentale active et d’autres pour simuler une supervision plus faible ou complètement absente.

Leur résultat est clair : 92 % des cyberprédateurs abandonnaient leurs sollicitations lorsque leur victime leur faisait savoir qu’un parent surveillait le tout activement. Les parents doivent faire leur travail de parents, en déduit le professeur Howell, qui suggère aussi de couvrir les webcams lorsqu’elles ne sont pas utilisées

Début de la mosaïque de 2 items. Passer la mosaïque?Eden Kamar.Agrandir l’image Eden Kamar, doctorante en cybersécurité à l’Université hébraïque de Jérusalem.Photo : Radio-Canada / Gracieuseté – Eden KamarChristian Jordan Howell.Agrandir l’image Christian Jordan Howell, professeur en criminologie à l’Université de Floride du Sud.Photo : Radio-Canada / Gracieuseté – Christian Jordan HowellFin de la mosaïque de 2 items. Retourner au début de la mosaïque?

De leur côté, l’organisme Thorn et le CCPE ont chacun développé un outil technologique reposant sur de vastes bases de données de pornographie juvénile pour émettre un signalement lorsque ces images refont surface en ligne.

Or, tous les experts interrogés par Radio-Canada s’entendent pour dire que les géants du numérique ont aussi leur rôle à jouer.

Les forces policières sont déjà surchargées par les dossiers d’exploitation sexuelle d’enfants, et vous avez tout cet afflux de matériel qui va inévitablement augmenter dans les années à venir, met en garde René Morin.

M. Morin déplore plus précisément l’absence d’encadrement réglementaire de l’espace numérique au Canada et dans bon nombre de régions du monde. En laissant aux plateformes le champ libre, on a aujourd’hui que c’est le Far West et que ces plateformes sont devenues des mines d’or pour les personnes qui veulent exploiter des enfants, conclut-il.

Source de l’image d’en-tête : iStock

Source : https://ici.radio-canada.ca/recit-numerique/6155/cyberpredateurs-pornographie-juvenile-exploitation-sexuelle

Auteur :

Date de Publication : 2023-07-14 22:59:36

Le droit d’auteur pour le contenu syndiqué appartient à la source liée.

GoogleAds
Photo Video Mag
Logo
Compare items
  • Total (0)
Compare
0

1 2 3 4 5 6 7 8 .. . . . . . . . . . . . . . . . . . . . . . . . . .... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .