* . *

Les « deepnudes » inondent Internet dans un contexte de vide juridique – EURACTIV.fr

GoogleAds

Les « deepfakes » pornographiques — également appelés « deepnudes » —, y compris de mineurs, se multiplient en ligne à mesure que les outils permettant de les créer deviennent faciles d’accès. Cependant, aucun appareil législatif ne règlemente ce type de contenu actuellement.

Les « deepfakes » sont des images générées par l’intelligence artificielle (IA) dans le but de changer ou modifier l’identité des personnes représentées et peuvent être créés à des fins diverses : d’un panel allant du divertissement à de la désinformation.

En septembre, une vidéo canular montrant le gouverneur de Floride Ron DeSantis annonçant qu’il se retirait sa candidature à la présidence de 2024 a circulé. En octobre, l’acteur hollywoodien Tom Hanks a averti ses abonnés sur Instagram qu’il existait une vidéo de promotion d’une assurance dentaire utilisant « une version de moi [générée] par l’IA » et a déclaré qu’il n’avait « rien à voir avec cela ».

Pour les victimes dont l’identité a été utilisée dans des deepfakes pornographiques sans leur consentement, l’expérience peut être traumatisante.

En mai dernier, Muharrem İnce, l’un des principaux candidats à l’élection présidentielle en Turquie, a dû retirer sa candidature à cause d’une vidéo deepfake qui avait été créée à partir d’images provenant d’un site pornographique israélien.

Les effets de l’utilisation abusive de cette technologie sont encore plus graves lorsqu’il s’agit de mineurs.

Toujours en mai, plus de 20 adolescentes espagnoles ont reçu des images d’elles-mêmes nues générées par l’IA sur base de photos tirées de leurs comptes Instagram, sur lesquelles elles étaient initialement vêtues.

Selon un rapport publié en octobre par l’Internet Watch Foundation (IWF) au Royaume-Uni, l’intelligence artificielle est de plus en plus utilisée pour créer des deepfakes de contenu pédopornographique.

« [Ces contenus] sont [disponibles] un peu partout et sont relativement faciles à fabriquer », a déclaré à Euracitv Matthew Green, professeur associé au département d’informatique de la Whiting School of Engineering de l’Université Johns Hopkins.

Et « partout » peut inclure des sites web d’intelligence artificielle qui ne sont pas spécifiquement conçus pour ce type de contenu, a ajouté M. Green.

Susie Hargreaves, distinguée par l’ordre honorifique de l’Empire britannique (OBE) et directrice générale de l’IWF, a également déclaré : « Au début de l’année, nous avons averti que les images d’IA pourraient bientôt devenir impossibles à distinguer des vraies images d’enfants victimes d’abus sexuels, et que nous pourrions commencer à voir ces images proliférer en bien plus grand nombre ».

« Nous avons maintenant dépassé ce stade », a-t-elle affirmé.

Est-ce illégal ?

Si la diffusion de contenus pornographiques avec des mineurs est illégale, l’introduction des traits d’un mineur dans une image pornographique réalisée par des adultes consentants se trouve dans un vide juridique qui met à l’épreuve la flexibilité des codes pénaux nationaux.

Dans le Code pénal néerlandais, il existe « une terminologie avec laquelle on peut couvrir à la fois la pornographie infantile réelle et non réelle », a indiqué à Euractiv Evert Stamhuis, professeur de droit et d’innovation à l’école de droit Erasmus de Rotterdam. Il s’agit d’une « description large et inclusive du crime », a-t-il ajouté.

M. Stamhuis a expliqué que les tribunaux néerlandais essayaient toujours d’interpréter la terminologie de manière à couvrir les nouveaux phénomènes, tels que les deepfakes de contenu d’abus sexuel d’enfants, « jusqu’au moment où la loi sera insuffisante, et il y a toujours un certain moment où cela arrive ».

Toutefois, d’après son expérience, cela reste rare. Même si une loi est dépassée, « le même type de préjudice auquel les législateurs voulaient s’attaquer avec l’approche traditionnelle se produit également dans les nouvelles circonstances ».

En Espagne, certaines des photos des filles dénudées générées par l’IA ont été faites par des camarades de classe. Toutefois, selon M. Stamhuis, le fait que ce soit un mineur ou un adulte qui crée ce type de contenu n’a pas d’incidence sur le délit commis. En revanche, cela crée une différence en ce qui concerne le droit d’engager des poursuites.

Le Code pénal néerlandais pourrait bien être plus l’exception que la norme. Manuel Cancio, professeur de droit pénal à l’Université autonome de Madrid, a déclaré à Euronews en septembre que la question n’était pas claire ni en Espagne ni dans de nombreux autres cadres juridiques européens.

« Puisqu’il est généré par deepfake, la vie privée de la personne en question n’est pas affectée. L’effet qu’elle produit [sur la victime] peut être très similaire à celui d’une vraie photo [d’elle] nue, mais la loi est en décalage [avec la technologie] », a déclaré M. Cancio.

Deborah Denis, directrice générale de la Lucy Faithfull Foundation, une organisation caritative britannique qui vise à prévenir les abus sexuels sur les enfants, a déclaré que « certaines personnes pourraient essayer de justifier ce qu’elles font en se disant que les images sexuelles d’enfants générées par l’IA sont moins nocives, mais ce n’est pas vrai ».

« Le partage de contenu d’abus sexuel d’enfants généré par lA est un délit dans la plupart des États membres », a déclaré l’Agence de l’UE pour la coopération des services répressifs (Europol) à Euractiv, ajoutant qu’elle avait été informée de l’affaire par les autorités espagnoles, mais qu’il ne lui avait pas été demandé d’apporter son soutien dans l’enquête.

La directive européenne relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants et la pédopornographie pourrait être suffisamment souple pour s’attaquer au nouveau phénomène en ce qui concerne les mineurs, puisqu’elle couvre « tout matériel représentant de manière visuelle un enfant se livrant à un comportement sexuellement explicite, réel ou simulé » ou « toute représentation des organes sexuels d’un enfant à des fins principalement sexuelles ».

Par ailleurs, au niveau de l’UE, les décideurs politiques discutent actuellement de la règlementation sur l’IA (AI Act), qui pourrait inclure des obligations de transparence pour les systèmes générant des deepfakes, comme l’inclusion de marques d’authenticité pour indiquer clairement qu’une image a été retouchée.

Le problème de l’application de la loi

Cependant, les services répressifs sont confrontés à un défi de taille pour détecter les contenus suspects parmi les milliards d’images et de vidéos partagées en ligne chaque jour.

« La diffusion d’images de mineurs nus créées à l’aide de l’IA préoccupe les forces de l’ordre depuis un certain temps, et il sera de plus en plus difficile d’y remédier », a déclaré Europol.

Europol a ajouté que les contenus générés par IA doivent être détectés à l’aide d’outils de classification d’IA. Or, pour l’instant, l’agence européenne n’est pas autorisée à utiliser des outils de classification.

Le professeur Matthew Green a toutefois fait remarquer que les technologies visant à détecter les contenus pédopornographiques ne sont fiables qu’à 80 % environ, et que ce taux de réussite devrait diminuer avec l’augmentation des deepfakes.

Selon M. Stamhuis, « la force de développement et de production de logiciels se trouve dans les grandes entreprises technologiques », qui possèdent également les principales plateformes de réseaux sociaux et pourraient donc bénéficier indirectement de la diffusion virale de ces images.

[Édité par Théophane Hartmann & Anne-Sophie Gayet]

Source : https://www.euractiv.fr/section/desinformation/news/les-deepnudes-inondent-internet-dans-un-contexte-de-vide-juridique/

Auteur :

Date de Publication : 2023-11-02 13:56:41

Le droit d’auteur pour le contenu syndiqué appartient à la source liée.

GoogleAds
Photo Video Mag
Logo
Compare items
  • Total (0)
Compare
0

1 2 3 4 5 6 7 8 .. . . . . . . . . . . . . . . . . . . . . . . . . %%%. . . * . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ - - - - - - - - - - - - - - - - - - - - . . . . .