Deepfake & Porn content – Que faire quand l’usage de l’IA est dévoyé ?

Très récemment, des images pornographiques « deepfakes » (hypertrucage en français) de la chanteuse et actrice Taylor Swift ont « fait le buzz » sur les réseaux sociaux. Certaines de ces fausses photos ont été générées grâce à Designer, le générateur d’IA texte-image gratuit de Microsoft.

D’après les informations obtenues par les enquêteurs, ces images auraient été réalisées par une bande de petits malins qui s’était réunie sur un forum dont l’objet était de participer à des concours quotidiens pour trouver des mots et des phrases qui pourraient les aider à contourner les filtres des services d’IA. L’objectif final était de créer des images sexuelles de personnalités féminines de premier plan.

Alors avant de plaquer son conjoint le jour de la Saint-Valentin, est-ce qu’on ne se demanderait pas par exemple comment réagir en cas de Revenge porn réalisé à partir de photos créées avec des outils d’IA deepfake ?

Comme toujours, la tech’ a évolué bien plus vite que le droit et le deepfake n’est pas spécifiquement visé par un texte de loi.

Il existe toutefois, heureusement, des textes existants qui peuvent s’appliquer pour sanctionner certaines dérives.  

 

1. Que risquez-vous à diffuser des images et vidéos deepfakes ?

La réponse est : ça dépend de l’image/la vidéo.

Cette technologie peut être utilisée de manière assez inoffensive pour faire des montages parodiques non attentatoires aux bonnes mœurs par exemple.  

Mais elle présente également des risques importants en termes de désinformation et expose les individus au détournement malveillant de leur image.

96% des images deepfake en circulation seraient à caractère pornographique (étude de l’entreprise de cybersécurité Deep Trace).

Afin de lutter contre les dérives, le législateur s’est récemment saisi du sujet en intégrant deux amendements au Projet de loi visant à sécuriser et réguler l’espace numérique (dit projet de loi SREN), adopté par l’Assemblée nationale le 17 octobre 2023:

  • Le premier amendement consacre un nouveau délit à l’article 226-8-1 du Code pénal aux fins de réprimer la publication des montages traditionnels et deepfakes à caractère sexuel, sans le consentement de la personne représentée ;
  • Le second amendement vise à faire entrer dans le champ d’application d’un article existant du Code pénal (celui dont on parle juste après) la publication de deepfakes.

En attendant l’adoption de ce projet de loi, pour réprimer ces pratiques on vise, actuellement, un article du Code pénal datant de 1994 qui réprime de 1 an d’emprisonnement et 15 000 euros d’amende le fait de publier un montage réalisé avec les paroles ou l’image d’une personne sans son consentement.

La publication d’un tel montage ne restera possible que dans deux hypothèses :

  • Qu’il apparaisse évident qu’il s’agit d’un montage ;
  • Ou qu’il soit expressément mentionné qu’il s’agit d’un montage.

J’entends « Ah ok cool donc si je fais un montage porno (ou pas) avec la tête de mon ex’ et que je mets « ceci est un montage » je suis tranquille ! ».

Bien tenté, mais non !

L’article 9 du Code civil consacre le droit à la vie privée et une personne victime de deepfake peut invoquer une atteinte à son image et demander des dommages et intérêts pour le préjudice subi.

De plus, sur le plan pénal, le revenge porn qui constitue l’infraction d’atteinte volontaire à l’intimité de la vie privée d’autrui est puni par 2 ans de prison et 60 000 euros d’amende.

Donc en résumé, on y réfléchit à deux fois avant de balancer sur la toile des images/vidéos deepfake, qu’elles soient ou non à caractère porno.

 

2.Que faire si vous êtes la victime d’un deepfake portant atteinte à vie privée ?

Comment réagir si vous vous rendez compte que des photos ou vidéos, réelles ou créées de toutes pièces, apparaissent sur la toile ?

  1. Faites des captures d’écran des images concernées vous-même
  2. Si vous le pouvez, faites constater par un huissier l’existence des images (preuve non contestable en cas de procédure judiciaire derrière)
  3. Seulement après cela, faites un signalement au réseau social concerné si les images sont diffusées sur les réseaux
  4. Si l’identité de la personne qui diffuse les images est connue, faites un signalement de son profil via la plateforme PHAROS (plateforme gouvernementale permettant de signaler des contenus et comportements illicites en ligne).
  5. Aller sur le formulaire de droit à l’oubli des moteurs qui permettent à toute personne de demander le retrait de certains résultats de recherche la concernant, lorsque son nom y est associé.
  6. Pour les personnes majeures, le site StopNCII.org peut vous aider sur le retrait des images.
  7. Porter plainte directement à la gendarmerie ou en ligne.
  8. Faites vous aider par des proches, un avocat ou appelez un numéro gratuit dédié comme le 30 18 (numéro gratuit et confidentiel pour les violences numériques).