Défense fantaisiste mais vrai problème pour la justice : au tribunal, Dieudonné invoque un « deepfake »

By  |  2 Comments

Par Pierre Lann

Jugé pour injure publique et diffamation ce mercredi 2 novembre, l’humoriste Dieudonné a assuré avoir été victime d’un « deepfake », un trucage numérique. Cette étonnante défense pose un problème nouveau à la justice, alors que les technologies de génération de faux plus vrais que nature se perfectionnent.
C’est son visage sur la vidéo, mais ce n’est pas lui, assure-t-il. Dieudonné, condamné à de multiples reprises pour des propos racistes, est une nouvelle fois jugé en appel pour injure publique et diffamation ce mercredi 2 novembre, pour avoir insulté une magistrate dans une vidéo publiée, puis retirée, en avril 2020 sur YouTube. L’humoriste use d’un moyen de défense inattendu en jurant avoir été victime d’un deepfake, en clair d’un trucage numérique. Une explication qui n’avait pas convaincu le tribunal correctionnel, qui l’avait condamné lors d’un premier procès en mars 2021.
Après avoir demandé des expertises techniques, les juges avaient estimé qu’il était impossible, à l’époque, que quelqu’un ait pu confectionner une vidéo truquée aussi longue – 11 minutes – et d’aussi bonne qualité sans disposer d’importants moyens financiers et techniques. Le tribunal s’étonnait également que Dieudonné n’ait pas déposé de plainte pour usurpation d’identité.
En septembre dernier, Dieudonné a d’ailleurs été à nouveau condamné pour injure raciste envers l’écrivaine et actrice Rachel Khan. Une affaire dans laquelle il estimait aussi être victime d’un deepfake. Au-delà de ce cas particulier, le perfectionnement de ces trucages pose un problème épineux pour la justice. Certains escrocs se sont déjà emparés de ces technologies pour se faire passer pour des patrons d’entreprises, enjoignant à des subordonnés de réaliser des virements.
« Il faut s’attendre à ce que les deepfakes soient de plus en plus plausibles. La vidéo, qui était à l’alpha et l’omega de la preuve, ne le sera peut-être plus tant que ça à l’avenir. Le public devra s’habituer à considérer qu’une vidéo ou un son peuvent être truqués au même titre qu’une photo peut être retouchée, estime Vincent Claveau, chercheur au CNRS à l’Institut de recherche en informatique et systèmes aléatoires (Irisa). Pour la première génération de fakes, on voyait rapidement des défauts à l’œil nu, par exemple sur des zones du visage très difficiles à imiter, comme les oreilles ou l’intérieur de la bouche. »
« Cela devient de plus en plus difficile à détecter mesure que les techniques de « deep learning » donc d’intelligence artificielle basée sur l’apprentissage, se perfectionnent et se démocratisent. Aujourd’hui, quelqu’un qui dispose d’une carte graphique de joueur de jeux vidéo peut récupérer des lignes de code et faire des choses très réalistes et très difficiles à repérer » constate ce spécialiste. Vincent Claveau précise d’ailleurs que le terme de deepfake renvoie à des technologies assez différentes, qui peuvent aller de la manipulation des lèvres pour synchroniser leur mouvement avec un discours qu’une personne n’aurait pas prononcé à une vidéo entièrement artificielle.
Pour les démasquer, les experts travaillent à l’élaboration d’outils techniques de détection. « C’est un jeu du chat et de la souris puisque les concepteurs de deepfake s’adaptent aux outils qui sont développés », explique Vincent Claveauqui a travaillé avec la police judiciaire pour concevoir des plateformes dédiées.
« Pour être capable de détecter un deepfake l’idéal est de pouvoir disposer des données qui ont servi à l’apprentissage d’un générateur de deepfake. Grâce à cela, on peut par exemple vérifier si certaines zones d’un visage correspondent au jeu de données d’entraînement. Si on n’a pas ces données, cela devient très difficile », poursuit le spécialiste. La détection est aussi dépendante de la qualité de la vidéo concernée. « Si elle beaucoup circulé sur les réseaux sociaux ou si elle a été beaucoup compressée, c’est très difficile de repérer des anomalies », indique Vincent Claveau.
Le perfectionnement de ces trucages pose donc un problème épineux à la justice, notamment en matière de preuve. « Mais la justice n’est pas démunie », estime l’avocat Charles Simon, spécialiste des enjeux numériques. « En matière de preuve, elle peut avoir recours à une analyse technique, si c’est possible. Les deepfakes peuvent éventuellement être un problème en matière pénale, si la vidéo en question est la seule preuve avancée d’un délit, puisque le doute est censé profiter à l’accusé », relève l’avocat.
« Mais, comme en matière civile, il peut y avoir d’autres éléments pour éclairer le tribunal. Par exemple, si la vidéo concernée a été postée sur le compte de l’accusé, cela voudrait dire qu’il s’est fait pirater, donc qu’il y a peut-être la possibilité d’en retrouver des traces. Les juges regarderaient certainement aussi s’il y a eu un dépôt de plainte pour usurpation d’identité », estime Charles Simon.
Il semble cependant que la législation soit imparfaite à propos de la diffusion de deepfakes pornographiques. Or, ces vidéos représentent pourtant « 96 % des deepfakes », relevait la doctorante en droit Claire Langlais-Fontaine, dans un article publié en 2020 dans la Revue des droits de l’homme. En clair, la pratique consiste à importer le visage d’une personne – très majoritairement une femme et souvent une célébrité – sur le corps d’une actrice pornographique tournant une vidéo, sans que la victime n’en ait donné son consentement.
Selon Claire Langlais-Fontaine, si le droit a évolué pour réprimer le revenge porn, à savoir la diffusion de vidéos intimes sans consentement, « le code pénal ne traite pas de la création d’images ou de paroles, ou de la transformation d’images ou de paroles. Cette inadéquation constitue une limite manifeste à la lutte contre les vidéos et des images hypertruquées par ce biais ». La juriste relevait également que l’identification des auteurs était particulièrement ardue, ce qui pourrait nuire à la répression de ces nouveaux délits qui ont également fait irruption sur le terrain politique.
Source
https://www.marianne.net/societe/police-et-justice/defense-fantaisiste-mais-vrai-probleme-pour-la-justice-au-tribunal-dieudonne-invoque-un-deepfake?fbclid=IwAR2xSc2kR8d8910rHC-TO8okdtiz17XtYDtGnPoJ4BXzQA2nq3hDOIjQw8Q

happywheels

2 Commentaires

  1. JMC dit :

    Pourquoi il ne fait jamais de prison ferme , malgré toutes ses condamnations ?

  2. Franccomtois dit :

    Pourquoi il ne fait jamais de prison ferme , malgré toutes ses condamnations ?Nous pouvons supposer qu´il a de trés bonne protection,sûrement á partir du Cameroun et la France aime bien le Cameroun pour ses ressources!Bon maintenant le soral et ce genre de saloperies ne sont pas plus emmerdés,donc j´imagine qu´en France leurs idées de merde complaisent en haut lieu!Peut-être connaissent-ils les vices de bien des personnes occupant des postes en haut-lieu,qui sait?

Publier un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *