Egalité et Réconciliation
https://www.egaliteetreconciliation.fr/
 

Défense fantaisiste mais vrai problème pour la justice  : au tribunal, Dieudonné invoque un "deepfake"

C’est son visage sur la vidéo, mais ce n’est pas lui, assure-t-il. Dieudonné, condamné à de multiples reprises pour des propos racistes, est une nouvelle fois jugé en appel pour injure publique et diffamation ce mercredi 2 novembre, pour avoir insulté une magistrate dans une vidéo publiée, puis retirée, en avril 2020 sur YouTube. L’humoriste use d’un moyen de défense inattendu en jurant avoir été victime d’un deepfake, en clair d’un trucage numérique. Une explication qui n’avait pas convaincu le tribunal correctionnel, qui l’avait condamné lors d’un premier procès en mars 2021.

 

Après avoir demandé des expertises techniques, les juges avaient estimé qu’il était impossible, à l’époque, que quelqu’un ait pu confectionner une vidéo truquée aussi longue – 11 minutes – et d’aussi bonne qualité sans disposer d’importants moyens financiers et techniques. Le tribunal s’étonnait également que Dieudonné n’ait pas déposé de plainte pour usurpation d’identité.

En septembre dernier, Dieudonné a d’ailleurs été à nouveau condamné pour injure raciste envers l’écrivaine et actrice Rachel Khan. Une affaire dans laquelle il estimait aussi être victime d’un deepfake. Au-delà de ce cas particulier, le perfectionnement de ces trucages pose un problème épineux pour la justice. Certains escrocs se sont déjà emparés de ces technologies pour se faire passer pour des patrons d’entreprises, enjoignant à des subordonnés de réaliser des virements.

 

Un deepfake parfait ?

« Il faut s’attendre à ce que les deepfakes soient de plus en plus plausibles. La vidéo, qui était à l’alpha et l’omega de la preuve, ne le sera peut-être plus tant que ça à l’avenir. Le public devra s’habituer à considérer qu’une vidéo ou un son peuvent être truqués au même titre qu’une photo peut être retouchée », estime Vincent Claveau, chercheur au CNRS à l’Institut de recherche en informatique et systèmes aléatoires (Irisa). « Pour la première génération de fakes, on voyait rapidement des défauts à l’œil nu, par exemple sur des zones du visage très difficiles à imiter, comme les oreilles ou l’intérieur de la bouche ».

« Cela devient de plus en plus difficile à détecter mesure que les techniques de "deep learning donc d’intelligence artificielle basée sur l’apprentissage, se perfectionnent et se démocratisent. Aujourd’hui, quelqu’un qui dispose d’une carte graphique de joueur de jeux vidéo peut récupérer des lignes de code et faire des choses très réalistes et très difficiles à repérer » constate ce spécialiste.

[...]

Comment les détecter ?

Pour les démasquer, les experts travaillent à l’élaboration d’outils techniques de détection. « C’est un jeu du chat et de la souris puisque les concepteurs de deepfake s’adaptent aux outils qui sont développés », explique Vincent Claveauqui a travaillé avec la police judiciaire pour concevoir des plateformes dédiées.

[...]

Une vidéo est-elle toujours une preuve ?

Le perfectionnement de ces trucages pose donc un problème épineux à la justice, notamment en matière de preuve. « Mais la justice n’est pas démunie », estime l’avocat Charles Simon, spécialiste des enjeux numériques.

« En matière de preuve, elle peut avoir recours à une analyse technique, si c’est possible. Les deepfakes peuvent éventuellement être un problème en matière pénale, si la vidéo en question est la seule preuve avancée d’un délit, puisque le doute est censé profiter à l’accusé », relève l’avocat.
« Mais, comme en matière civile, il peut y avoir d’autres éléments pour éclairer le tribunal. Par exemple, si la vidéo concernée a été postée sur le compte de l’accusé, cela voudrait dire qu’il s’est fait pirater, donc qu’il y a peut-être la possibilité d’en retrouver des traces. Les juges regarderaient certainement aussi s’il y a eu un dépôt de plainte pour usurpation d’identité », estime Charles Simon.

Lire l’article entier sur marianne.net

Comme prévu, sur E&R :

 






Alerter

18 Commentaires

AVERTISSEMENT !

Eu égard au climat délétère actuel, nous ne validerons plus aucun commentaire ne respectant pas de manière stricte la charte E&R :

- Aucun message à caractère raciste ou contrevenant à la loi
- Aucun appel à la violence ou à la haine, ni d'insultes
- Commentaire rédigé en bon français et sans fautes d'orthographe

Quoi qu'il advienne, les modérateurs n'auront en aucune manière à justifier leurs décisions.

Tous les commentaires appartiennent à leurs auteurs respectifs et ne sauraient engager la responsabilité de l'association Egalité & Réconciliation ou ses représentants.

Suivre les commentaires sur cet article

Afficher les commentaires précédents
Afficher les commentaires précédents