Les deepfakes :
Le nouveau fléau d’Internet ?
Les deepfakes : Le nouveau fléau d'Internet ?
De plus en plus d’internautes sont victimes de deepfakes sur Internet. Ces fichiers audios ou vidéos modifiés grâce à l’intelligence artificielle, peuvent nuire à des individus. Comment les décrypter ? Quels en sont les dangers ?
Que feriez-vous si votre visage se retrouvait sans votre consentement sur une vidéo pornographique à laquelle vous n’avez pas participé ? C’est ce qui est arrivé, entre autres, à l’actrice Gal Gadot en 2017. Ces scènes truquées, diffusées sur le forum Reddit, ont popularisé le terme de deepfake ou hypertrucage. Les médias généralistes s’en sont alarmés à partir de 2018.
Les deepfakes sont des vidéos et des audios modifiés avec l’intelligence artificielle (IA) dans le but de faire rire ou de nuire. Ils sont difficiles à réaliser. Mais il existe aussi des trucages moins élaborés, réalisés sans IA, que l’on appelle shallowfake ou cheapfake (« fake pas cher »). C’est un fake conçu avec un logiciel de montage, une technique accessible à tous (phrase coupée, image ralentie ou accélérée…).
Face à la montée de ces phénomènes encore méconnus du grand public, dans un contexte où le numérique a envahi notre quotidien, la lutte contre la désinformation est de plus en plus nécessaire. Cela nécessiterait une réelle éducation de la population.
« Pendant des milliers d’années, on ne croyait que ce que l’on voyait. Les deepfakes ont produit une rupture fondamentale : aujourd’hui, ces technologies permettent de voir quelque chose qui n’est pas vrai »
Christophe Tisseyre
© Mouvement UP
Christophe Tisseyre est journaliste et membre actif de l’association Fake Off ! qui lutte contre la désinformation. Il nous donne son point de vue sur les dangers des deepfakes.
« La dangerosité des deepfakes repose sur les biais cognitifs, c’est-à-dire notre tendance naturelle à prêter plus attention à ce qui conforte notre manière de penser plutôt qu’à ce qui la remet en cause (les biais cognitifs induisent des erreurs de jugement ou de raisonnement, ndlr). Face à ces informations erronées, les populations les moins informées sont les plus à risque. Le manque d’éducation est donc le plus gros problème. Par ailleurs, certaines personnes publiques pourraient tirer profit des deepfakes : elles pourraient se dédouaner de paroles qu’elles ont pu porter en indiquant que ce serait un deepfake. Il serait alors difficile de prouver que l’enregistrement de cette personne publique est vrai. Mais selon les spécialistes, il ne faut pas surestimer le danger : avec un peu de bon sens et quelques outils, nous pouvons démanteler les deepfakes. »
© Zeit Online
Dans une vidéo du « New York Times », la fact-checker Claire Wardle (à droite) se transforme en la chanteuse britannique Adele (à gauche).
4 conseils pour déceler les deepfakes
Difficile de déceler un deepfake ! Si les spécialistes analysent les métadonnées des images, tout citoyen peut suivre ces quelques conseils
Prendre du recul sur ses émotions, émettre un doute face à sa première réaction et prendre en compte les biais cognitifs
Vérifier l’existence des images en les important sur Google Images. Utiliser l’onglet « Outils » qui permet de chercher une période de publication
Se référer à des cellules de fact-checking (vérification des faits) comme Les Décodeurs (Le Monde) ou Désintox (Arte)
Vérifier l’information avec diverses sources fiables, comme des journaux « officiels » tels que Le Monde et Libération, ou encore des comptes vérifiés sur les réseaux sociaux
Zoé PILLORGER & Laurine AGARD
Pour en apprendre plus sur les actualités :
Retrouvez nos articles sur les Présidentielles sur Twitch, le vote numérique ainsi que l’archivage ADN.

