Le terme deepfake est un mot-valise né officiellement en 2017 sur le site Reddit. Il fait référence à la fois à la technologie utilisée, le “deep learning”, et à ce qu’il produit, un faux.
Le deepfake se présente le plus souvent sous la forme d’une vidéo mais peut aussi prendre la forme d’un audio modifié de façon à ce que son contenu soit vraisemblable aux yeux des spectateurs. C’est le GAN (Generative Adverarial Networks), un réseau de neurones développé en 2014 par Ian Goodfellow, qui est à la base de tous les algorithmes deepfakes. Il est constitué de deux algorithmes qui s'entraînent dans des objectifs opposés et s’améliorent mutuellement. Le premier a pour but de fabriquer un faux, tandis que le second a pour objectif de détecter la contrefaçon.
Les utilisateurs des algorithmes de deepfakes ont le plus souvent recours à “l’identity swap”, ou “échange d’identité”, l’exemple récent le plus marquant étant le fameux deepfake de Tom Cruise.
Si cette vidéo a fait le buzz, ce n’est pas la seule de ce type. Le nombre estimé de deepfakes a doublé entre 2018 et 2019. Parmi eux, 96 % étaient à caractère pornographique et prenaient pour cible des femmes. La technologie s’est démocratisée et il est devenu facile de produire un faux. Dès lors, les dangers sont nombreux : manipulation, désinformation, humiliation, diffamation ou encore harcèlement.
Avec l’explosion des fake news, les deepfakes posent de vraies questions. Si les réseaux sociaux, terreau fertile pour l’expression de cette technologie, peinent à réguler la propagation des fake news, comment vont-ils juguler l’utilisation des deepfakes ?
Facebook a pris les devants en 2019 en proposant une compétition récompensant le meilleur algorithme de détection des deepfakes. Le vainqueur a obtenu, à l’époque, un taux de réussite de 83%. Depuis, d'autres experts se sont penchés sur la question, dont des chercheurs de l’Université d'État de New York qui ont réussi à atteindre une précision de 94%. Pour cela, ils se sont intéressés aux reflets lumineux sur les deux yeux. Nous n’avons pas conscience de ces reflets en regardant en vidéo, mais ceux-ci peuvent être analysés par un algorithme. Dans une vidéo non truquée, les deux yeux ont des reflets presque identiques, tandis que dans une vidéo truquée, on observe des différences significatives de formes et d’angles.
Il ne fait aucun doute que les algorithmes responsables des deepfakes vont évoluer pour proposer du contenu toujours plus vraisemblable et qui effacera les imperfections des reflets cornéens. Il incombe donc aux entreprises de la Tech d’innover afin de proposer de nouvelles solutions d’identification de faux contenus.
Si la technologie deepfake présente sans conteste des dangers, ne pourrait-elle pas également apporter quelque chose de positif ? La réponse est oui, et des applications existent déjà dans différents domaines :
Les réseaux neuronaux de type GAN sur lesquels se basent les deepfakes recèlent des dangers, comme toute nouvelle technologie, mais apportent également leur lot d’éléments positifs. L’avenir et l’utilisation de cette technologie reposent prioritairement entre les mains des entreprises du digital ; à elles, désormais, d’exploiter et de maîtriser ces nouveaux outils. Alors PALO IT, prêt à relever le défi ?
Vous souhaitez aller plus loin et en discuter ? Contactez-nous.