Deepfakes, nouvelle arme de désinformation massive

Certaines vidéos peuvent être trafiquées via les deepfakes. Ces nouveaux contenus, de plus en plus réalistes, peuvent propager de fausses informations.

Le «deepfake», futur cauchemar des politiciens

14/10/19 – Une fausse vidéo met en scène Trump massacrant ses opposants et les médias dans une église. Un pas de plus dans la sophistication des fake news, nouvelle arme de désinformation politique.

#deepfake , le futur cauchemar des politiciens ?!⚠️ Une nouvelle fausse vidéo, "deepfake", met en scène Trump…

Pubblicato da Lanceur d'alerte. su Lunedì 14 ottobre 2019

Et si une fausse vidéo devenait finalement une réalité? C’est ce qu’espère Solidarité Sida, qui a publié ce dimanche 6 octobre un “deepfake” (fausse vidéo) de Donald Trump annonçant la fin de la maladie. Une intox pour inciter les chefs d’Etats à rendre les traitements accessibles à tous. En 48h, elle a été vue 3 millions de fois.

Le “deepfake” de Donald Trump déjà vu 3 millions de fois

L’actu

« J’ai une grande nouvelle. Aujourd’hui, nous avons éradiqué le sida ». Ces mots sortent de la bouche de Donald Trump, dans une vidéo postée dimanche sur les réseaux sociaux. Encore une bourde ou un effet de manche du Président américain ? Non, cette fois-ci, Donald Trump n’y est pour rien. Cette vidéo est une deepfake, comprendre un montage où, grâce aux nouvelles technologies, on fait bouger la bouche de l’hôte de la maison blanche lui prêtant des mots qu’il n’a jamais prononcé. Une fausse vidéo hyperréaliste, mais pour la bonne cause, clame Solidarité Sida, à l’origine de cette supercherie.

Les deepfakes, comment ça marche?

Le décryptage

Deepfake vient de la contraction de deux mots. Deep pour deep learning, l’intelligence artificielle capable d’apprendre par elle-même, et fake pour faux. « Jusqu’à présent, la vidéo était peut-être encore quelque chose qu’on pouvait croire. On se disait que c’était compliqué à modifier. Maintenant, ce sera encore un média auquel on ne pourra plus faire confiance« , analyse Ewa Kijak, maître de conférences à l’Université de Rennes-1 et chercheuse au laboratoire IRISA. Il existe plusieurs techniques, comme le faceswap, pour trafiquer les vidéos.

Deepfake videos ‘double in nine months’

La tendance

New research shows an alarming surge in the creation of so-called deepfake videos, with the number online almost doubling in the last nine months. There is also evidence that production of these videos is becoming a lucrative business. The term deepfake was first coined in a Reddit post in 2017, and this report explains that in just two years a whole industry has emerged to profit from this phenomenon.  Lire l’article de la BBC

Deepfake videos are a far, far bigger problem for women

L’enjeu

Women were the subject of virtually all of the deepfake pornography videos found by the researchers. Particularly worrisome is that 96% of the videos found were identified as “non-consensual” pornography. American and British actresses, as well as South Korean K-Pop musicians, were a common subject of the videos. Researchers were particularly surprised by the high number of K-pop singers, which made up a quarter of the pornography videos they found. “We had seen they were frequently targeted but didn’t expect the massive volume of videos and view count that these videos attracted,” Henry Ajder, head of communications and research analysis at Deeptrace, told Quartz over email. Lire l’article de Quartz

California makes ‘deepfake’ videos illegal, but law may be hard to enforce

La riposte

California made it illegal to create or distribute “deepfakes” in a move meant to protect voters from misinformation but may be difficult to enforce. California’s governor, Gavin Newsom, on Thursday signed legislation that makes it illegal to create or distribute videos, images, or audio of politicians doctored to resemble real footage within 60 days of an election. Lire l’article du Guardian

Google publie un dataset pour entraîner les IA à détecter les Deepfakes

La riposte, bis

Pour lutter contre les deepfakes, Google vient de publier un vaste ensemble de données constitué de vidéos Deepfake. L’objectif ? Apporter du soutien aux chercheurs qui développent des outils de détection contre ces contenus frelatés. Les intéressés pourront utiliser cet ensemble de données pour entraîner des outils de détection automatisés reposant sur l’IA. Ainsi, les outils en question pourront gagner en précision et en efficacité. Lire l’article de LeBigData

Jordan Peele est réalisateur et comédien. Il a crée une vidéo en partenariat avec Buzzfeed où l’on peut apercevoir un deepfake de Barack Obama en train d’insulter Donald Trump. Son objectif est de mettre en garde les internautes contre les deepfakes, des vidéos trafiquées par l’intelligence artificielle. “Pour aller de l’avant, il faut être plus vigilant sur les contenus d’internet en lesquels nous avons confiance“, précise le comédien, qui s’est glissé dans la peau d’un deepfake de Barack Obama. 

Plusieurs stratagèmes pour modifier une vidéo

Deepfake vient de la contraction de deux mots. Deep pour deep learning, l’intelligence artificielle capable d’apprendre par elle-même, et fake pour faux. “Jusqu’à présent, la vidéo était peut-être encore quelque chose qu’on pouvait croire. On se disait que c’était compliqué à modifier. Maintenant, ce sera encore un média auquel on ne pourra plus faire confiance“, analyse Ewa Kijak, maître de conférences à l’Université de Rennes-1 et chercheuse au laboratoire IRISA. Il existe plusieurs techniques, comme le faceswap, pour trafiquer les vidéos. 

Complément d’enquête

La menace du deepfake

Le « deeplearning » est une méthode informatique qui permet de réaliser des « deepfakes » : des fausses vidéos qui mettent en scène des personnalités. L’équipe de Complément d’enquête a rencontré un spécialiste de l’image et doctorant en robotique qui sait comment créer un deepfake. En se munissant d’un téléchargement d’une allocution télévisée du président de la République, Emmanuel Macron, et d’un discours écrit par le présentateur de l’émission, Jacques Cardoze, le doctorant en robotique va créer un deepfake. –  France 2

L’acteur Jim Meskimen réalise d’incroyables deepfakes

Par Valentin Cimino. – Twitter@ciminix. – 14 octobre 2019

L’artiste Sham00k et l’acteur Jim Meskimen se sont associés dans le but de révéler au grand public à quel point les deepfakes pouvaient être dangereuses

Les deux hommes ont utilisé cette technique d’intelligence artificielle qui consiste à superposer des images et des vidéos existantes sur d’autres images et/ou vidéos pour faire dire ce qu’on veut à n’importe qui. Ils ont imité 20 célébrités de façon extrêmement convaincante.

20 célébrités ont été imitées à la perfection

Ensemble, ils ont réussi à rendre ces vidéos parfaitement réalistes. Leurs résultats ont été partagés dans une vidéo publiée par la suite sur YouTube. Jim Meskimen s’est chargé d’imiter les voix des célébrités choisies. En parallèle, le logiciel d’intelligence artificielle reproduisait à la perfection les traits du visage des 20 célébrités. Parmi ces dernières, nous retrouvons notamment : George Clooney, Nicholas Cage, Colin Firth, Robert De Niro, Nick Offerman, Arnold Schwartzenegger, Robin Williams ou encore George W. Bush.

Dans cette vidéo, Jim Meskimen montre les capacités qu’offre un logiciel d’intelligence artificielle pour créer des deepfakes. Son but est évidement de prouver à tous les dangers de cette technologie. Des heures et des heures de travail ont été nécessaires pour arriver à un tel résultat, mais les deux hommes y tenaient. 

Plus précisément, ce sont 250 heures de travail qui ont été nécessaires pour effectuer cette vidéos. Les deux hommes précisent qu’ils ont dû analyser 1 200 heures de vidéo et 300 000 images. Ils ont finalement créé près d’un To (téraoctet) de données.

Dans cette vidéo, l’artiste Sham00k a voulu expliquer comment ils étaient arrivés à de tels résultats en détaillant les techniques utilisées :

Les législateurs américains s’emparent du sujet

En Californie, les autorités légifèrent actuellement sur les deepfakes politiques et pornographiques. En effet, le gouverneur démocrate de Californie, Gavin Newson, a ratifié le 3 octobre deux lois contre les deepfakes

Concrètement, la première loi consiste à rendre illégal la distribution d’une vidéo « manipulée » dans le but de discréditer un candidat dans les 60 jours qui précèdent une élection. La seconde loi vise à encadrer l’usage de cette technique dans la pornographie. Tout Californien dont l’image est utilisée à ses dépens dans une vidéo pornographique grâce au deepfake pourra poursuivre le responsable.

Il reste bon de préciser que pour l’instant, les deepfakes sont majoritairement utilisés pour créer des contenus pornographiques. Seules 4% des vidéos publiées le sont dans un cadre politique, et bien souvent humoristique. 

« Deepfake » : La pornographie et la politique, les sujets de prédilection des vidéos truquées

La pornographie et la politique constituent les sujets les plus traités dans les « deepfakes », ces vidéos truquées hyperréalistes qui prolifèrent sur le Web. C’est le résultat d’une étude menée par l’entreprise spécialisée dans la cybersécurité Deeptrace et publiée ce jeudi 10 octobre.

L’immense majorité des « deepfakes » (96 %) reste consacrée à la « pornographie non consensuelle », qui met en scène des femmes souvent célèbres dans des vidéos truquées grâce à l’intelligence artificielle (IA). L’étude a repéré quelque 15.000 vidéos de ce genre au cours des sept derniers mois.

« Deepfake » & La pornographie

La pornographie et la politique constituent les sujets les plus traités dans les « deepfakes », ces vidéos truquées hyperréalistes qui prolifèrent sur le Web. C’est le résultat d’une étude menée par l’entreprise spécialisée dans la cybersécurité Deeptrace et publiée ce jeudi.

L’immense majorité des « deepfakes » (96 %) reste consacrée à la « pornographie non consensuelle », qui met en scène des femmes souvent célèbres dans des vidéos truquées grâce à l’intelligence artificielle (IA). L’étude a repéré quelque 15.000 vidéos de ce genre au cours des sept derniers mois.

Quatre sites « spécialisés » ont été visités plus de 100 millions de fois sur la même période. Cela « démontre l’existence d’un marché pour les websites hébergeant des deepfakes pornographiques », selon Giorgio Patrini, PDG de Deeptrace. Pour lui, cette tendance « va s’accentuer à moins que des mesures décisives ne soient prises ».