Avec l’internet et les réseaux sociaux, notre lexique s’enrichit perpétuellement de nouveaux mots, de nouvelles expressions et surtout de nouveaux anglicismes. Aujourd’hui, je m’en vais vous entretenir de deepfake, cette autre abomination qui écume les réseaux sociaux et flétrit l’e-réputation des célébrités.
Avec le deepfake, on est en plein dans « la manipulation des images et l’usurpation d’identité vidéo ». Sommairement, le deepfake est une technique qui vise à remplacer le visage d’une personne par celui d’une autre dans une vidéo. C’est un trucage, comme seuls savent le faire les génies de la technologie, avec des outils devenus populaires et malheureusement accessibles à tous.
Vous imaginez bien que, à l’origine, cette technique de substitution a pu paraître magique et même très amusante (cas de deepfakes humoristiques). Mais, très vite, elle a été détournée de cette dimension ludique pour en faire un usage criminel – n’ayons pas peur des mots – dans la mesure où d’honnêtes citoyens se retrouvent dans le rôle peu glorieux de vulgaires acteurs de film X. Dans n’importe quel milieu où l’éducation aux médias est absente, les dégâts causés par les deepfakes sont gravissimes et, dans certains cas, quasi irréversibles.
La démarche à suivre, selon Clement Jost du site archimag.com, est complexe mais simple surtout avec l’avènement de nombreux outils de traitement de vidéo. « Il faut d’abord faire analyser par le programme d’intelligence artificielle une séquence vidéo, image par image. Pour remplacer le visage d’un protagoniste par un autre, il faut ensuite fournir au programme environ un millier d’images de la personne que l’on veut intégrer dans le film. C’est toute cette matière ingurgitée qui lui permettra ensuite d’intégrer les traits du nouveau protagoniste tout en conservant les expressions du visage du film original ».
Mais le spécialiste avertit les apprentis sorciers qui veulent se lancer dans cette aventure excitante que le processus peut prendre plusieurs heures, même pour une petite séquence. Si vous souffrez d’hémorroïdes et de lombalgie et que, en plus, vous ne supportez pas les écrans pendant de longues sessions, alors mieux vaudra pour vous ne pas essayer d’inscrire votre nom au palmarès de producteurs de deepfakes.
Quoiqu’on puisse dire ou écrire sur le deepfake, il faut admettre que la technologie a un côté très attrayant. Archimag évoque une expérience réussie par les scientifiques de l’Université de Washington dont les résultats, connus sous le titre Synthetisizing Obama, ont été publiés il y’a plus d’un an dans de prestigieuses revues scientifiques. « Grâce à de nombreuses heures de séquences vidéo de l’ancien président des Etats-Unis, ces chercheurs ont réussi à constituer un réseau neuronal récurrent ayant appris toute les mimiques et formes possibles que prend la bouche du président américain lorsqu’il parle, et ainsi à créer des mouvements pouvant correspondre à n’importe quelle piste audio. Le résultat est saisissant, puisque ces chercheurs peuvent désormais lui faire tenir des propos qu’il n’avait jamais prononcés ».
« Ahurissant » devrait être le qualificatif de ce résultat puisque la démonstration est faite qu’on peut, par simple manipulation, faire dire à une personnalité ce qu’elle n’à jamais dit. Et d’ailleurs cela s’est avéré exact quelques mois plus tard puisque « le programme Face2Face réussissait à faire bouger et parler, en temps réel et à l’aide d’une webcam, Georges W. Bush, Vladimir Poutine ou encore Arnold Schwarzenegger ».
Même les chantres de la liberté que sont Reddit, Twitter, Pornhub…, ont pris la mesure du phénomène et décidé de combattre les deepfakes porno.Pour conclure, Archimag soutient que « les applications possibles du deepfake sont tellement multiples et dangereuses qu’elles pourraient avoir de graves conséquences sur l’e-reputation des personnes et des entreprises et bien sûr à un niveau politique : intégration dans une vidéo compromettante, modification des propos tenus dans une vidéo, chantage à la diffusion ou encore de graves menaces à la cybersécurité (ex: usurpation d’identité dans le cadre de la reconnaissance faciale) »
Vous êtes avertis ! Si l’on vous annonce que vous êtes protagoniste dans une séquence porno sur quelque plateforme, c’est que le deepfake est passé par là.
Du pain supplémentaire en perspective sur la planche de ceux qui ont la redoutable tâche de défendre notre identité numérique !
Serge de MERIDIO