Créer un hypertrucage convaincant n’a jamais été aussi aisé. Grâce à ce nouvel algorithme ultraperformant, il est désormais possible de faire dire au sujet d’une vidéo absolument tout ce qui est inscrit dans le script de la séquence. Explications.

Truquer une vidéo n’a jamais été aussi simple

Les deepfakes ou hypertrucages ne cessent de défrayer la chronique. Profitant des récentes avancées en matière d’intelligence artificielle, ceux-ci permettent notamment la création de séquences audio ou vidéo confondantes, dans lesquelles le sujet prononce des paroles ou effectue des actions qu’il n’a jamais dites ou faites. Récemment, une équipe de chercheurs américains a dévoilé un algorithme ultra-convaincant qui simplifie largement ce processus de création. Leurs travaux ont été présentés sur le site de l’un des scientifiques y ayant participé.

Mise au point par des scientifiques des universités de Stanford et de Princeton, ainsi que des chercheurs du Max Planck Institute et d’Adobe, l’IA va analyser la vidéo source d’une personne en train de s’exprimer, et identifier chaque unité sonore, ou phonème, qu’elle prononce, ainsi que ses mouvements buccaux et faciaux. La langue anglaise recense une quarantaine de phonèmes, et une vidéo de 40 minutes serait suffisante pour que l’IA récolte toutes les données nécessaires à la création d’un deepfake confondant.

La démocratisation de tels algorithmes inquiète les chercheurs

Un fois cette étape effectuée, l’utilisateur n’aura plus qu’à éditer la transcription de la vidéo, et l’intelligence artificielle se chargera de générer une séquence vidéo particulièrement convaincante, correspondant à la réécriture de la transcription, en assemblant de façon quasi-indétectable les sons et mouvements buccaux nécessaires. Dans la vidéo ci-dessous, on peut notamment voir le sujet prononcer les mots « French toast » à la place de « napalm », dans une citation tirée du film Apocalypse Now.

Les chercheurs estiment que de tels algorithmes pourraient poser problème s’ils venaient à tomber entre de mauvaises mains. Selon eux, ces technologies pourraient être utilisées pour « falsifier des déclarations personnelles et calomnier des personnalités éminentes », et un débat public parait indispensable « afin de créer un ensemble de lois et de règlements appropriés qui permettraient d’équilibrer les risques liés au mauvais usage de ces outils avec l’importance des cas créatifs et consensuels ».

COMMENTEZ

Inscrivez-vous ou connectez-vous pour commenter
avatar
  S’abonner  
Notifier de