Avec l'apprentissage automatique, vous pouvez enfin faire dire aux politiciens ce que vous voulez qu'ils

Quiconque a regardé un débat politique a probablement souhaité pouvoir influencer les mots sortant de la bouche d'un candidat. Maintenant, l'apprentissage automatique rend cela possible - au moins dans une certaine mesure.

Des chercheurs de l'Université de Washington ont trouvé un moyen de créer des personnages numériques 3D entièrement interactifs à partir d'albums photos et de vidéos de personnages célèbres tels que Tom Hanks, Barrack Obama, Hillary Clinton et George W. Bush. Équipés de ces modèles 3D, ils pourraient alors leur imposer la voix, les expressions et les sentiments d'une autre personne, rendant essentiellement les modèles comme des marionnettes numériques 3D.

"Imaginez pouvoir avoir une conversation avec quelqu'un que vous ne pouvez pas rencontrer en personne - LeBron James, Barack Obama, Charlie Chaplin - et interagir avec eux", a déclaré Steve Seitz, professeur UW d'informatique et d'ingénierie..

Pour construire de tels personnages, l'équipe a utilisé des algorithmes d'apprentissage automatique pour extraire environ 200 images Internet prises au fil du temps d'une personne particulière dans divers scénarios et poses. Ils ont ensuite développé des techniques pour capturer des textures dépendantes de l'expression - de petites différences qui se produisent lorsqu'une personne sourit ou semble perplexe ou bouge sa bouche, par exemple.

En manipulant les conditions d'éclairage à travers différentes photographies, ils ont développé une nouvelle approche pour cartographier de manière dense les différences entre les caractéristiques et les expressions d'une personne sur le visage d'une autre personne, permettant de «contrôler» le modèle numérique avec une vidéo d'une autre personne.

La vidéo ci-dessous explique plus sur la recherche. 

"Comment mappez-vous la performance d'une personne sur le visage de quelqu'un d'autre sans perdre son identité?" dit Seitz. «C'est l'un des aspects les plus intéressants de ce travail. Nous avons montré que vous pouvez avoir les expressions, la bouche et les mouvements de George Bush, mais cela ressemble toujours à George Clooney. »

La technologie repose sur les progrès de la reconstruction, du suivi, de l'alignement, de la modélisation multi-textures et du marionnettage 3D du visage qui ont été développés au cours des cinq dernières années par un groupe de recherche dirigé par le professeur adjoint UW d'informatique et d'ingénierie Ira Kemelmacher-Shlizerman. Les résultats seront présentés la semaine prochaine dans un document à la Conférence internationale sur la vision par ordinateur au Chili.

La recherche a été financée par Samsung, Google, Intel et l'Université de Washington.

Rejoignez les communautés Network World sur Facebook et LinkedIn pour commenter des sujets qui vous tiennent à cœur.