Cette Mona Lisa animée est générée par une intelligence artificielle. Et c’est plutôt perturbant !


Personnellement, je ne vois pas l’intérêt du moins pour le moment. Mona Lisa, Albert Einstein et autres, pourquoi ? Publicité ? Je crains que cela ne ferait qu’augmenter les deepfakes comme on a vu avec l’ancien président Barack Obama avec un faux discours.
Nuage


Cette Mona Lisa animée est générée par une intelligence artificielle. Et c’est plutôt perturbant !

mona lisa visage simule samsung ai

Un nouveau type d’intelligence artificielle peut générer un portrait animé à partir d’une seule image source. | Egor Zakharov

Jonathan Paiano

Depuis la publication sur YouTube d’une vidéo présentant une nouvelle intelligence artificielle capable de simuler et de prédire l’apparence d’un visage à partir d’une seule (ou plusieurs) image(s) source(s), l’exemple d’une Mona Lisa dont le visage et la tête sont entièrement animés par le système a rapidement fait le tour du web.

C’est sur l’exemple du joli sourire célèbre et quelque peu mystérieux de la peinture Mona Lisa que ce travail de recherche, effectué sous la supervision d’Egor Zakharov, ingénieur à l’Institut des sciences et de la technologie de Skolkovo et au Samsung AI Center (tous deux situés à Moscou, en Russie), s’est principalement fait connaître ces derniers jours.

Aujourd’hui, une nouvelle gamme d’expressions viennent se greffer à ce visage que vous connaissez toutes et tous, grâce à l’intelligence artificielle.

Dans la publication YouTube originale (publiée le 21 mai), trois clips vidéo montrent des exemples (perturbants) de Mona Lisa bougeant les lèvres et tournant la tête dans plusieurs directions. Elle a été créée par un réseau de neurones convolutionnels : un type d’IA qui traite des informations de la même manière que le cerveau humain, ici dans le but d’analyser et traiter des images.

Zakharov et ses collègues ont mis au point l’algorithme pour comprendre les formes générales des traits des visages humains et leurs comportements les uns par rapport aux autres, puis pour appliquer ces informations à des images fixes. Cela leur a permis d’obtenir une série de séquences vidéos réalistes montrant de nouvelles expressions faciales générées à partir d’une seule image.

Dans le cas des vidéos montrant Mona Lisa, l’IA a “appris” le mouvement du visage à partir de jeux de données de trois sujets humains, produisant trois animations très différentes. Alors que chacun des trois extraits d’apprentissage était encore reconnaissable en tant que Mona Lisa, Zakharov a donné des “personnalités” distinctes aux portraits vivants, comme vous pouvez le voir ci-dessous.

mona lisa animee creee par IA

Crédits : Egor Zakharov

L’équipe de recherche a également créé des animations à partir de photos d’icônes culturelles du XXe siècle, telles qu’Albert Einstein, Marilyn Monroe et Salvador Dali. Les résultats de l’étude ont été publiés la semaine dernière sur le serveur de préimpression arXiv, dans l’attente d’une évaluation par les pairs.

De plus, selon l’étude, ce système de “vision humaine” est très efficace pour identifier des erreurs, même mineures, dans des visages ou têtes humaines modélisées en 3D. Voir quelque chose ayant l’air humain, sans pour autant vraiment l’être, déclenche une sensation de malaise profond connue sous le nom “d’effet de vallée dérangeante“.

Comme vous pouvez bien vous en douter, produire des vidéos originales comme celles-ci, connues sous le nom de deepfakes, n’est pas une chose facile. Les têtes humaines étant géométriquement complexes et hautement dynamiques.

Les modèles 3D générés comportent “des dizaines de millions de paramètres”, ont écrit les auteurs de l’étude.

source et visages generees ia

Des visages familiers de célébrités prennent des expressions entièrement générées par ordinateur. Crédits : E. Zakharov et al.

L’intelligence artificielle a déjà démontré qu’il était possible de produire des deepfakes convaincants, mais elle nécessitait de multiples angles du sujet souhaité. Dans le cadre de cette nouvelle étude, les ingénieurs ont introduit l’intelligence artificielle dans un très grand ensemble de données de vidéos de référence montrant des visages humains en action. Ainsi, elle a pu apprendre d’elle-même, en créant sa propre interprétation de ce qu’est un visage humain et son comportement en mouvement.

Ensuite, ils ont formé l’IA à utiliser les expressions de référence pour cartographier le mouvement des entités de l’image source. Cela a permis au système de créer une simulation cohérente même si elle ne disposait que d’une seule image de base.

Et ce n’est pas tout : les chercheurs expliquent également que dans le cadre d’une session d’étude distincte impliquant l’utilisation de 32 images sources au lieu d’une seule, les simulations obtenues frôlaient la perfection.

Une technologie qui fait presque peur dites-vous ? On vous comprend. En effet, imaginez-vous que quiconque en possession d’une telle IA ainsi que de quelques photos de vous (et cela est très facile avec les réseaux sociaux), pourrait générer des séquences animées ultra-réalistes avec votre propre visage. Étant donné que les algorithmes d’imitation de la voix ne sont pas nouveaux, un mélange des deux technologies promettrait de produire des exemples (d’usurpation d’identité ?) sans égal, et avec une facilité déconcertante.

Sources : arXiv, YouTube (Egor Zakharov)

https://trustmyscience.com/

Les vidéos truquées, bientôt des armes de désinformation massive?


Une technologie qui nécessite quelques ajustements, malheureusement, il y a des risques que la désinformation sera de plus en plus efficace. N’importe quoi pourrait prendre une personne connue et lui faire dire n’importe quoi ou montrer des images qui n’ont pas eu lieu tout cela sur vidéo
Nuage

 

Les vidéos truquées, bientôt des armes de désinformation massive?

 

 

PHOTO AP

Cette image prise d’une fausse vidéo du président Barack Obama montre des éléments de cartographie faciale utilisée par de la nouvelle technologie qui permet à n’importe qui de créer des vidéos avec de vraies personnes semblant dire des choses qu’ils n’ont jamais dites.

Ce sénateur a-t-il vraiment fait cette déclaration? Est-ce réellement le président Donald Trump dans cette vidéo, ou est-ce que je me fais berner?

Avec de nouveaux outils technologiques, il est maintenant possible de produire une vidéo où quelqu’un semble dire des choses qui ne sont pourtant jamais sorties de sa bouche.

Au Congrès des États-Unis, républicains comme démocrates craignent que cette technologie se convertisse en arme dans le cadre de guerres de désinformation contre les démocraties occidentales.

Il n’est pas question de vidéos où l’on synchronise approximativement le mouvement des lèvres d’une personne à une trame sonore. Cette technologie a plutôt recours à la reconnaissance faciale et à l’intelligence artificielle pour produire des images qui semblent si réalistes qu’il est difficile de distinguer le vrai du faux.

Les législateurs et les autorités en matière de renseignement appréhendent le moment où ces vidéos truquées — nommées «deepfakes» — seront employées pour menacer la sécurité nationale ou pour s’ingérer dans des élections.

«Je m’attends à ce qu’on commence à voir ce genre de contenu ici aux États-Unis dans les élections de mi-mandat à venir et pendant les élections nationales dans deux ans», estime Hany Farid, un expert en informatique judiciaire de l’Université de Dartmouth, au New Hampshire.

Lorsqu’un internaute ordinaire sera en mesure de créer une vidéo où il pourra faire dire ce qu’il veut au président américain par exemple, «nous serons entrés dans un monde où il sera difficile de savoir si on peut en croire ses yeux», prévient-il.

Le contraire sème aussi l’inquiétude. Les gens pourraient confondre des images authentiques avec des canulars.

Détecter les vidéos falsifiées

Le département de la Défense des États-Unis est au fait de ces risques. Une de ses agences mène depuis deux ans déjà un programme visant à mettre au point des technologies capables de détecter des images et des vidéos falsifiées. Identifier des photos truquées requiert présentement une analyse exhaustive.

Les «deepfakes» tirent leur nom du «deep learning» — l’apprentissage profond nécessaire à leur création. Leur réalisation nécessite un algorithme, une série de consignes et beaucoup d’images et d’enregistrements de la personne ciblée. Le programme informatique apprend ainsi à imiter ses expressions faciales, ses manières, sa voix et ses intonations.

Jusqu’à présent, les «deepfakes» ont surtout été utilisés contre des célébrités, mais il est facile de concevoir qu’ils puissent être employés par une agence de renseignement étrangère, s’inquiète le sénateur floridien Marco Rubio.

Il cite en exemple la possibilité de montrer un militaire massacrant des civils à l’étranger, un politicien reconnaissant la véracité d’une théorie du complot ou encore un dirigeant mettant la population en garde contre une catastrophe imminente.

«C’est une arme qui pourrait être utilisée — au bon moment et au bon endroit — de la même manière que les fausses nouvelles sont utilisées, mais sous forme de vidéo, ce qui pourrait vraiment semer le chaos et l’instabilité à la veille d’une élection ou d’une décision majeure de quelque nature qu’elle soit», s’inquiète le sénateur.

La technologie des «deepfakes» n’est cependant pas tout à fait au point. Les clignements de paupières des personnes figurant dans ces vidéos peuvent par exemple paraître artificiels. Mais ces pépins sont en voie d’être corrigés.

«D’ici un an ou deux, il sera vraiment difficile de distinguer une vraie vidéo d’une fausse», avance Andrew Grotto, du Centre pour la sécurité internationale et le contrôle des armements à l’Université Stanford en Californie.

«Je crois que cette technologie sera irrésistible pour les pays qui font des campagnes de désinformation pour manipuler l’opinion publique, duper des populations et miner la confiance en nos institutions», s’alarme-t-il.

https://quebec.huffingtonpost.ca/