L’aigle du mont Royal, toujours maître du canular


Tu t’en souviens, Jack ?? Alors qu’on prenait un peu plus conscience des fausses nouvelles (fakes news). Une vidéo crée par 4 étudiants de l’école NAD à Montréal avait monté de toute pièce un canular qui est devenu viral dans les réseaux sociaux. Un aigle royal qui avait saisi un enfant dans le parc du Mont-Royal. Aucune autre vidéo n’a fait autant sensation depuis. Cependant, ces 4 jeunes ont maintenant de très belles carrières.
Nuage
 


L’aigle du mont Royal, toujours maître du canular


MARIE TISON
La Presse

En cette ère de fausses nouvelles, aucun canular originaire du Québec n’a réussi à répéter l’exploit réalisé par quatre étudiants de l’École NAD en décembre 2012.

Leur vidéo, qui montrait un aigle royal saisissant un enfant au parc du Mont-Royal, a été vue plus de 45,8 millions de fois sur YouTube.

Les étudiants ont produit la vidéo dans le cadre d’un cours intitulé « Simulation de production », donné par le professeur Robin Tremblay. Il s’agissait de réaliser un film avec des images réelles et d’y incorporer des effets 3D. Le professeur encourageait les étudiants à produire des clips à potentiel viral.

« Je fais encore le cours, mais je l’ai un peu modifié parce que l’aspect viral est maintenant difficile à atteindre, indique M. Tremblay en entrevue. Les gens sont plus sceptiques : ils savent qu’il y a des firmes qui peuvent détecter les canulars, qui peuvent valider si c’est de la 3D. Les gens sont plus sensibles aussi, il faut faire attention. »

Avant la fameuse vidéo de l’aigle, des étudiants de l’École NAD avaient réalisé une vidéo qui avait eu un bon succès : il s’agissait d’un manchot qui s’enfuyait du Biodôme. La vidéo de l’aigle royal a toutefois dépassé toutes les attentes.

Souvent, les vidéos qui deviennent rapidement virales dépeignent des animaux. Ou des bébés.

« Là, on a frappé dans le mille, lance M. Tremblay. Si l’aigle était parti complètement avec le bébé, ç’aurait été trop grave. On a pensé à mille hypothèses, mais finalement, on est restés tranquilles, l’aigle a simplement levé le bébé du sol. »

La vidéo a toutefois suscité la critique des ornithologues, qui craignaient qu’elle n’incite des gens à maltraiter ou à éliminer des aigles.

« On n’avait pas pensé à ça, la protection des oiseaux, se rappelle Robin Tremblay. On a donc arrêté ça, on a fait savoir que ce n’était pas vrai. »

« Une bonne carte de visite »

Le professeur a évidemment accordé une belle note aux étudiants, Normand Archambault, Félix Marquis-Poulin, Loïc Mireault et Antoine Seigle, qui ont poursuivi dans le domaine à la fin de leurs études.

« C’était une bonne carte de visite, sans plus », précise Félix Marquis-Poulin.

« Ça ne m’a pas fait sauter d’étapes. N’importe quel bon étudiant qui aurait fait une bonne vidéo, qui n’aurait pas été virale mais qui aurait été du même niveau, serait passé par le même chemin. »

À sa sortie de l’école, Félix Marquis-Poulin s’est joint à la firme d’animation et d’effets visuels Framestore, qui venait tout juste de s’installer à Montréal, avec deux autres membres de l’équipe de la vidéo, Loïc Mireault et Antoine Seigle.

« Ce fut une sorte de deuxième école où j’ai eu la chance de côtoyer beaucoup de talents venant de partout dans le monde, précise Félix Marquis-Poulin. J’ai eu l’occasion de travailler entre autres sur La Belle et la Bête, Christopher Robin, Ghost in the Shell, Mowgli, Paddington et bien d’autres films. »

Depuis l’année dernière, il enseigne une fois par semaine en tant que chargé de cours à l’École NAD et a commencé à prendre des contrats en tant que pigiste, notamment dans le domaine des jeux vidéo, de l’impression 3D pour les jeux de table et du cinéma d’animation.

Il vient d’ailleurs de démissionner de Framestore pour se consacrer à la pige et à des projets personnels, comme la réalisation d’un court métrage d’animation avec un ami.

Animateur chez Framestore, Loïc Mireault a travaillé sur divers films, comme Fantastic Beasts, Mowgli et Paddington.

Normand Archambault a également accumulé les projets au cours des années, travaillant notamment sur Solo : A Star Wars Story, Lost in Space et The Greatest Showman.

Pour sa part, Antoine Seigle a poursuivi sa route jusqu’en Australie, où il travaille dans un studio d’animation et d’effets visuels.

Faire rayonner les étudiants

Le succès de la vidéo de l’aigle et de l’enfant a été tel que les étudiants des années suivantes n’ont pas cherché à l’imiter.

« C’est comme une montagne, note Robin Tremblay. Les gens arrivent devant et se disent que jamais ils n’arriveront à faire quelque chose après ça. »

De plus, les médias avaient l’École NAD à l’oeil.

« Quand tu es surveillé, ça cesse d’être le fun. »

Le professeur croit toutefois qu’il sera possible un jour de se réessayer.

« Mais ça va prendre de bonnes idées. »

En attendant, il propose à ses étudiants de participer à un concours canadien, le Défi du film d’horreur de 15 secondes. « On a gagné plein de prix », s’enthousiasme Robin Tremblay.

Il explique que comme prof d’université (NAD est une antenne montréalaise de l’Université du Québec à Chicoutimi), il a pour responsabilité d’apporter aux étudiants une expertise dans les effets visuels et de les faire rayonner, les faire sortir des frontières de l’école.

« Quelque chose de viral, c’est parfait, mais c’est plus difficile à atteindre. Le défi d’horreur, c’est plus facile et les étudiants s’amusent clairement plus. »

https://www.lapresse.ca/

Non, Facebook ne limite pas votre fil d’actualités à 25 amis


Ce qui serait bien avant de mettre des messages qu’on demande de copier coller est de faire une petite recherche sur un moteur de recherche ou encore sur des sites comme celui de https://www.francoischarron.com/ très connu au Québec. Il émet souvent des mises en garde contre les canulars qui circulent sur Facebook. Cela éviterait de polluer le réseau social et arrêterait les gens qui propagent les canulars en se disant au cas où que c’est vrai.
Nuage

 

Non, Facebook ne limite pas votre fil d’actualités à 25 amis

 

Logo de l'application mobile de Facebook.

Ce message a été démenti par Facebook il y a déjà près d’un an. Photo: The Associated Press / Matt Rourke

Une publication virale qui prétend que le fil d’actualités Facebook ne montre que les activités de 25 amis est un canular.

L’histoire provient d’une publication écrite reprise sous différentes formes, mais qui semble toujours indiquer que vous n’avez accès qu’au contenu de 25 ou 26 amis. Ces messages circulent abondamment depuis de nombreux mois sur le réseau social.

Voici l’un de ces messages :

« Merci pour les conseils pour contourner FB … ça marche !! J’ai un tout nouveau flux de nouvelles. Je vois des messages de personnes que je n’ai pas vues depuis des années. Voici comment contourner le système que FB a maintenant mis en place pour limiter les publications sur votre fil de nouvelles. Leur nouvel algorithme choisit les mêmes personnes – environ 25 – qui liront vos messages. Par conséquent, maintenez votre doigt n’importe où dans ce message et « copie » apparaîtra. Cliquez sur « copier ». Ensuite, allez sur votre page, commencez une nouvelle publication et placez votre doigt n’importe où dans le champ vide. « Coller » va apparaître et cliquer coller. Cela contournera le système. Salut nouveaux et anciens amis! Bonne année à tous! »

Ce message et tous ceux du même genre sont toutefois complètement faux, comme l’avait confirmé Facebook au Washington Post en février 2018.

« Ce n’est tout simplement pas vrai, avait indiqué un porte-parole de Facebook. Nous classons le fil d’actualités selon la pertinence pour vous, et bien que nous ayons fait des mises à jour qui pourraient affecter le nombre de publications de vos amis qui y apparaissent, votre fil d’actualités n’est pas limité à 25 d’entre eux. »

L’origine de ce canular remonterait à la fin de l’année 2017, mais il a connu ses heures de gloire lorsque Facebook a annoncé des changements à l’algorithme du fil d’actualités, en janvier 2018.

L’entreprise souhaitait alors faire apparaître davantage de publications des amis et de la famille de ses utilisateurs, au détriment de celles des marques et des entreprises.

Avec les informations de Business Insideret The Washington Post

https://ici.radio-canada.ca/

Cet avertissement contre un pirate informatique est un canular


J’en ai encore reçu cet avertissement ce matin. L’origine de cet article date de 2017, mais il semble qu’un besoin se fasse sentir de réitérer en 2019 sur ce message qui circulent encore et encore sur les réseaux sociaux. Il est important de comprendre qu’il faut cesser de partager des avertissements bidons.
Nuage

 

Cet avertissement contre un pirate informatique est un canular

 

Capture d'écran d'un faux message viral sur Facebook mettant en garde contre un supposé pirate informatique nommé Jayden K. Smith.

Capture d’écran d’un faux message viral sur Facebook mettant en garde contre un supposé pirate informatique nommé Jayden K. Smith. Photo: Capture d’écran / Facebook

Jeff Yates

CHRONIQUE – Si vous recevez un message Facebook d’un ami vous mettant en garde contre un pirate informatique nommé Jayden K. Smith, Étienne Maurice, Camille Petit ou autres, vous pouvez l’ignorer, il s’agit d’un canular.

Je croyais que les chaînes de courriels avaient disparu avec l’avènement des réseaux sociaux, mais – surprise! – un message comme celui-ci circule en ce moment sur Facebook :

« S’il te plaît dis à tous tes contacts de ta liste messenger de ne pas accepter la demande d’amitié de Jayden K. Smith. C’est un hacker et a un système connecté à votre compte facebook », explique-t-on.

Cette fausse nouvelle revient périodiquement. Le site Snopes a d’ailleurs répertorié plusieurs différentes versions de ce message qui circulent depuis 2009, prêtant d’autres noms au supposé pirate informatique. Parmi les noms qui circulent figurent Jayden K. Smith, Étienne Maurice, Camille Petit, Oudo Amédée, Simon Ashton, Christopher Davies, Jessica Davies, Anwar Jitou et Bobby Roberts, entre autres.

Le message est en fait une traduction en français d’un message en anglais qui est devenu viral un peu partout dans le monde la semaine dernière. Ce que dit le message est faux, comme l’ont fait savoir plusieurs médias(Nouvelle fenêtre).

On peut, en effet, pirater un compte Facebook, mais il est assez improbable que l’on puisse le faire simplement en devenant amis Facebook avec une cible potentielle. Le plus souvent, les comptes sont piratés par des gens qui obtiennent des informations personnelles (date de naissance, nom des enfants, nom d’un animal de compagnie, nom du conjoint) pour deviner le mot de passe du compte.

En ce sens, il est probablement plus prudent de ne pas accepter les demandes d’amitié venant d’étrangers sur Facebook, puisque, pour de nombreuses personnes, ces informations personnelles se trouvent sur leur profil.

On peut aussi pirater un ordinateur en encourageant un utilisateur à télécharger, à son insu, un logiciel qui permet de prendre en otage son ordinateur ou son téléphone intelligent. Encore là, ça ne se fait pas automatiquement quand on accepte quelqu’un dans ses contacts. Il faut soi-même télécharger et activer le fichier, comme l’a constaté ma collègue Marie-Eve Tremblay.

Alors, non, un pirate ne peut pas avoir un « système connecté à votre compte Facebook », comme le mentionne le message.

Selon le site de vérification des faits Snopes, des canulars du genre circulent depuis des années. On change simplement le nom du supposé pirate informatique à chaque nouvelle alerte.

Mais qui est ce Jayden K. Smith? Nul ne le sait, mais sachez que le fils de l’acteur américain Will Smith se nomme Jaden Smith. Essaie-t-on de se moquer de lui avec ce canular? C’est possible. Les internautes se moquent depuis des années de ses envolées philosophiques sur son compte Twitter.

Vous pouvez faire circuler cet article!

Ne plus croire tout ce qu’on voit


Il sera peut-être de plus en plus difficile de savoir ce qui est vraie ou faux. Bien sûr, certains signes pourraient nous mettre la puce à l’oreille, mais il faudrait d’autres options.
Nuage

 

Ne plus croire tout ce qu’on voit

 

On peut désormais trafiquer des vidéos pour mettre le visage de n'importe qui... (Photomontage La Presse)

PHOTOMONTAGE LA PRESSE

ALEXANDRE VIGNEAULT
La Presse

On peut désormais trafiquer des vidéos pour mettre le visage de n’importe qui sur le corps de n’importe quelle autre personne. Ces fausses images servent à faire des plaisanteries et des canulars, mais peuvent aussi être des outils d’humiliation ou de chantage et devenir un puissant moyen de désinformation.

«Nous entrons dans une ère où nos ennemis pourront faire croire que n’importe qui dit n’importe quoi n’importe quand», prévient Barack Obama, en fixant le téléspectateur.

Le décor, le ton, le regard et le phrasé syncopé caractéristique de l’ex-président donnent l’impression d’une allocution officielle. Ce qui détonne, c’est qu’il utilise un terme très vulgaire pour traiter Donald Trump d’idiot.

Obama n’a jamais prononcé ce court discours qu’on trouve facilement sur YouTube et qui a été vu au moins 5 millions de fois. Il s’agit d’une création du site Buzzfeed et de l’humoriste américain Jordan Peele. Ce n’est toutefois pas un canular. Disons plutôt un avertissement, une manière percutante de rappeler aux gens qu’on ne peut pas se permettre de croire tout ce qu’on voit sur l’internet.

«La technologie a évolué, et même la vidéo, on ne peut plus s’y fier», résume Jean-Hugues Roy, professeur à l’École des médias de l’Université du Québec à Montréal (UQAM).

Depuis environ un an, l’ancien journaliste aiguise le sens critique de ses étudiants en leur montrant des «deepfake», c’est-à-dire des vidéos d’un réalisme parfois confondant où le visage d’une personne est manipulé en temps réel ou carrément posé sur le corps d’une autre personne.

L’ère du faux

Ce n’est pas d’hier que des professionnels comme les gens de cinéma peuvent trafiquer des images. Ce qui a changé, c’est la facilité avec laquelle il est possible de le faire grâce à des logiciels apparemment simples d’utilisation comme FakeApp, qui a notamment été utilisé pour fabriquer de fausses vidéos pornos mettant en vedette des célébrités comme Katy Perry, Scarlett Johansson et Daisy Ridley. Ce sont d’ailleurs de telles séquences, publiées l’an dernier sur Reddit, qui ont attiré l’attention sur le phénomène des «deepfake».

Le mot «deepfake» est né de la fusion de «fake» (faux) et de «deep learning», une forme d’intelligence artificielle.

Ce qui suscite l’inquiétude depuis un an, c’est le risque de voir ces «deepfakes» devenir un puissant vecteur d’infox, c’est-à-dire de fausses nouvelles.

«Nous sommes très inquiets que la technologie deepfake puisse être déployée bientôt par des acteurs malveillants», ont dit en septembre des membres du Congrès américain au directeur du renseignement national dans une lettre où ils évoquaient notamment la désinformation et le chantage visant des individus (politiques ou non).

«Comment allons-nous croire ce qu’on voit désormais? Il s’agit selon moi d’une véritable menace pour la démocratie», tranche aussi un spécialiste de l’informatique interviewé par le Wall Street Journal. Éric Paquette, professeur au département de génie logiciel et des TI à l’École de technologie supérieure (ETS), est d’accord: «Quand on est capable de faire tenir un discours à quelqu’un et que les lèvres ont l’air de dire la bonne chose et que le non-verbal suit – un petit sourire, par exemple -, il y a des enjeux éthiques, c’est assez clair.»

Inquiet lui aussi, Jean-Hugues Roy se montre toutefois moins alarmiste.

«Si on créait une vidéo de François Legault affirmant vouloir enfermer tous les musulmans, mettons, François Legault lui-même dirait rapidement que c’est faux. Même si la technologie est là, quelque chose me dit que les victimes de ces falsifications seront toujours là pour identifier ces faussetés», dit-il.

Le professeur de journalisme rappelle en outre qu’on a appris à vivre avec Photoshop, qui permet pourtant de faire des retouches indétectables.

«On finit toujours par savoir qu’il y a eu manipulation», fait-il valoir, tout en convenant que le risque de confusion pourrait être plus élevé là où les régimes manipulent l’information et où la littératie numérique est faible.

Un détecteur de vidéo mensonge?

Même si Éric Paquette affirme que les technologies vraiment efficaces ne sont pas à la portée de tous («les prototypes relativement convaincants sont encore en développement dans les laboratoires de recherche», dit-il), ce n’est qu’une question de temps avant qu’on puisse faire une vidéo confondante avec pas grand-chose.

«Avec un simple téléphone cellulaire, loin d’être aussi puissant qu’un ordinateur doté d’une carte graphique comme celles utilisées en intelligence artificielle, on peut déjà rajouter des cheveux ou des moustaches de lapin sur une vidéo en temps réel», observe-t-il. Il ne doute pas qu’une application de «fake visage» facile d’utilisation émergera sous peu. «On ne parle pas de décennies, prévient-il, mais d’années avant que ça fonctionne sur un téléphone cellulaire.»

Pourra-t-on les détecter? C’est la grande question. L’intelligence artificielle, qui contribue à créer ces fausses vidéos, pourrait aussi aider à les débusquer.

«La machine pourrait soulever des doutes sur l’authenticité de certains passages», croit Éric Paquette.

Jean-Hugues Roy juge que, plutôt que de s’en remettre à une technologie de détection des vidéos mensongères, on pourrait miser sur une infrastructure inspirée des chaînes de blocs (blockchains permettant d’authentifier et de certifier l’identité du producteur d’un contenu et de son diffuseur.

«Ce serait une façon de s’assurer de la provenance de l’information», explique-t-il.

«On aura plus que jamais besoin de vérificateurs de faits!», lance par ailleurs le professeur de journalisme.

Malgré tout, il est optimiste et croit que si on doute davantage des vidéos, des photos et des enregistrements audio, «peut-être qu’on va de plus en plus déplacer notre confiance vers les humains qui nous transmettent des informations».

Bref, là où d’autres voient un péril, il voit une occasion pour le journalisme de qualité.

«Il y a une éducation à l’information, pas seulement aux médias, à faire, ajoute cependant Jean-Hugues Roy. Ça repose en partie sur les citoyens qui doivent se tourner les pouces sept fois avant de partager de l’information. Puisque les citoyens sont devenus des vecteurs de propagation de l’information, ils ont aussi une responsabilité dans la diffusion des faussetés.»

https://www.lapresse.ca/

Ils réussissent à publier des études ridicules dans des revues scientifiques


Les domaines de la science sont des sujets sérieux, et généralement, on s’attend qu’une revue scientifique ait vérifié les sujets qui sont publier. Dans de revues de sociologies des auteurs ont quand même réussit à faire éditer des recherches bidons.
Nuage

 

Ils réussissent à publier des études ridicules dans des revues scientifiques

 

© Thinkstock.

Trois personnes ont réussi un canular aux Etats-Unis en faisant publier dans plusieurs revues de sociologie des articles de recherche entièrement inventés, aux conclusions ridicules, afin de démontrer, selon eux, le manque de rigueur de ces revues.

Au total, sept articles sur les vingt écrits par le trio ont été acceptés par des revues, passant l’obstacle redouté des comités de lecture censés vérifier la rigueur académique des articles.

Sujets explosifs

Ce sport n’est pas nouveau, et le canular rejoint des précédents retentissants, notamment celui du physicien Alan Sokal, qui s’était attaqué en 1996 à une revue d’études culturelles.Cette fois, les faux articles ont en commun des sujets de société explosifs: le genre, le racisme ou la sexualité, ce que les auteurs du canular appellent les « études de griefs ».

Plus d’un an de labeur

« Lorsque l’on rend des idées absurdes et horribles suffisamment à la mode politiquement, on arrive à les faire valider au plus haut niveau », affirme James Lindsay, qui a obtenu un doctorat de mathématiques en 2010 à l’Université du Tennessee et s’est consacré pleinement à ce projet depuis un an et demi.

La culture canine du viol

Les études étaient envoyées sous pseudonymes. L’une d’elles, publiée en mai dans la revue Gender, Place & Culture et finalement retirée, prétendait étudier la culture canine du viol dans les parcs à chiens, en tirant des parallèles avec les hommes. Une autre analyse pourquoi un homme se masturbant en pensant à une femme sans son consentement commet une agression sexuelle. Un papier était une réécriture féministe d’un chapitre de Mein Kampf.

Godemiché et transphobie

Certains articles étaient des essais, mais quelques uns affirmaient se reposer sur des données, comme des entretiens, ce qui est en théorie vérifiable. C’était le cas d’une étude sur l’impact de l’usage d’un godemiché anal par des hommes hétérosexuels sur leur transphobie.

Réforme espérée

« Si notre projet démontre une chose, c’est qu’on ne peut pas faire confiance à la recherche actuelle dans ces disciplines », dit à l’AFP James Lindsay.

Mais le but du projet, selon lui, est de « réformer » ces disciplines, et non de les détruire.

Une méthode dangereuse

Si le canular a fait ricaner sur Twitter, des chercheurs s’inquiétaient de la méthode et de la déontologie des faux auteurs, ainsi que des conclusions généralisatrices que certains pourraient en tirer pour les disciplines visées.

Tous concernés

Les problèmes de qualité ou de fraude ne sont limités ni aux sciences humaines, ni aux revues peu cotées. Même les plus grands journaux scientifiques doivent régulièrement retirer des articles proposés par des chercheurs parfois célébrés.

Normes de transparence

Il existe des milliers de revues scientifiques dans le monde. Des organisations ont établi des normes de transparence, mais leur adoption par les organes de publication est très variable. Pour les sciences médicales ou biologiques, ces normes consistent par exemple à remettre les données brutes au comité de lecture, afin de vérifier les résultats. Dans les sciences humaines, communiquer la retranscription d’entretiens pose des problèmes de confidentialité, explique David Mellor, du Center for Open Science.

Mais « nous encourageons le plus de transparence possible », dit-il.

Les deux autres piégeurs sont Peter Boghossian, professeur de philosophie à l’université à Portland, et Helen Pluckrose, rédactrice en chef d’AreoMagazine.com, site qui a publié un récit détaillé de la supercherie.

https://www.7sur7.be/

Les vidéos truquées, bientôt des armes de désinformation massive?


Une technologie qui nécessite quelques ajustements, malheureusement, il y a des risques que la désinformation sera de plus en plus efficace. N’importe quoi pourrait prendre une personne connue et lui faire dire n’importe quoi ou montrer des images qui n’ont pas eu lieu tout cela sur vidéo
Nuage

 

Les vidéos truquées, bientôt des armes de désinformation massive?

 

 

PHOTO AP

Cette image prise d’une fausse vidéo du président Barack Obama montre des éléments de cartographie faciale utilisée par de la nouvelle technologie qui permet à n’importe qui de créer des vidéos avec de vraies personnes semblant dire des choses qu’ils n’ont jamais dites.

Ce sénateur a-t-il vraiment fait cette déclaration? Est-ce réellement le président Donald Trump dans cette vidéo, ou est-ce que je me fais berner?

Avec de nouveaux outils technologiques, il est maintenant possible de produire une vidéo où quelqu’un semble dire des choses qui ne sont pourtant jamais sorties de sa bouche.

Au Congrès des États-Unis, républicains comme démocrates craignent que cette technologie se convertisse en arme dans le cadre de guerres de désinformation contre les démocraties occidentales.

Il n’est pas question de vidéos où l’on synchronise approximativement le mouvement des lèvres d’une personne à une trame sonore. Cette technologie a plutôt recours à la reconnaissance faciale et à l’intelligence artificielle pour produire des images qui semblent si réalistes qu’il est difficile de distinguer le vrai du faux.

Les législateurs et les autorités en matière de renseignement appréhendent le moment où ces vidéos truquées — nommées «deepfakes» — seront employées pour menacer la sécurité nationale ou pour s’ingérer dans des élections.

«Je m’attends à ce qu’on commence à voir ce genre de contenu ici aux États-Unis dans les élections de mi-mandat à venir et pendant les élections nationales dans deux ans», estime Hany Farid, un expert en informatique judiciaire de l’Université de Dartmouth, au New Hampshire.

Lorsqu’un internaute ordinaire sera en mesure de créer une vidéo où il pourra faire dire ce qu’il veut au président américain par exemple, «nous serons entrés dans un monde où il sera difficile de savoir si on peut en croire ses yeux», prévient-il.

Le contraire sème aussi l’inquiétude. Les gens pourraient confondre des images authentiques avec des canulars.

Détecter les vidéos falsifiées

Le département de la Défense des États-Unis est au fait de ces risques. Une de ses agences mène depuis deux ans déjà un programme visant à mettre au point des technologies capables de détecter des images et des vidéos falsifiées. Identifier des photos truquées requiert présentement une analyse exhaustive.

Les «deepfakes» tirent leur nom du «deep learning» — l’apprentissage profond nécessaire à leur création. Leur réalisation nécessite un algorithme, une série de consignes et beaucoup d’images et d’enregistrements de la personne ciblée. Le programme informatique apprend ainsi à imiter ses expressions faciales, ses manières, sa voix et ses intonations.

Jusqu’à présent, les «deepfakes» ont surtout été utilisés contre des célébrités, mais il est facile de concevoir qu’ils puissent être employés par une agence de renseignement étrangère, s’inquiète le sénateur floridien Marco Rubio.

Il cite en exemple la possibilité de montrer un militaire massacrant des civils à l’étranger, un politicien reconnaissant la véracité d’une théorie du complot ou encore un dirigeant mettant la population en garde contre une catastrophe imminente.

«C’est une arme qui pourrait être utilisée — au bon moment et au bon endroit — de la même manière que les fausses nouvelles sont utilisées, mais sous forme de vidéo, ce qui pourrait vraiment semer le chaos et l’instabilité à la veille d’une élection ou d’une décision majeure de quelque nature qu’elle soit», s’inquiète le sénateur.

La technologie des «deepfakes» n’est cependant pas tout à fait au point. Les clignements de paupières des personnes figurant dans ces vidéos peuvent par exemple paraître artificiels. Mais ces pépins sont en voie d’être corrigés.

«D’ici un an ou deux, il sera vraiment difficile de distinguer une vraie vidéo d’une fausse», avance Andrew Grotto, du Centre pour la sécurité internationale et le contrôle des armements à l’Université Stanford en Californie.

«Je crois que cette technologie sera irrésistible pour les pays qui font des campagnes de désinformation pour manipuler l’opinion publique, duper des populations et miner la confiance en nos institutions», s’alarme-t-il.

https://quebec.huffingtonpost.ca/

Trump piégé par un canular téléphonique à bord d’Air Force One


Bon, ce n’est pas vraiment un canular, (je n’aime pas les canulars) et en plus, cela manque de piquant, j’en suis même déçu mais cela a prouver qu’il semble facile d’appeler le président même au bord de l’avion Air Force One.
Nuage

 

Trump piégé par un canular téléphonique à bord d’Air Force One

 

ERIC THAYER / REUTERS

C’est possible.

Agence France-Presse

Piéger le président de la première puissance mondiale avec un canular téléphonique à bord d’Air Force One? C’est possible.

Se faisant passer pour le sénateur démocrate du New Jersey Robert Menendez, le comédien John Melendez a réussi à entrer en contact par téléphone avec Donald Trump mercredi soir alors que ce dernier se trouvait à bord de l’avion présidentiel Air Force One.

L’acteur a diffusé un enregistrement de la conversation sur son podcast, « The Stuttering John Podcast », dans laquelle on peut entendre une voix qui semble être celle de Donald Trump.

« Vous avez traversé des épreuves difficiles, et je pense que c’était un peu injuste, mais félicitations », dit-il au « sénateur », un temps poursuivi pour corruption avant que les charges à son encontre ne soient finalement abandonnées.

Les deux hommes poursuivent ensuite leur conversation, passant de l’immigration au remplacement du juge Anthony Kennedy à la Cour suprême.

Le comédien a raconté avoir appelé la Maison Blanche en se faisant passer pour un assistant du sénateur, après avoir laissé un numéro de portable, et, in fine, avoir été mis en contact avec le président à bord d’Air Force One.

Sollicitée par l’AFP sur cette histoire surprenante qui pose de nombreuses questions sur le protocole permettant d’avoir accès au président, la Maison Blanche n’avait pas répondu vendredi après-midi.

https://quebec.huffingtonpost.ca/