143 nouvelles lignes de Nazca découvertes


Grâce aux technologies de plus en plus avancées, des archéologues ont pu retrouver 143 nouveaux géoglyphes de Nazca au Pérou. Bien qu’ils ne savent pas encore leurs significations, ils croient que les grands géoglyphes étaient des lieux de rituels alors que les autres des points de repères.
Nuage


143 nouvelles lignes de Nazca découvertes


Nathalie Mayer
Journaliste

Gravées dans le sol du désert péruvien, les lignes de Nazca, bien que découvertes il y a près de 100 ans, continuent d’intriguer les archéologues. Dernièrement, ils ont toutefois mis au jour 143 nouveaux de ces géoglyphes qui pourraient les aider à mieux comprendre leur signification.

Des créatures vivantes, des objets ou de simples figures géométriques… Quelque part sur la plaine côtière aride du sud du Pérou, de surprenantes lignes sont tracées au sol. Pour certaines, il y a plus de 2.500 ans. Des lignes qui forment des figures pour la plupart tellement grandes qu’il faut prendre de l’altitude pour les discerner. Depuis 1994, elles sont inscrites sur la liste du patrimoine mondial de l’Unesco. Et on les connait désormais sous le nom de lignes ou géoglyphes de Nazca.







Le saviez-vous ?

Les fameuses lignes de Nazca que l’on trouve dans le désert péruvien sont l’œuvre de la tribu amérindienne éponyme. Mais pas que… Et même si plusieurs hypothèses ont été avancées depuis leurs premières observations en 1927, les chercheurs en ignorent encore la signification. Malgré leur aspect spectaculaire, elles ne semblent pas avoir été difficiles à tracer. Simplement en déplaçant des pierres au sol. Les chercheurs estiment ainsi qu’elles ont pu être toutes tracées en moins d’une décennie.


Après quelque 15 années à étudier ses lignes, des archéologues de l’université de Yamagata (Japon) annoncent aujourd’hui avoir mis au jour dans la région pas moins de 143 nouveaux géoglyphes. Ils représentent des animaux, des personnes et d’autres êtres vivants ou objets. La plupart ont été découverts grâce à des analyses de données 3D haute résolution et à des études de terrain. Mais aussi à l’aide d’un modèle d’intelligence artificielle (IA) développé par des chercheurs d’IBM.

Un serpent à deux têtes en train de dévorer des figures humanoïdes. © Université de Yamagata

Un serpent à deux têtes en train de dévorer des figures humanoïdes. © Université de Yamagata

Selon les chercheurs, tous ces géoglyphes ont été dessinés entre 100 av. J.-C. et 300 apr. J.-C. En écartant les pierres noires présentes au sol, exposant ainsi le sable blanc caché dessous. Et révélant des dessins d’oiseaux, de singes, de poissons, de serpents, de renards, de félins et même d’humanoïdes.

Une intelligence artificielle (IBM Watson Machine Learning Community Edition), mise au point par des humains d’aujourd’hui, a permis aux archéologues de l’université de Yamagata (Japon) de mettre au jour un géoglyphe imaginé par des populations anciennes et dont la symbolique reste encore mystérieuse. © Université de Yamagata

Une intelligence artificielle (IBM Watson Machine Learning Community Edition), mise au point par des humains d’aujourd’hui, a permis aux archéologues de l’université de Yamagata (Japon) de mettre au jour un géoglyphe imaginé par des populations anciennes et dont la symbolique reste encore mystérieuse. © Université de Yamagata

Lever le voile du mystère des lignes de Nazca

Les archéologues ont classé ces nouveaux géoglyphes selon deux grandes catégories. Les géoglyphes les plus anciens, de « type B » présentent généralement une longueur inférieure à 50 mètres. Le plus petit d’entre eux n’atteint même pas les 5 mètres. Les plus récents, de « type A », sont plus grands. Le plus long d’entre eux dépasserait même les 100 mètres. Et selon les chercheurs, ces derniers devaient représenter des lieux de rituel. Ils y ont trouvé des vases en poterie cassés. Alors que les plus petits géoglyphes, situés le long de sentiers, devaient servir de point de repère pour orienter les voyageurs.

De forme humanoïde, ce géoglyphe de type B. © Yamagata University

De forme humanoïde, ce géoglyphe de type B. © Yamagata University

Autre différence entre les géoglyphes de type A et ceux de type B : les premiers sont formés de lignes colorées – ou décolorées, selon le point de vue – et les seconds, de surfaces entières de couleur. Pour mieux comprendre ces tracés dans leur ensemble, les chercheurs souhaitent désormais produire une carte de la zone. Et pour cela, s’appuyer un peu plus sur les qualités des IA et notamment, leur capacité à traiter de grandes quantités de données en un temps réduit.

Un poisson. © Université de Yamagata

Un poisson. © Université de Yamagata

Les archéologues espèrent également que la publication de leurs travaux aidera à sensibiliser le public à la nécessité de préserver la région, menacée par l’expansion des zones urbaines.


CE QU’IL FAUT RETENIR

  • Des chercheurs ont découvert 143 nouvelles lignes de Nazca.

  • L’un de ces géoglyphes a été mis au jour grâce à une intelligence artificielle.

  • Les archéologues espèrent désormais pouvoir mieux comprendre la signification de ces lignes.

https://www.futura-sciences.com

Une publicité Nike créée par une intelligence artificielle


Ce n’est pas une publicité officielle, mais une création sans que Nike en fasse la demande. Un Français a réuni plusieurs publicités de Nike et l’IA en a fait une nouvelle publicité. Pour ma part, je suis un peu déçue, sauf peut-être (et encore) si elle jouer a la radio par exemple, car en vidéo, il n’a rien d’accrochant.
Nuage


Une publicité Nike créée par une intelligence artificielle


Fabrice Auclert
Journaliste

Après avoir investi la peinture, la musique et bien sûr le jeu vidéo et la santé, l’intelligence artificielle va-t-elle créer des campagnes de publicité ? Un créatif français a nourri un réseau neuronal de publicités Nike très connues, et voici le résultat…

Ce spot a été produit à titre expérimental et il n’est donc pas officiel mais c’est la première publicité créée par une intelligence artificielle. C’est le concepteur-rédacteur Jean-Baptiste Le Divelec qui en est à l’origine car il a toujours été « fasciné par les réseaux neuronaux et le deep learning ». Avec des amis, il explique qu’il a alimenté un réseau neuronal avec plus d’une « dizaine d’années de publicités Nike » pour voir si l’intelligence artificielle était capable de créer une publicité originale.

Il précise bien que Nike n’est pas à l’initiative du projet, mais il s’est appuyé sur des publicités populaires et connues de tous. Il avait besoin de s’appuyer sur une marque emblématique, mondiale, et dont le corpus de publicités était facilement accessible. On en dénombre 20, et l’intelligence artificielle a fonctionné comme un générateur de textes automatiques. Notamment GPT-2, mis au point par Open-IA, et dont l’utilisation reste universitaire, tant la création de faux textes pourrait poser de problèmes à l’ère du « deep fake » et des « fake news ».

On n’est pas loin de l’écriture automatique lorsque l’IA conçoit une publicité. © Jean-Baptiste Le Divelec

Le prochain slogan va-t-il naître d’une IA ?

Là, il s’agit simplement d’une expérience de création. Jean-Baptiste Le Divelec explique à The Next Web qu’il avait été marqué par les performances de l’IA en musique ou en peinture, persuadé donc que « la machine » pouvait aussi être créatrice. À l’arrivée, le spot de 50 secondes a tout d’une publicité Nike, avec la musique, les codes couleurs, le rythme et l’importance de la sémantique.

Le publicitaire l’a appelé « AI et Kennedy » et même s’il reconnaît qu’on est « à la limite de l’inintelligible » et de « l’absurde », il y observe « une touche de génie ». Pour lui, le prochain slogan fort d’une marque ou le prochain spot de publicité, comme « Just Do It » pourrait donc naître du cerveau d’une intelligence artificielle. Il y a un siècle, on appelait ça le surréalisme, et c’est peut-être l’avenir de la publicité.

https://www.futura-sciences.com/

L’intelligence artificielle s’invite dans vos toilettes


L’intelligence artificielle s’intéresse à nos étrons, surtout que l’on sait maintenant que notre microbiote intestinal est une mine d’information sur notre état de santé en général. Des chercheurs sont en quête de photos d’excréments humains sur une base volontaire pour les classifier et créer ainsi une base de données qui pourraient être utilisées par tout le monde dont ceux qui souffre de problèmes gastriques.
Nuage


L’intelligence artificielle s’invite dans vos toilettes


Fabrice Auclert
Journaliste

C’est parfaitement anonyme et aussi très sérieux. Des chercheurs du MIT et une startup ont créé la première intelligence artificielle capable de diagnostiquer les problèmes intestinaux. Sur la base du volontariat, les internautes peuvent envoyer des photos de leurs selles pour compléter cette immense base de données et entraîner l’IA.

L’intelligence artificielle est de plus en plus présente au quotidien, grâce notamment au développement de l’apprentissage automatique et du deep learning, qui lui permet d’analyser le monde et d’y apporter de nouvelles solutions. Après avoir maîtrisé des jeux vidéo, créé des vidéos réalistes ou encore complété des recherches, l’IA s’attaque désormais aux fèces humaines.

Les excréments sont une véritable mine d’informations médicales. L’aspect visuel permet de renseigner sur l’état de la flore intestinale, le régime alimentaire, et apporte des informations sur les dysfonctionnements et maladies du système digestif. Un groupe de chercheurs souhaite créer un outil capable d’analyser automatiquement les images des selles pour évaluer la santé des patients. Le projet est une collaboration entre des chercheurs du Massachusetts Institute of Technology (MIT), Auggi, un coach virtuel pour la santé intestinale sous forme d’application, et Seed, une start-up concentrée sur la santé du microbiome.

Les internautes appelés à contribuer pour la science

Pour créer une intelligence artificielle capable de diagnostiquer les problèmes intestinaux, les chercheurs ont d’abord besoin d’une banque d’images conséquente des selles humaines. Ils ont d’abord commencé leurs recherches en créant de fausses selles à partir de pâte à modeler. Ensuite, ils ont parcouru le web à la recherche d’images réelles, et ont trouvé leur bonheur sur des forums en ligne, comme Reddit, où de nombreux utilisateurs discutent de leurs fèces et partagent des photos… Cependant, le matériel disponible était loin d’être suffisant.

Les chercheurs ont donc lancé une nouvelle campagne #GiveAShit qui demande à tous les internautes d’envoyer des photos de leurs matières fécales. Le nom est un jeu de mots sur l’expression anglaise qui signifie « se soucier » ou « faire attention à », et qui se traduit littéralement par « donner une merde ». Concrètement, il faut se rendre sur seed.com/poop/ avec son smartphone, car le site refuse les images en provenance d’un ordinateur. Appuyez sur le bouton « I accept the DARE », puis renseignez votre adresse e-mail, le moment de la journée à laquelle vous déféquez habituellement, et prenez une photo de votre étron, ou demandez un rappel dans la période indiquée.

Un site internet, visible depuis son téléphone mobile, permet d'envoyer les photos de sa grosse commission. © Seed Health

Un site internet, visible depuis son téléphone mobile, permet d’envoyer les photos de sa grosse commission. © Seed Health

    Une base de données de 100.000 images de fèces

    Les images sont anonymisées, puis analysées par une équipe de gastro-entérologues, qui les classifient parmi l’une des sept catégories de l’échelle de Bristol. Les chercheurs espèrent ainsi créer une base de données de 100.000 images qui serviront d’entraînement pour l’intelligence artificielle. L’IA devra apprendre seule à les classifier sur l’échelle de Bristol pour atteindre les mêmes résultats que les médecins.

    Les chercheurs espèrent ainsi créer un outil de diagnostic accessible à tous, et qui pourrait être notamment utilisé par les patients souffrant de problèmes gastriques.

    « Ils s’efforcent chaque jour à prendre des décisions sur quoi manger et la quantité d’exercice physique nécessaire pour maîtriser leurs symptômes. Il est essentiel de construire cette base de données et de développer ces outils de surveillance simples pour permettre à ces patients de le faire de chez eux, » a indiqué David Hachuel, cofondateur d’Auggi.

    CE QU’IL FAUT RETENIR

  • Nos excréments, par leur forme et leur couleur, en disent beaucoup sur notre santé.

  • Des chercheurs ont décidé de créer une immense base de données pour faciliter le diagnostic.

  • Une IA va apprendre, seule, à classifier la matière fécale pour épauler les médecins.

https://www.futura-sciences.com/

Il invente une chatière connectée pour empêcher son chat de rentrer avec des animaux morts !


C’est une bonne idée pour ceux qui ont une chatière. Muni d’une caméra de surveillance, le chat ne peut rentrer avec une proie dans sa gueule. Son maître reçois un sms et  si c’est un oiseau, il fait un don pour à une société pour la protection des oiseaux …
Nuage


Il invente une chatière connectée pour empêcher son chat de rentrer avec des animaux morts !


Metric bloqué dehors

On a tendance à l’oublier, mais les chats conservent un instinct de prédation important. Ainsi, lorsqu’ils sortent la nuit, il n’est pas rare qu’ils rapportent des proies à moitié mortes, qu’ils vous offrent avec amour au pied de votre lit. 

C’est la pari que s’est lancé Ben Hamm, ingénieur et papa humain de Metric, un chat particulièrement chasseur qui venait régulièrement perturber les nuits de Ben.

Comment ça fonctionne ? 

L’ingénieur a mis au point un système de verrouillage automatique de chatière relié à l’une des IA créées par son entreprise.

Il a installé au-dessus de la chatière une caméra équipée de la toute dernière technologie DeepLens, développée par Amazon. Cette caméra est reliée à un système de verrouillage Arduino, et le fonctionnement est plus que simple.

T’as une proie ? Tu rentres pas !

Lorsque son chat Metric rentre de ses promenades nocturnes, il est observé par la caméra de surveillance placée au-dessus de sa chatière.  S’il a une proie dans sa gueule, la porte se verrouille automatiquement pendant 15 minutes. Metric doit alors patienter dehors, ou lâcher sa proie un peu plus loin. 

En revanche, si la caméra ne détecte rien, la porte se dévérouille naturellement et Metric peut finir sa nuit dans le confort de sa maison. 

Et ce n’est pas tout !

Ben reçoit directement un SMS dès que Metric rentre avec un oiseau dans la gueule, et un don à la National Audubon Society (société qui se bat pour la protection des oiseaux) est automatiquement fait quand il reçoit ce message.

C’est une belle façon de se racheter auprès des oiseaux que nos félins préférés chassent à longueur de journée… !

En tout cas, on espère que Ben Hamm repasse de belles nuits avec son invention, et qu’elle sera démocratisée un peu partout. 

https://wamiz.com/

Une IA capable de prédire votre apparence par l’écoute de votre voix a été développée


Les chercheurs ont réussi à entrainer l’intelligence artificielle de reproduire un visage avec le seul indice la voix. Le résultat n’est pas parfait, mais c’est quand même, l’IA réussit a donner des répondre assez bien à l’exercice. Reste à savoir l’implication d’une telle technologie. Cela risque t-il a une certaine discrimination ?
Nuage


Une IA capable de prédire votre apparence par l’écoute de votre voix a été développée

visage cache

Jean-Jerrold Pierre

Un nouveau type d’intelligence artificielle créé aux États-Unis est capable de reconstituer les traits de visage d’une personne par analyse d’un échantillon de sa voix. Une technologie qui pourrait inquiéter certains, du fait du possible caractère discriminatoire qu’elle pourrait engendrer.

Combien de fois vous est-il arrivé d’être surpris de l’apparence d’une personne avec qui vous aviez, jusqu’à votre première rencontre physique, discuté uniquement par communication audio ? Le type de visage que l’on s’imaginait n’a souvent aucun rapport avec la réalité. Mais à présent, il serait possible de se faire rapidement une idée de l’apparence de l’interlocuteur uniquement grâce à sa voix.

Des chercheurs du MIT ont développé “Speech2Face“, une intelligence artificielle qui analyse des courts enregistrements de voix pour reconstituer un visage correspondant, uniquement avec cette information. Bien que les images obtenues soient loin d’être parfaites, de nombreux traits faciaux sont reproduits, donnant des résultats impressionnants pour le peu d’informations fournies à l’IA.

Pour sa création, le groupe de chercheurs explique dans son papier pré-publié la semaine dernière qu’ils ont utilisé ce qu’on appelle un réseau adverse génératif : un algorithme reproduisant des images fortement réalistes par apprentissage automatique, à partir d’un certain type d’échantillon. Ils ont entrainé le système à analyser de nombreux extraits d’enregistrements vocaux afin de faire correspondre le plus de caractéristiques biométriques possibles du propriétaire de la voix, réduisant ainsi le facteur chance pour une meilleure précision.

IA reconstitution visage

Reconstitution du visage d’individus à partir de leurs voix. La ressemblance n’est pas des plus frappantes, mais de nombreux traits et détails faciaux sont reproduits, le but étant de corréler les voix avec des caractéristiques physiques. Crédits : Speech2Face

Cependant, les responsables du projet reconnaissent eux-mêmes les risques de leur invention au niveau de l’intimité et de la discrimination, ce qu’ils expliquent sur leur page GitHub :

« Bien qu’il s’agisse d’une enquête purement académique, nous estimons qu’il est important de discuter explicitement dans le document d’un ensemble de considérations éthiques, en raison de la sensibilité potentielle des informations faciales ».

Ils ajoutent également qu’ils vont effectuer de plus amples recherches et investigations sur leur algorithme, afin de s’assurer qu’il puisse représenter la population d’utilisateurs visés.

Néanmoins, cette invention montre une fois de plus les possibles futures implications de l’IA dans des domaines que l’on aurait difficilement imaginé il y a encore quelques années. L’efficacité d’apprentissage d’un tel algorithme n’en est encore qu’à ses balbutiements.

Source : ArXiv

https://trustmyscience.com/

Cette Mona Lisa animée est générée par une intelligence artificielle. Et c’est plutôt perturbant !


Personnellement, je ne vois pas l’intérêt du moins pour le moment. Mona Lisa, Albert Einstein et autres, pourquoi ? Publicité ? Je crains que cela ne ferait qu’augmenter les deepfakes comme on a vu avec l’ancien président Barack Obama avec un faux discours.
Nuage


Cette Mona Lisa animée est générée par une intelligence artificielle. Et c’est plutôt perturbant !

mona lisa visage simule samsung ai

Un nouveau type d’intelligence artificielle peut générer un portrait animé à partir d’une seule image source. | Egor Zakharov

Jonathan Paiano

Depuis la publication sur YouTube d’une vidéo présentant une nouvelle intelligence artificielle capable de simuler et de prédire l’apparence d’un visage à partir d’une seule (ou plusieurs) image(s) source(s), l’exemple d’une Mona Lisa dont le visage et la tête sont entièrement animés par le système a rapidement fait le tour du web.

C’est sur l’exemple du joli sourire célèbre et quelque peu mystérieux de la peinture Mona Lisa que ce travail de recherche, effectué sous la supervision d’Egor Zakharov, ingénieur à l’Institut des sciences et de la technologie de Skolkovo et au Samsung AI Center (tous deux situés à Moscou, en Russie), s’est principalement fait connaître ces derniers jours.

Aujourd’hui, une nouvelle gamme d’expressions viennent se greffer à ce visage que vous connaissez toutes et tous, grâce à l’intelligence artificielle.

Dans la publication YouTube originale (publiée le 21 mai), trois clips vidéo montrent des exemples (perturbants) de Mona Lisa bougeant les lèvres et tournant la tête dans plusieurs directions. Elle a été créée par un réseau de neurones convolutionnels : un type d’IA qui traite des informations de la même manière que le cerveau humain, ici dans le but d’analyser et traiter des images.

Zakharov et ses collègues ont mis au point l’algorithme pour comprendre les formes générales des traits des visages humains et leurs comportements les uns par rapport aux autres, puis pour appliquer ces informations à des images fixes. Cela leur a permis d’obtenir une série de séquences vidéos réalistes montrant de nouvelles expressions faciales générées à partir d’une seule image.

Dans le cas des vidéos montrant Mona Lisa, l’IA a “appris” le mouvement du visage à partir de jeux de données de trois sujets humains, produisant trois animations très différentes. Alors que chacun des trois extraits d’apprentissage était encore reconnaissable en tant que Mona Lisa, Zakharov a donné des “personnalités” distinctes aux portraits vivants, comme vous pouvez le voir ci-dessous.

mona lisa animee creee par IA

Crédits : Egor Zakharov

L’équipe de recherche a également créé des animations à partir de photos d’icônes culturelles du XXe siècle, telles qu’Albert Einstein, Marilyn Monroe et Salvador Dali. Les résultats de l’étude ont été publiés la semaine dernière sur le serveur de préimpression arXiv, dans l’attente d’une évaluation par les pairs.

De plus, selon l’étude, ce système de “vision humaine” est très efficace pour identifier des erreurs, même mineures, dans des visages ou têtes humaines modélisées en 3D. Voir quelque chose ayant l’air humain, sans pour autant vraiment l’être, déclenche une sensation de malaise profond connue sous le nom “d’effet de vallée dérangeante“.

Comme vous pouvez bien vous en douter, produire des vidéos originales comme celles-ci, connues sous le nom de deepfakes, n’est pas une chose facile. Les têtes humaines étant géométriquement complexes et hautement dynamiques.

Les modèles 3D générés comportent “des dizaines de millions de paramètres”, ont écrit les auteurs de l’étude.

source et visages generees ia

Des visages familiers de célébrités prennent des expressions entièrement générées par ordinateur. Crédits : E. Zakharov et al.

L’intelligence artificielle a déjà démontré qu’il était possible de produire des deepfakes convaincants, mais elle nécessitait de multiples angles du sujet souhaité. Dans le cadre de cette nouvelle étude, les ingénieurs ont introduit l’intelligence artificielle dans un très grand ensemble de données de vidéos de référence montrant des visages humains en action. Ainsi, elle a pu apprendre d’elle-même, en créant sa propre interprétation de ce qu’est un visage humain et son comportement en mouvement.

Ensuite, ils ont formé l’IA à utiliser les expressions de référence pour cartographier le mouvement des entités de l’image source. Cela a permis au système de créer une simulation cohérente même si elle ne disposait que d’une seule image de base.

Et ce n’est pas tout : les chercheurs expliquent également que dans le cadre d’une session d’étude distincte impliquant l’utilisation de 32 images sources au lieu d’une seule, les simulations obtenues frôlaient la perfection.

Une technologie qui fait presque peur dites-vous ? On vous comprend. En effet, imaginez-vous que quiconque en possession d’une telle IA ainsi que de quelques photos de vous (et cela est très facile avec les réseaux sociaux), pourrait générer des séquences animées ultra-réalistes avec votre propre visage. Étant donné que les algorithmes d’imitation de la voix ne sont pas nouveaux, un mélange des deux technologies promettrait de produire des exemples (d’usurpation d’identité ?) sans égal, et avec une facilité déconcertante.

Sources : arXiv, YouTube (Egor Zakharov)

https://trustmyscience.com/