Des lunettes qui parlent aux malvoyants (font la lecture, reconnaissent objets et visages…)


Une lunette qui permet de lire ou de reconnaitre certains objets et visages pour les malvoyants est disponible en France. Espérons que cette technologie sera aussi disponible bientôt ailleurs dans le monde pour faciliter ceux qui ont des problèmes de vision
Nuage

 

Des lunettes qui parlent aux malvoyants (font la lecture, reconnaissent objets et visages…)

 

Le système MyEye de la société Orcam, qui inclut une caméra miniature et un logiciel basé sur des techniques d’intelligence artificielle, permet aux handicapés visuels de se faire lire le journal ou une notice d’utilisation, ou encore d’identifier des objets du quotidien et des visages, rapporte le site ZDNet.

Il peut notamment aider les personnes atteintes de dégénérescence maculaire liée à l’âge (DMLA).

Une caméra, qui se clippe sur une monture de lunettes, capture 30 images par seconde à la résolution de 1 million de pixels. De quoi reconnaître un texte pointé du doigt par l’utilisateur. Le texte est lu en temps réel à l’oreille de la personne.

« L’utilisateur pointe du doigt la zone de texte qu’il veut être lu par MyEye. La caméra peut aussi suivre le déplacement du doigt sur un texte, c’est très pratique pour la lecture d’un journal, où l’on va sauter d’un article à l’autre » explique Delphine Nabeth, chargée de la commercialisation.

La caméra permet aussi de reconnaître objets et visages.

« Ça ne marche pas avec les fruits et les légumes, les formes sont trop différentes à chaque fois. Mais cela fonctionne très bien avec des boites de céréales par exemple ».

Pour l’heure, 150 objets et 100 visages peuvent être stockés dans la base de données. Des capacités qui sont appelées à évoluer.

La caméra est pour l’heure reliée par fil à un boîtier de la taille d’un étui à lunettes qui héberge la batterie (autonomie de 6 heures en mode lecture) et le logiciel. Une future version devrait se passer de ce boîtier.

MyEye est disponible en France depuis octobre dernier dans un réseau d’opticiens. Le prix du dispositif varie entre 2 900 € et 3 900 €.

Orcam travaille à faire reconnaître l’appareil comme une prothèse visuelle en France. Cela pourrait permettre une prise en charge au moins partielle du dispositif par les mutuelles, à l’instar des prothèses auditives.

http://www.psychomedia.qc.ca/s

Les mouvements de votre souris peuvent révéler si vous mentez sur le web


C’est ingénieux comme moyen de repérer les fraudeurs grâce aux mouvements de la souris d’ordinateur et d’une question inattendue, mais à la longue, cela ne serait probablement pas toujours possible de voir qui sont les arnaqueurs
Nuage

 

Les mouvements de votre souris peuvent révéler si vous mentez sur le web

 

Un homme navigue sur le web avec sa souris dans un café à Pékin, en juin 2017. GREG BAKER / AFP

Un homme navigue sur le web avec sa souris dans un café à Pékin, en juin 2017. GREG BAKER / AFP

Repéré par Juliette Mitoyen —

Repéré sur Science Magazine

Un algorithme basé sur les mouvements des souris d’ordinateur permettrait de détecter les usurpateurs d’identité.

Tous les ans, des millions de gens se font voler leur identité sur internet, comme le montre Science Magazine. Quand quelqu’un veut s’en amuser pour pourrir votre compte Facebook d’informations compromettantes, c’est embêtant. Quand il s’agit de vous dérober des informations bancaires pour vider votre compte, ça devient très dangereux.

Une équipe de chercheurs de l’université de Padoue en Italie s’est penchée sur ce problème et a développé une intelligence artificielle pour y répondre: un algorithme analysant les mouvements des souris d’ordinateur.

Observer la trajectoire de la souris

L’expérience, publiée dans le journal Plos One, est assez simple. Les chercheurs ont demandé à une vingtaine de volontaires de mémoriser les détails d’une fausse identité. Ces personnes devaient ensuite répondre par oui ou non à une série de questions telles que «Quel est votre nom?» ou encore «Êtes vous né en 1991?» Parmi ces questions attendues par les testeurs, les chercheurs ont glissé des questions inattendues concernant leurs nouvelles identités, telle que «Quel est votre signe astrologique?» Des fraudeurs connaissent une date de naissance, mais n’ont pas forcément réfléchi au signe du zodiac de la personne dont ils usurpent l’identité.

Les chercheurs se sont alors improvisés chats, surveillant les faux-pas des souris. En observant le temps de réaction de la souris des volontaires et en regardant sa trajectoire depuis le bas de l’écran jusqu’aux cases oui et non, l’algorithme élaboré a su détecter les menteurs dans 90% à 95% des cas. Quand les testeurs répondaient à une question inattendue sur leur fausse identité, ils mettaient de fait plus de temps à répondre et effectuaient des mouvements de souris douteux –ils déviaient notamment de la ligne droite qui se trace logiquement quand on est sûr de sa réponse.

Une méthode réellement efficace?

Un concept novateur, mais difficile de dire s’il pourra être mis en application à grande échelle. Giorgia Ganis, neuroscientifique à l’université de Plymouth au Royaume-Uni, doute de l’efficacité de l’algorithme:

«Les criminels et les fraudeurs passent du temps à rechercher un maximum d’éléments sur l’histoire et l’identité de leurs victimes. Trouver des questions surprenantes ou déstabilisantes peut être compliqué.»

Mais selon Giuseppe Sartori, membre du groupe de chercheurs ayant élaboré l’algorithme, même si un fraudeur apprend une quantité de choses sur la personne dont il veut usurper l’identité, la liste des questions inattendues et donc potentiellement piégeuses reste illimitée.

http://www.slate.fr/

Cette intelligence artificielle génère des portraits à partir de croquis (et le résultat est parfois effrayant)


Pour que cette intelligence artificielle puisse donner le bon portrait à partir de croquis, mieux vaut savoir dessiner
Nuage

 

Cette intelligence artificielle génère des portraits à partir de croquis (et le résultat est parfois effrayant)

 

intelligence art

Certains ont peur qu’elle nous remplace, d’autres espèrent qu’elle va révolutionner le monde et nous faciliter la vie. Mais si l’intelligence artificielle est partout, c’est là où on ne l’attend pas qu’elle est toujours la plus surprenante.

Dernier exemple en date: le site « fotogenerator », qui permet de transformer une esquisse en un portrait, souvent bizarroïde. Celui-ci a été mis au point par la radio néerlendaise NPO le 30 mai dernier, rapporte DutchNews. Depuis, il est devenu très populaire: entre le 5 et le 7 juin, 250.000 images ont été générées.

Comment ça marche? La radio a utilisé Tensorflow, un outil gratuit mis en place par Google pour apprendre à une machine en la « nourrissant » d’exemples, précise The Verge. Ils ont alors donné à ce réseau de neurones artificiels 200 photos de Lara Rense, une journaliste de la radio. Résultat: l’intelligence artificielle essaye de créer un visage basé sur le visage de la présentatrice à partir des quelques traits tracés à l’écran.

portrait

Alors évidemment, quand le croquis est très joli et ressemble comme deux gouttes d’eau à la présentatrice, le résultat est bluffant. Par contre, quand on part de rien, c’est un peu plus compliqué, voire terrifiant. Ci-dessous, les expérimentations de la rédaction (n’hésitez pas à nous envoyer les vôtres).

croquis robot

intelligence art

portrait intelligent

croquis effrayants

portraits croquis laids

Ce n’est pas la première fois que cette technologie est utilisée pour réaliser des choses bizarres, rappelle The Verge. A l’instar de ce site qui permet de transformer n’importe quoi en une photo de chat. Ou de bouts de chats, c’est selon.

Voir l'image sur Twitter

 

Voir l'image sur Twitter

Voir l'image sur Twitter

http://quebec.huffingtonpost.ca

Un logiciel pour reconnaître les moutons malheureux


Dans le but de réagir plus vite aux blessures ou de maladies des moutons, les chercheurs ont placé une caméra qui scanne le visage des moutons. Il semble que cela fonctionne aussi pour le cheval, le lapin ou certains rongeurs
Nuage

 

Un logiciel pour reconnaître les moutons malheureux

 

Un programme informatique permettant de déterminer si les moutons souffrent ou sont malheureux a été mis au point par une équipe de chercheurs de l’université de Cambridge au Royaume-Uni dans le but d’améliorer leur bien-être.

Les scientifiques se sont appuyés sur près de 500 photos de moutons collectées par des vétérinaires pour élaborer un algorithme qui détecte certaines expressions sur la tête des ovins. Ils peuvent ainsi déterminer si l’animal souffre, et son degré de douleur.

Le logiciel décèle les yeux mi-clos, les joues creusées, les oreilles repliées, les lèvres étirées, ou les narines déformées, autant d’expressions de la douleur chez le mouton. Il fonctionne aussi pour d’autres espèces, notamment le cheval, le lapin ou certains rongeurs utilisés pour les expériences en laboratoire.

En installant des caméras sur des abreuvoirs ou dans des granges pour scanner le visage des bêtes, les scientifiques pensent pouvoir permettre aux fermiers de détecter plus rapidement les maladies et ou les blessures de leur bétail, et accélérer la mise en place des traitements.

Pour développer leur logiciel, les scientifiques se sont appuyés sur des recherches en intelligence artificielle visant à reconnaitre les émotions humaines.

« Une bonne partie du travail préparatoire avait été effectuée par Darwin », explique Peter Robinson, professeur au Laboratoire d’informatique de Cambridge, sur le site de l’Université.

Analogies entre l’homme et le mouton

« Il avait affirmé que les humains et les animaux exprimaient leurs émotions par des comportements similaires. On a donc voulu appliquer aux animaux certains de nos travaux sur les humains ».

« C’est intéressant de constater qu’il existe des analogies évidentes dans l’expression de la douleur sur le visage d’un humain ou d’un mouton », complète sa collègue Marwa Mahmoud.

Les scientifiques s’attachent désormais à élargir leur base de données, et de photos, pour perfectionner le logiciel.

« Je marche souvent dans la campagne, et depuis que je travaille sur ce projet, je me surprends à m’arrêter devant les moutons pour m’assurer qu’ils vont bien », conclut Peter Robinson.

http://www.7sur7.be

Traduire le langage des dauphins d’ici 2021, le pari fou de cette start-up


Comme tout autre animal, il serait bien de comprendre leur langage, leurs sons, enfin leur communication. Des chercheurs croient qu’avec l’Intelligence artificielle pourrait donner un sérieux coup de main à traduire la communication des dauphins. On ne sait jamais, et c’est peut-être plus réaliste que la colonisation sur Mars
Nuage

 

Traduire le langage des dauphins d’ici 2021, le pari fou de cette start-up

 

DOLPHINS

Le HuffPost  |  Par Grégory Rozières

Parler aux animaux, un vieux rêve qui pourrait devenir réalité? C’est le pari d’une start-up suédoise, qui espère arriver à déchiffrer ce que disent les dauphins d’ici 2021, rapporte Bloomberg.

La société, Gavagai (en référence à la théorie sur le langage du philosophe Quine), n’est pas spécialisée dans l’éthologie, mais dans l’intelligence artificielle. Elle travaille notamment depuis quelques années au développement d’un algorithme capable de comprendre les différents langages humains.

Mais pour une durée de quatre ans, le programme va désormais être utilisé, en partenariat avec l’Institut royal de technologie suédois, pour tenter de trouver un sens aux sons produits par les dauphins.

Pendant tout ce temps, les chercheurs vont analyser les communications de dauphins en captivité et espèrent que le programme développé par Gavagai va réussir à isoler le signal dans le bruit, à donner un sens aux sons.

Le PDG de la société, Lars Hamberg, estime dans The Local que l’idée de communiquer à terme avec des dauphins est « très réaliste, au vu des récentes avancées dans la science et la technologie, notamment concernant l’intelligence artificielle du langage ».

Selon lui, l’avantage de son programme, c’est qu’il cherche du sens plutôt qu’une structure et apprend en se nourrissant d’exemples.

Reste à voir si le résultat sera à la hauteur du coup de publicité. Comme le rappelle National Geographic, si de nombreux chercheurs estiment que les dauphins ont la possibilité d’élaborer des systèmes complexes de communication, les preuves manquent à l’appel.

Qui sait, l’intelligence artificielle permettra peut-être de percer à jour celle, plus naturelle, des dauphins.

http://quebec.huffingtonpost.ca

Des experts se questionnent sur les droits et limites de l’utilisation des robots


On se croirait dans le film Robot, quelles sont les lois que l’on doit accorder au robot. Peuvent-ils prendre des décisions d’ordre moral ? Doit-on laisser l’intelligence artificielle agir où s’en remettre seulement à l’être humain ?
Nuage

 

Des experts se questionnent sur les droits et limites de l’utilisation des robots

 

L'humain est de plus en plus transformé par les technologies.

L’humain est de plus en plus transformé par les technologies. Photo : iStock

Quels droits les robots doivent-ils avoir? Qui est responsable des actions d’une machine autonome : son fabricant ou son propriétaire? Des experts se penchent sur ces questions, rendues pressantes par les récents développements technologiques.

Un texte de David Savoie aux Années lumière

Des participants du monde entier, dont des roboticiens, des philosophes et des ingénieurs, étaient réunis à l’Université Laval à Québec, cette semaine, pour discuter des robots et de tout ce que représente leur présence dans notre société.

Ici, pas question de robots tueurs, ceux qui pourraient soumettre l’humanité à l’esclavage ou l’annihiler, comme dans le cas des films hollywoodiens. Mais plutôt de considérations assez terre à terre : voitures autonomes, intelligence artificielle et robots utilisés dans des maisons de retraite comme compagnons pour aînés.

Les intervenants ne manquent pas d’exemples pour démontrer l’urgence de se doter de règles pour encadrer les robots, leur conception et leur statut.

Par exemple, le cas de véhicules autonomes, développés en ce moment par des compagnies comme Google et Uber. Que doivent faire les véhicules devant la possibilité d’un accident? Comment la machine peut-elle trancher lorsque des vies doivent être préservées? Cette décision devrait-elle reposer sur des humains plutôt que sur un automate?

Des machines au statut moral?

« Il y a une pression à trouver une solution face à ces problèmes », soutient Tomislav Bracanovic, professeur de philosophie des sciences et de l’éthique de l’Université de Zagreb, en Croatie.

Il n’y a pas d’encadrement comme c’est le cas dans d’autres disciplines académiques ou scientifiques, comme la médecine. Pourtant, la robotique pourrait avoir des impacts sérieux sur les êtres humains.

Tomislav Bracanovic, professeur de philosophie des sciences et de l’éthique à l’Université de Zagreb

Pour le philosophe, la robotique, particulièrement la biorobotique, est si avancée qu’elle porte la promesse de créer des êtres qui seront similaires à l’humain à plusieurs égards, ou même supérieurs à l’homme.

« C’est important : comment allons-nous traiter ces êtres et doivent-ils avoir un statut moral ou des droits pour éviter les abus? »

D’autres aspects ont aussi été évoqués durant les discussions, entre autres la question juridique. Charles-Étienne Daniel, doctorant en droit à l’Université de Sherbrooke, s’intéresse à la question de la robotique, un domaine où les lois canadiennes paraissent peu adaptées.

« Sur le plan du droit réglementaire, est-ce qu’on doit élaborer des catégories spécifiques à la robotique? Est-ce qu’on doit prévoir les différents risques qui peuvent se poser, comment ces cadres-là vont se mettre en place? » se demande-t-il.

Ces échanges entre des roboticiens, des ingénieurs et des philosophes constituent les débuts d’un dialogue entre les disciplines, selon Alexandre Pitti, qui est roboticien et maître de conférence à l’Université Cergy-Pontoise, en France.

Une voiture autonome est testée à Pittsburgh.

Une voiture autonome est testée à Pittsburgh. Photo : La Presse canadienne/Jared Wickerham

Une première mondiale

Un robot doit-il être soumis aux trois lois de la robotique, ces règles inventées par l’auteur de science-fiction Isaac Asimov, dans les années 40?

« Ce sont de vraies questions, parce que les robots, on est en train de les programmer, donc sur un plan pratique, il est important de penser les normes d’actions sociales et les régulations sociales », estime Marie-Hélène Parizeau, professeure de philosophie à l’Université Laval et organisatrice du colloque.

Elle est également la présidente de la Commission mondiale de l’éthique des connaissances scientifiques et des technologies (COMEST) de l’UNESCO. À l’issue de ces discussions, le comité va déposer un rapport en septembre au sujet de l’éthique des robots, qui sera remis aux États membres de l’UNESCO.

Une éthique pour les machines?

C’est une des questions qui est revenue régulièrement dans les discussions : comment établir la responsabilité juridique des machines, et comment un robot peut prendre une décision aux conséquences morales?

Plutôt que de s’attaquer de front à cette épineuse question, la professeure en ingénierie électrique de l’Université de Tel-Aviv Hagit Messer-Yaron propose de contourner le problème avec une charte qui vise à restreindre les décisions que pourraient prendre des machines. Une solution imparfaite, concède-t-elle, mais une approche pragmatique qui pourrait être mise en place rapidement.

La charte qu’elle propose couvrirait l’ensemble des situations : certains moments où la machine suit les algorithmes déterministes qui font partie de son programme, alors que dans d’autres circonstances – par exemple lorsqu’il est question de vie ou de mort – la machine ne prendrait pas de décisions, un être humain serait en charge de le faire. Et enfin, le robot décidera d’éléments avec peu ou moins d’impacts sur l’homme, comme le chemin le plus court à prendre, par exemple.

Selon elle, cela éviterait de devoir tenter de programmer les machines en fonction de critères moraux.

« Les décisions reposeraient sur des codes moraux qui existent déjà pour les hommes. Cette solution pourrait servir de cadre aux débats actuels à ce sujet », fait-elle valoir. « Je suis une ingénieure, je cherche une solution pratique », dit-elle en riant.

http://ici.radio-canada.ca/

Une intelligence artificielle détecte les criminels grâce à leurs ondes cérébrales


Si l’intelligence artificielle peut détecter un crime en temps réel, pourrait-il le faire quand un crime est passé ? C’est ce que les scientifiques essaient de réaliser pour que cette technologie puisse servir à la justice.
Nuage

 

Une intelligence artificielle détecte les criminels grâce à leurs ondes cérébrales

 

Le HuffPost  |  Par Gregory Rozieres

 

La sentence du robot est tombée, l’accusé est déclaré coupable de trafic de drogue. Cette scène est totalement fictive, mais pourrait-elle devenir réalité un jour? Dans une étude publiée ce lundi 13 mars, des chercheurs affirment avoir réussi à détecter si une personne a réalisé une action criminelle simplement en analysant son cerveau, rapporte le Guardian.

Pour réaliser cet exploit, une première, les scientifiques ont scanné les ondes cérébrales de cobayes, grâce à un IRMf, qui permet de mesurer l’activité de nos méninges, puis ont analysé les résultats à l’aide d’une intelligence artificielle.

Attention, cela ne veut pas dire que l’on pourra bientôt dire grâce à cette technique si quelqu’un est coupable. D’abord, l’étude, publiée dans la revue Pnas, devra être répliquée sur des milliers d’autres personnes pour vérifier sa véracité. Surtout, pour arriver à ces résultats, les chercheurs ont analysé l’activité du cerveau au moment même de la réalisation d’un crime fictif. En général, on n’enfreint pas la loi tout en se trouvant dans un scanner.

Valises et prise de risques

Ils ont demandé à 40 personnes d’utiliser un petit jeu sur ordinateur où on leur demandait de traverser une frontière équipés d’une valise. Certains savaient clairement que le bagage contenait du matériel de contrebande. Les autres devaient choisir une valise parmi 5, en sachant que l’une d’entre elles contenait des choses illégales. Il y avait donc un risque, mais aucune certitude.

Pendant tout ce temps, leur activité cérébrale était enregistrée. Ensuite, une intelligence artificielle a été utilisée pour comparer les résultats du scanner. Celle-ci a réussi à détecter, avec une grande précision, des activités dans certaines zones du cerveau en fonction de la situation. Bref, à faire la distinction entre ceux qui ont enfreint la loi consciemment et ceux qui ont pris un simple risque, sans être sûr de faire quelque chose d’illégal.

artificial intelligence

Encore une fois, ces résultats n’ont pu être obtenus qu’en analysant le cerveau en temps réel. Cela semble donc très difficile d’imaginer pour le moment des applications pratiques. Mais plusieurs pistes de recherche pourraient affiner la technique.

Remémorer les crimes passés ?

Déjà, il va falloir que d’autres études tentent de réitérer les résultats, pour être certain de ce lien entre l’activité des zones cérébrales et la réalisation d’un crime. Il faudra également mieux cerner ces zones cérébrales, comprendre pourquoi elles s’activent, ou encore si c’est le cas quel que soit le type de crime.

Si ces premiers résultats sont confirmés, il serait alors intéressant de voir si le cerveau réagit de la même manière quand on montre à quelqu’un les lieux d’un crime qu’il a commis dans le passé, estiment les chercheurs. Des possibilités énormes et renversantes, qui, si elles se concrétisent dans plusieurs années, nécessiteront un débat sur l’utilisation de telles technologies par la justice.

http://quebec.huffingtonpost.ca/