Des experts se questionnent sur les droits et limites de l’utilisation des robots


On se croirait dans le film Robot, quelles sont les lois que l’on doit accorder au robot. Peuvent-ils prendre des décisions d’ordre moral ? Doit-on laisser l’intelligence artificielle agir où s’en remettre seulement à l’être humain ?
Nuage

 

Des experts se questionnent sur les droits et limites de l’utilisation des robots

 

L'humain est de plus en plus transformé par les technologies.

L’humain est de plus en plus transformé par les technologies. Photo : iStock

Quels droits les robots doivent-ils avoir? Qui est responsable des actions d’une machine autonome : son fabricant ou son propriétaire? Des experts se penchent sur ces questions, rendues pressantes par les récents développements technologiques.

Un texte de David Savoie aux Années lumière

Des participants du monde entier, dont des roboticiens, des philosophes et des ingénieurs, étaient réunis à l’Université Laval à Québec, cette semaine, pour discuter des robots et de tout ce que représente leur présence dans notre société.

Ici, pas question de robots tueurs, ceux qui pourraient soumettre l’humanité à l’esclavage ou l’annihiler, comme dans le cas des films hollywoodiens. Mais plutôt de considérations assez terre à terre : voitures autonomes, intelligence artificielle et robots utilisés dans des maisons de retraite comme compagnons pour aînés.

Les intervenants ne manquent pas d’exemples pour démontrer l’urgence de se doter de règles pour encadrer les robots, leur conception et leur statut.

Par exemple, le cas de véhicules autonomes, développés en ce moment par des compagnies comme Google et Uber. Que doivent faire les véhicules devant la possibilité d’un accident? Comment la machine peut-elle trancher lorsque des vies doivent être préservées? Cette décision devrait-elle reposer sur des humains plutôt que sur un automate?

Des machines au statut moral?

« Il y a une pression à trouver une solution face à ces problèmes », soutient Tomislav Bracanovic, professeur de philosophie des sciences et de l’éthique de l’Université de Zagreb, en Croatie.

Il n’y a pas d’encadrement comme c’est le cas dans d’autres disciplines académiques ou scientifiques, comme la médecine. Pourtant, la robotique pourrait avoir des impacts sérieux sur les êtres humains.

Tomislav Bracanovic, professeur de philosophie des sciences et de l’éthique à l’Université de Zagreb

Pour le philosophe, la robotique, particulièrement la biorobotique, est si avancée qu’elle porte la promesse de créer des êtres qui seront similaires à l’humain à plusieurs égards, ou même supérieurs à l’homme.

« C’est important : comment allons-nous traiter ces êtres et doivent-ils avoir un statut moral ou des droits pour éviter les abus? »

D’autres aspects ont aussi été évoqués durant les discussions, entre autres la question juridique. Charles-Étienne Daniel, doctorant en droit à l’Université de Sherbrooke, s’intéresse à la question de la robotique, un domaine où les lois canadiennes paraissent peu adaptées.

« Sur le plan du droit réglementaire, est-ce qu’on doit élaborer des catégories spécifiques à la robotique? Est-ce qu’on doit prévoir les différents risques qui peuvent se poser, comment ces cadres-là vont se mettre en place? » se demande-t-il.

Ces échanges entre des roboticiens, des ingénieurs et des philosophes constituent les débuts d’un dialogue entre les disciplines, selon Alexandre Pitti, qui est roboticien et maître de conférence à l’Université Cergy-Pontoise, en France.

Une voiture autonome est testée à Pittsburgh.

Une voiture autonome est testée à Pittsburgh. Photo : La Presse canadienne/Jared Wickerham

Une première mondiale

Un robot doit-il être soumis aux trois lois de la robotique, ces règles inventées par l’auteur de science-fiction Isaac Asimov, dans les années 40?

« Ce sont de vraies questions, parce que les robots, on est en train de les programmer, donc sur un plan pratique, il est important de penser les normes d’actions sociales et les régulations sociales », estime Marie-Hélène Parizeau, professeure de philosophie à l’Université Laval et organisatrice du colloque.

Elle est également la présidente de la Commission mondiale de l’éthique des connaissances scientifiques et des technologies (COMEST) de l’UNESCO. À l’issue de ces discussions, le comité va déposer un rapport en septembre au sujet de l’éthique des robots, qui sera remis aux États membres de l’UNESCO.

Une éthique pour les machines?

C’est une des questions qui est revenue régulièrement dans les discussions : comment établir la responsabilité juridique des machines, et comment un robot peut prendre une décision aux conséquences morales?

Plutôt que de s’attaquer de front à cette épineuse question, la professeure en ingénierie électrique de l’Université de Tel-Aviv Hagit Messer-Yaron propose de contourner le problème avec une charte qui vise à restreindre les décisions que pourraient prendre des machines. Une solution imparfaite, concède-t-elle, mais une approche pragmatique qui pourrait être mise en place rapidement.

La charte qu’elle propose couvrirait l’ensemble des situations : certains moments où la machine suit les algorithmes déterministes qui font partie de son programme, alors que dans d’autres circonstances – par exemple lorsqu’il est question de vie ou de mort – la machine ne prendrait pas de décisions, un être humain serait en charge de le faire. Et enfin, le robot décidera d’éléments avec peu ou moins d’impacts sur l’homme, comme le chemin le plus court à prendre, par exemple.

Selon elle, cela éviterait de devoir tenter de programmer les machines en fonction de critères moraux.

« Les décisions reposeraient sur des codes moraux qui existent déjà pour les hommes. Cette solution pourrait servir de cadre aux débats actuels à ce sujet », fait-elle valoir. « Je suis une ingénieure, je cherche une solution pratique », dit-elle en riant.

http://ici.radio-canada.ca/

Une intelligence artificielle détecte les criminels grâce à leurs ondes cérébrales


Si l’intelligence artificielle peut détecter un crime en temps réel, pourrait-il le faire quand un crime est passé ? C’est ce que les scientifiques essaient de réaliser pour que cette technologie puisse servir à la justice.
Nuage

 

Une intelligence artificielle détecte les criminels grâce à leurs ondes cérébrales

 

Le HuffPost  |  Par Gregory Rozieres

 

La sentence du robot est tombée, l’accusé est déclaré coupable de trafic de drogue. Cette scène est totalement fictive, mais pourrait-elle devenir réalité un jour? Dans une étude publiée ce lundi 13 mars, des chercheurs affirment avoir réussi à détecter si une personne a réalisé une action criminelle simplement en analysant son cerveau, rapporte le Guardian.

Pour réaliser cet exploit, une première, les scientifiques ont scanné les ondes cérébrales de cobayes, grâce à un IRMf, qui permet de mesurer l’activité de nos méninges, puis ont analysé les résultats à l’aide d’une intelligence artificielle.

Attention, cela ne veut pas dire que l’on pourra bientôt dire grâce à cette technique si quelqu’un est coupable. D’abord, l’étude, publiée dans la revue Pnas, devra être répliquée sur des milliers d’autres personnes pour vérifier sa véracité. Surtout, pour arriver à ces résultats, les chercheurs ont analysé l’activité du cerveau au moment même de la réalisation d’un crime fictif. En général, on n’enfreint pas la loi tout en se trouvant dans un scanner.

Valises et prise de risques

Ils ont demandé à 40 personnes d’utiliser un petit jeu sur ordinateur où on leur demandait de traverser une frontière équipés d’une valise. Certains savaient clairement que le bagage contenait du matériel de contrebande. Les autres devaient choisir une valise parmi 5, en sachant que l’une d’entre elles contenait des choses illégales. Il y avait donc un risque, mais aucune certitude.

Pendant tout ce temps, leur activité cérébrale était enregistrée. Ensuite, une intelligence artificielle a été utilisée pour comparer les résultats du scanner. Celle-ci a réussi à détecter, avec une grande précision, des activités dans certaines zones du cerveau en fonction de la situation. Bref, à faire la distinction entre ceux qui ont enfreint la loi consciemment et ceux qui ont pris un simple risque, sans être sûr de faire quelque chose d’illégal.

artificial intelligence

Encore une fois, ces résultats n’ont pu être obtenus qu’en analysant le cerveau en temps réel. Cela semble donc très difficile d’imaginer pour le moment des applications pratiques. Mais plusieurs pistes de recherche pourraient affiner la technique.

Remémorer les crimes passés ?

Déjà, il va falloir que d’autres études tentent de réitérer les résultats, pour être certain de ce lien entre l’activité des zones cérébrales et la réalisation d’un crime. Il faudra également mieux cerner ces zones cérébrales, comprendre pourquoi elles s’activent, ou encore si c’est le cas quel que soit le type de crime.

Si ces premiers résultats sont confirmés, il serait alors intéressant de voir si le cerveau réagit de la même manière quand on montre à quelqu’un les lieux d’un crime qu’il a commis dans le passé, estiment les chercheurs. Des possibilités énormes et renversantes, qui, si elles se concrétisent dans plusieurs années, nécessiteront un débat sur l’utilisation de telles technologies par la justice.

http://quebec.huffingtonpost.ca/

Les ascenseurs sont intelligents et parlent désormais entre eux


Je n’ai pas peur des ascenseurs, malgré qu’à 5 ans, j’ai embarqué trop vite que mes parents n’ont pas pu me rejoindre. La panique totale ! On m’a entendu crier de plusieurs étages. Bref, la conversation entre ascenseurs pourrait probablement aider les enfants qui sont pris au piège seul. Mais, je ne suis pas certaine que ce soit une bonne chose pour autant
Nuage

 

Les ascenseurs sont intelligents et parlent désormais entre eux

 

Elevator hall | heiwa4126 via Flickr CC License by

Elevator hall | heiwa4126 via Flickr CC License by

Repéré par Xavier Ridel

Est-ce la fin de l’ascensumophobie, ou le début de son apogée?

 

Le temps où l’on redoutait de rester bloqué dans un ascenseur sera bientôt révolu. En effet, comme l’a relevé le site américain Quartz, les machines sont aujourd’hui intelligentes et capables de prévenir leur société mère dès qu’il y a le moindre problème. Mieux encore: il est désormais possible d’entendre ces ascenseurs discuter entre eux, en direct.

C’est la compagnie norvégienne Kone, spécialisée dans les escalators et les ascenseurs, qui s’est lancée sur ce créneau. Elle a annoncé cette semaine un partenariat avec IBM, qui a intégré aux équipements de l’ascensoriste son programme d’intelligence artificielle, Watson, pour un projet appelé «24/7 Connected Services». Comme il est impossible de visualiser la discussion que peuvent avoir deux intelligences artificielles entre elles, la société d’informatique s’est donc appliquée à traduire pour les humains ce langage impalpable qui est celui de nos machines. Si cette conversation n’est pas destinée aux occupants de l’ascenseur, celle-ci s’écoute et se visualise en temps réel à cette adresse.

Tandis que la voix masculine —l’ascenseur— donne des informations sur ses activités, la voix féminine —le «cloud» de Kone— lui répond et lui intime parfois l’ordre de patienter, comme sur la capture d’écran ci-dessous:

«Je confirme, tu es inactif.

– J’attends des passagers.

– Tu es à l’arrêt. Vérification.

– Prêt à me remettre en route.

– Attends. Quelqu’un arrive bientôt.»

Si minime que puisse paraître cette avancée, assister à ce genre de discussion provoque un effet assez étrange, à la fois fascinant, glaçant et réconfortant; et pourrait bien donner un (très) bref aperçu de ce à quoi ressemblera le futur.

http://www.slate.fr/

Emploi: savoir faire ce que la machine ne fait pas


Avec les robots et l’intelligence artificielle de plus en plus perfectionné que sera l’avenir pour les futurs adultes aptes au travail.? Dans quel domaine, ils pourront se démarquer ? Quels sont les atouts que l’être humain surpassent les robots et l’intelligence artificielle ?
Nuage

 

Emploi: savoir faire ce que la machine ne fait pas

Le Huffington Post Québec  |  Par Laurence Houde-Roy

Alors qu’au moins 5 millions d’emplois seront remplacés par des robots ou par des services d’intelligence artificielle d’ici 3 ans dans le monde, plusieurs travailleurs tenteront de sauver leur emploi et d’échapper à cette transformation du milieu.

Pour affronter cette situation et éviter de se faire remplacer par la technologie, il ne suffit pas que d’être prêt pour le marché du travail («job ready»), ont fait valoir des experts du milieu universitaire lors d’une conférence au dernier Forum économique mondial, à Davos, il faut carrément être prêt pour le futur («futur ready»).

Les tâches dans le milieu industriel sont depuis longtemps remplacées par l’automatisation, et plus récemment, même l’analyse de données dans le milieu financier et médical a été remplacée par l’intelligence artificielle. Sans parler que la voiture autonome, qui semblait être une lubie de l’esprit il y a 3 ans, se promène déjà dans certaines villes à travers le monde.

Pourtant, le secret n’est pas de compétitionner contre la robotique, disent les experts, mais plutôt de perfectionner ce que la machine ne pourra jamais faire : être un humain.

«Parce que ce qui va compter, c’est cette capacité de voir un peu plus loin que le robot; cette créativité qui est encore très difficile à codifier dans un logiciel, précise Suzanne Fortier, principale et vice-chancelière de l’Université McGill, qui était l’une des conférencières. Alors on sait très bien que la créativité va demeurer un atout de l’être humain par rapport au robot.»

Mme Fortier nomme également d’autres habiletés humaines comme le leadership, la capacité à prendre des décisions, l’évaluation du risque et la résilience qu’il faut cultiver afin de se démarquer du robot et devenir un complément essentiel.

«Il y a la compassion, aussi. Un robot peut nous sembler très sympathique, mais pour comprendre l’être humain, avec sa complexité, ce n’est pas encore quelque chose qu’on peut facilement codifier. Et dans le domaine médical, notamment, c’est nécessaire», ajoute-t-elle.

Même son de cloche du côté d’Erik Brynjolfsson, directeur de l’Initiative on the Digital Economy au Massachusetts Institute of Technology (MIT), qui était également panelliste.

Selon lui, «suivre des instructions, mémoriser des faits, c’est ce que les machines font. Ce que les humains ont de plus, c’est la créativité, une intelligence émotionnelle, la capacité de penser différemment. Pour vous démarquer, vous devez faire des choses que les machines ne font pas bien», explique l’expert.

Suzanne Fortier résume son idée par trois lettres qui distingue l’Homme de la machine : RDD (Recherche, Développement et Design).

«L’homme a d’abord cette forte capacité de rechercher encore plus profonde, plus précise, que la machine. Il peut ensuite développer son idée avec leadership et en analysant le risque. Enfin, le design permet de faire le pas entre la découverte et l’être humain, de développer son idée en l’adaptant aux besoins de l’être humain», précise la vice-chancelière.

Ainsi, elle estime qu’un étudiant devrait choisir un domaine qui lui plaît réellement, dans lequel il a envie d’apprendre plus quotidiennement.

«Et dans ce qui l’intéresse, il lui faut regarder les types d’emplois qui font appel aux RDD, afin de rester toujours indispensable et complémentaire à la machine», explique-t-elle.

Pour cela, une large connaissance du monde qui nous entoure est nécessaire, rappelle-t-elle, en incluant les arts et l’étude d’autres cultures.

«C’est ce qui fait mousser la créativité, et nous rend «futur ready»», précise Suzanne Fortier.

http://quebec.huffingtonpost.ca/

Quand l’intelligence artificielle prédit la mort


Intéressant comme logiciel, cela permettrait d’agir plus vite et mieux dans les traitements pour les maladies cardiaques
Nuage

 

Quand l’intelligence artificielle prédit la mort

 

Image d'un coeur vu par un logiciel

Le coeur en 3D tel que vu par le logiciel.   Photo : London Institute of Medical Sciences

Un logiciel permet maintenant de prédire quand le cœur d’une personne atteinte d’une maladie cardiaque cessera de battre, et ce, beaucoup plus précisément qu’avec les moyens actuels.

Un texte d’Alain Labelle

Le Dr Declan O’Regan, du London Institute of Medical Sciences, explique que ce logiciel aidera éventuellement les médecins à identifier les patients en danger de mort et qui nécessitent plus d’attention et des traitements rapides.

Le logiciel en question apprend à analyser les tests sanguins et des examens cardiaques pour détecter les signaux de défaillance de l’organe.

C’est la première fois qu’un ordinateur peut interpréter des examens cardiaques pour prédire avec précision combien de temps un patient vivra.

Dr Declan O’Regan

Par exemple, l’ordinateur permet de prédire, avec une précision allant jusqu’à 80 %, la survie à un an. La précision est de 60 % à l’heure actuelle.

Un médecin équipé de ce logiciel serait donc en mesure d’établir un diagnostic plus éclairé que s’il fondait son analyse uniquement sur les moyens actuels.

Ce logiciel d’intelligence artificielle analyse automatiquement les images en mouvement du cœur d’un patient prises au cours d’un examen par résonnance magnétique.

Il utilise ensuite un traitement avancé d’images pour construire un « cœur virtuel en 3D » , qui reproduit la contraction du cœur au cours de chaque battement en pas moins de 30 000 points d’analyse.

Les chercheurs ont alimenté le logiciel de données de centaines de patients, puis ont lié ces données à des modèles.

Le logiciel a appris quels attributs d’un cœur, de sa forme à sa structure, le mettent en danger. Il peut ainsi établir le risque d’insuffisance cardiaque d’une personne à 5 ans.

Le logiciel a été développé en utilisant les données de patients présentant une hypertension pulmonaire, maladie par laquelle la haute pression dans les vaisseaux sanguins qui alimentent les poumons met aussi de la pression sur le côté droit du cœur.

Or, avec le temps, cette situation endommage progressivement le cœur et cause sa défaillance. Le tiers des personnes atteintes meurent dans les cinq ans après leur diagnostic.

On estime que 2000 à 5000 Canadiens ont reçu un diagnostic d’hypertension pulmonaire, mais que jusqu’à 10 000 Canadiens pourraient en être atteints sans le savoir.

Les chercheurs britanniques veulent maintenant tester cette technologie avec d’autres formes de problèmes cardiaques, comme la cardiomyopathie. Elle pourrait ainsi servir à établir si un patient a besoin d’un stimulateur cardiaque ou d’une autre forme de traitement.

En outre, ils veulent tester leur logiciel dans d’autres hôpitaux avant de décider s’ils le rendront disponible chez l’ensemble des médecins.

Le détail de ces travaux est publié dans le journal Radiology.

http://ici.radio-canada.ca/

5 raisons qui vont vous donner envie de protéger vos données sur Internet en 2017


Internet, les technologies connectées, intelligences artificielles sont tous susceptible d’être piratés pour avoir des renseignements sur des personnes, des sociétés, des hôpitaux, le gouvernement tout.
Nuage

 

5 raisons qui vont vous donner envie de protéger vos données sur Internet en 2017

 

Emmanuel Mériot

Directeur France chez Darktrace

Les cyberattaques qui ont fait la une des journaux cette année, tels que le vol d’argent à la Bangladesh Bank et le piratage des comptes Yahoo !, n’offrent qu’un aperçu de la cyberguerre que se livrent chaque jour, à grande échelle, les hackers et les spécialistes de la sécurité. Cette année nous a montré, plus que jamais, que si quelqu’un entend réellement forcer votre réseau, il y parviendra.

Voici les prévisions en matière de cybersécurité pour l’année 2017.

1. Les pirates ne se contenteront plus de voler les données, ils les modifieront

Aujourd’hui, les hackers les plus compétents ne s’arrêtent pas au simple vol de données, ils se fixent un objectif plus subtil: l’intégrité des données.

Ce scénario est particulièrement inquiétant pour les secteurs qui s’appuient fortement sur une relation de confiance avec le public. Un laboratoire qui ne peut plus garantir la fidélité des résultats de ses essais cliniques, ou une banque dont les soldes de comptes ont été falsifiés, constituent les exemples les plus évidents d’entreprises présentant un risque majeur. Les pouvoirs publics pourraient également faire les frais de ce type d’attaques, engendrant une défiance croissante des citoyens à l’égard des institutions nationales.

Ces «attaques de réputation» pourraient également être déployées pour perturber les marchés financiers. Nous avons déjà eu un aperçu de ce risque potentiel de cyberattaques lors d’opérations de fusion-acquisition. Est-ce une coïncidence si le hack de Yahoo! est survenu alors que Verizon s’apprêtait à racheter la société?

Ces attaques ont également la faculté d’influencer l’opinion publique. Une nation ou tout autre groupe possédant une technologie avancée pourrait non seulement divulguer des courriels, mais les manipuler pour donner l’impression trompeuse qu’un candidat a commis une action illégale ou malhonnête.

2. Les attaques (et les menaces latentes) proviendront davantage de l’intérieur

Les initiés représentent souvent la source des attaques les plus dangereuses. Ils sont plus difficiles à détecter, car ils utilisent des identifiants utilisateurs valables. Ils peuvent provoquer un maximum de dommages du fait qu’ils connaissent les informations nécessaires à leur mission et sont autorisés à y accéder; ils peuvent ainsi circuler entre les segments des réseaux.

Mais les menaces intérieures ne proviennent pas seulement de salariés remontés contre une institution. Des initiés n’ayant aucune intention malveillante peuvent tout à fait constituer une faille, au même titre que des saboteurs réfléchis. Combien de fois avez-vous cliqué sur un lien sans revérifier l’adresse courriel de l’envoyeur?

Pour la seule année passée, les techniques de défense des systèmes immunitaires en entreprise ont capté une multitude de menaces intérieures, notamment un employé exfiltrant délibérément une base de données client une semaine avant l’échéance de son contrat; un développeur de jeu transmettant le code source à son adresse courriel personnelle afin de pouvoir travailler de chez lui le week-end… Cette liste n’est pas exhaustive.

3. L’Internet des objets va devenir l’Internet des failles

En 2016, certains des piratages les plus sophistiqués contre des entreprises impliquaient des objets connectés. Lors de la brèche dans le service DNS Dyn en octobre, un malware s’est rapidement répandu dans un nombre inédit d’appareils. Mais la plupart des piratages d’IdO survenus dans l’année n’ont pas été divulgués; ils incluent des imprimantes, des unités d’air conditionné, des caméras de vidéoconférence, et même des machines à café.

Parmi ces attaques, nombre d’entre elles ont utilisé les appareils IdO comme porte d’entrée pour atteindre des périmètres du réseau plus intéressants. Cette année, l’une des menaces les plus marquantes que nous avons connues portait sur le scanner d’empreintes digitales contrôlant l’accès à une importante usine. Cette menace a été déjouée, les pirates ayant été attrapés alors qu’ils s’apprêtaient à remplacer certaines données biométriques par leur propres empreintes afin d’obtenir un accès physique au site.

4. Les appareils des utilisateurs serviront à demander des (cyber-) rançons

Les ransomware, ces logiciels de rançon malveillants, ont mis à mal de nombreuses sociétés à travers le monde. Ces malwares sont utilisés pour crypter des fichiers à une vitesse telle qu’il est virtuellement impossible de suivre le rythme, et forcent les sociétés à payer des rançons élevées pour s’en libérer.

Les hôpitaux constituent aujourd’hui des cibles de choix, étant devenus de véritables jungles numériques particulièrement bien garnies, depuis les équipements médicaux vitaux et les fichiers patients essentiels, jusqu’aux appareils des patients et aux ordinateurs des employés. Cette année, le Hollywood Presbyterian Medical Center de Los Angeles a payé l’équivalent de 17 000 $US en Bitcoin à des maîtres chanteurs, après que ses ordinateurs aient été mis hors service pendant une semaine.

En 2017 et au-delà, nous allons assister au début d’un nouveau type d’extorsion au niveau micro, avec des utilisateurs pris pour cible via un large choix d’objets connectés. Imaginez: si le nouveau GPS installé dans votre voiture était piraté alors que vous êtes déjà en retard pour un rendez-vous, combien seriez-vous prêt à débourser pour le rendre de nouveau utilisable?

5. L’intelligence artificielle deviendra malveillante

L’intelligence artificielle est formidable dans bien des domaines: voitures autonomes, assistants virtuels, amélioration des prévisions météorologiques, la liste est longue. Mais l’intelligence artificielle peut également être utilisée par des pirates pour mener des attaques hautement sophistiquées et persistantes, qui se perdent dans le bruit des réseaux.

En 2017, il faut s’attendre à ce que l’IA soit utilisée à tous les niveaux d’une cyberattaque. Cela inclut la faculté de mener des campagnes d’hameçonnage sophistiquées et sur mesure qui parviendront à tromper même le plus méfiant des employés.

Les pirates de l’année prochaine en savent plus sur vous que ce que dit votre profil sur les réseaux sociaux. Ils savent que votre rendez-vous de 10h00 avec votre fournisseur aura lieu à son nouveau siège social. À 9h15, un courriel dont l’objet sera: «Adresse de nos nouveaux locaux» arrivera dans votre boîte aux lettres, apparemment en provenance de la personne avec qui vous avez rendez-vous, alors même que vous descendez du train. Question: cliquez-vous sur le lien avec le plan qui figure dans le message?

http://quebec.huffingtonpost.ca/

Elle discute par sms avec son ami mort


Je ne crois pas que cela soit une bonne chose de communiquer avec un avatar représentant une personne aimée, mais décédée, qu’utiliser des archives de conversation avec l’intelligence artificielle, n’aide pas à faire un deuil difficile
Nuage

Elle discute par sms avec son ami mort

 

Fantasme de l’immortalité ou dérive de l’intelligence artificielle?

La start-up américaine Luka travaille depuis quelques années sur l’intelligence artificielle et propose des services personnalisés à sa clientèle. Un jour, devant un épisode de Black Mirror, son CEO Eugenia Kuyda pense à son ami décédé et lui vient l’idée de reproduire le concept de la série: concevoir un avatar du défunt pour atténuer la souffrance du deuil, relate dans un article consacré L’Obs/Rue89

Conversation virtuelle

Elle récolte alors tous les sms, tous les courriels, tous les échanges avec son ami disparu et créé un « chatbot » de toutes pièces, soit une intelligence artificielle capable de dialoguer avec elle en s’inspirant des archives et du style développé tout au long de leurs années de communication. L’avatar de Roman Mazurenko prend vie, une étrange conversation à découvrir sur le site spécialisé The Verge.

Réflexion

L’expérience questionne avant tout le concept de la mort et l’incompréhension croissante de ce statut au sein de la société actuelle, sa non-acceptation à l’heure du monde ultraconnecté où les morts peuvent survivre virtuellement et donner l’illusion d’interagir d’outre-tombe. Une démarche qui ne facilite en rien le travail du deuil.

http://www.7sur7.be/