Quand les algorithmes influencent les peines de prison


Je veux bien croire que tout est mathématique, il n’est pas judicieux à mon avis, de laisser les algorithmes faire des prédictions sur un détenu dans un tribunal, et cela, même, si le dernier mot revient au juge.
Nuage

 

Quand les algorithmes influencent les peines de prison

 

Un marteau de bois et le plateau d'une balance.

L’utilisation des algorithmes pour prédire les crimes et les risques de récidive est vivement critiquée par les organismes de défense des libertés civiles. Photo: iStock

Des algorithmes s’invitent de plus en plus dans les procès aux États-Unis, où ils aident à déterminer le risque de récidive d’un accusé… et à décider s’il devrait être emprisonné ou relâché. Des prédictions trop souvent faussées par des données historiques non pertinentes, rapporte le magazine MIT Technology Review.

Devant composer avec l’impératif de réduire le nombre de prisonniers sans augmenter le taux de criminalité, le système judiciaire américain se tourne de plus en plus vers des outils technologiques pour tenter d’améliorer son efficacité.

Après les algorithmes prédicteurs de crimes pour les policiers, voilà maintenant que l’intelligence artificielle prétend pouvoir accorder un pointage aux accusés en cour. Ce pointage, obtenu en colligeant des données sur le profil de la personne et des données historiques, permettrait de connaître le risque que poserait l’accusé s’il était remis en liberté.

Il revient ensuite au juge de tenir compte ou non de ce pointage dans ses décisions : choix des services de redressement, emprisonnement ou non pendant le procès, sévérité de la peine, etc.

Les personnes en faveur de l’utilisation de l’intelligence artificielle par les tribunaux estiment que les algorithmes pourraient réduire, voire éliminer la partialité des juges en basant les décisions uniquement sur des données.

Des algorithmes biaisés, dénoncent des opposants

Mais c’est justement la question de la partialité qui dérange les opposants à cette technologie. Ceux-ci croient plutôt que ces algorithmes sont intrinsèquement biaisés, puisqu’ils se basent sur des données historiques pour effectuer certaines prédictions.

Les outils de ce genre tentent de trouver des corrélations dans de grandes quantités de données. Comme les communautés à faible revenu et les minorités ont historiquement été davantage ciblées par les forces de l’ordre, les outils d’intelligence artificielle ont plus de chances de conclure qu’une personne issue de ces communautés pose un risque pour la société, explique le MIT Technology Review.

Or, la corrélation entre deux catégories de données ne signifie pas qu’il y a un lien de cause à effet. En basant leurs conclusions sur des données biaisées, les algorithmes auraient donc tendance à amplifier ces biais, alimentant un cercle vicieux qui pénaliserait les communautés judiciarisées.

Malgré l’appel, en juillet(Nouvelle fenêtre), de l’American Civil Liberties Union et de la National Association for the Advancement of Colored People, des organismes américains de défense des libertés civiles, à tourner le dos à cette technologie, de plus en plus d’États commencent à s’en servir, espérant réduire le taux d’occupation de leurs prisons

.

Avec les informations de MIT Technology Review

https://ici.radio-canada.ca/

Voici «Norman», l’intelligence artificielle psychopathe


Des scientifiques ont voulu montrer certains dangers de l’intelligence artificielle. Quand les données sont biaisées cela donne comme résultat. À l’aide de Norman un psychopathe entraîné à voir la mort partout et un autre entraîner de façon traditionnelle. Les réponses entre le deux intelligences artificielles sont carrément contraire
Nuage

 

Voici «Norman», l’intelligence artificielle psychopathe

 

Le prénom de «Norman» est un hommage au... (IMAGE TIRÉE DU SITE NORMAN-AI.MIT.EDU)

Le prénom de «Norman» est un hommage au personnage du tueur psychopathe dans le film Psycho (1960) d’Alfred Hitchcock.

IMAGE TIRÉE DU SITE NORMAN-AI.MIT.EDU

Agence France-Presse
San Francisco

 

Il voit la mort partout: Norman, «la première intelligence artificielle psychopathe», a été mis au point par des chercheurs aux États-Unis pour expliquer au grand public comment sont confectionnés les algorithmes et le sensibiliser aux dangers possibles de l’IA.

«Quand les gens disent que les algorithmes d’intelligence artificielle sont biaisés ou injustes, le coupable est souvent non pas l’algorithme lui-même mais les données biaisées qui ont été utilisées (pour le mettre au point). Cette idée est bien connue des scientifiques mais beaucoup moins du grand public», ont expliqué lundi Pinar Yanardag, Manuel Cebrian et Iyad Rahwan, du prestigieux Massachusetts Institute of Technology (MIT).

D’où l’idée de créer Norman, prénom choisi d’après le personnage du tueur psychopathe Norman Bates dans le film Psycho (1960) d’Alfred Hitchcock.

Concrètement, Norman a été «nourri» uniquement avec de courtes légendes décrivant des images «de personnes en train de mourir» trouvées sur la plateforme internet Reddit, expliquent les trois chercheurs, qui ont créé un site internet dédié.

Les chercheurs lui ont ensuite soumis des images de taches d’encre, comme dans le test psychologique de Rorschach, pour savoir ce que Norman voyait et pour comparer ses réponses à celles d’une autre IA, entraînée de façon traditionnelle.

Et les résultats sont pour le moins effrayants: quand l’IA traditionnelle voit «deux personnes deboEt quand Norman distingue «un homme tué par balles devant sa femme qui hurle», l’autre IA décèle «une personne en train de tenir un parapluie».ut l’une près de l’autre», Norman voit dans la même tache d’encre «un homme qui saute d’une fenêtre». Le site internet montre ainsi dix exemples de taches d’encre accompagnées des réponses des deux systèmes, avec toujours une réponse macabre provenant de Norman. Le site propose aux internautes de faire eux aussi le test des taches d’encre et d’envoyer leurs réponses «pour aider Norman à se réparer».

Plus qu’une expérience réellement scientifique, Norman illustre «les dangers de l’intelligence artificielle quand elle tourne mal parce que des données biaisées ont été utilisées» pour l’entraîner, disent les chercheurs, qui «espèrent susciter une prise de conscience du public et un débat sur ces sujets».

http://www.lapresse.ca

Le mystérieux manuscrit de Voynich enfin décodé par une IA ?


Le manuscrit de Voynich qui aurait été écrit entre 1404 et 1438 qui a toujours été un mystère total, commencerait à céder ses secrets grâce à des chercheurs canadien qui fait des algorithmes et on utilisé l’intelligence artificielle ainsi que Google Traduction et un document Déclaration universelle des droits de l’Homme qui est traduit en 230 langues.
Nuage

 

Le mystérieux manuscrit de Voynich enfin décodé par une IA ?

 

Marc Zaffagni
Journaliste

Deux informaticiens pensent être parvenus à identifier la langue du manuscrit de Voynich, un texte rédigé au XVe siècle et qui était jusqu’ici impénétrable. Pour cela, ils se sont aidés d’une série d’algorithmes et du service Google Traduction.

Depuis sa découverte au XXe siècle, de nombreux historiens et cryptographes se sont évertués, en vain, à déchiffrer le manuscrit de Voynich. C’est peut-être finalement une intelligence artificielle (IA) qui y est parvenue. Greg Kondrak et Bradley Hauer, deux chercheurs en informatique et spécialistes en traitement du langage naturel de l’université de l’Alberta (Canada), ont créé une série d’algorithmes grâce à laquelle ils ont pu analyser cet alphabet inconnu et identifier la langue utilisée.

Le manuscrit de Voynich est un codex du XVe siècle. Long de 240 pages manuscrites, il est accompagné de dessins de plantes, de nus et d’observations astronomiques. À ce jour, il est considéré comme le plus important cryptogramme non résolu. Toutes sortes d’hypothèses ont été émises quant à la langue d’origine du texte : latin, italien, arabe coranique, moldave, thaï, pinyin. Pour sa part, l’équipe de l’université de l’Alberta penchait au départ pour l’arabe.

Plusieurs analyses du manuscrit de Voynich ont penché pour un guide botanique. L’analyse pratiquée à l’aide de l’intelligence artificielle a amené les chercheurs à confirmer cette hypothèse. © DP

Plusieurs analyses du manuscrit de Voynich ont penché pour un guide botanique. L’analyse pratiquée à l’aide de l’intelligence artificielle a amené les chercheurs à confirmer cette hypothèse. © DP

    80 % des mots figurent dans un dictionnaire hébreu

    Pour vérifier leur théorie, les chercheurs ont entraîné leurs algorithmes en se servant d’échantillons du texte de la « Déclaration universelle des droits de l’Homme » dans 380 langues différentes. Et, contre toute attente, la machine a estimé que le manuscrit de Voynich avait été rédigé en hébreu. Les chercheurs se sont ensuite employés à tenter de traduire ce texte. Pour ce faire, ils sont partis de l’hypothèse de base que le cryptage reposait sur des alphagrammes, technique qui consiste à réorganiser les lettres d’un mot dans l’ordre alphabétique pour former des anagrammes. Ils ont alors conçu un algorithme capable de déchiffrer les mots.

    « Il s’est avéré que plus de 80 % des mots existaient dans un dictionnaire hébreu, mais nous ne savions pas si, pris ensemble, ils avaient un sens. »

    Greg Kondrak et Bradley Hauer se sont tournés vers un confrère parlant hébreu pour savoir si la première phrase du texte traduite avec cet idiome était cohérente. Réponse négative. Les chercheurs ont alors tenté de convertir la phrase hébreu en anglais en se servant tout simplement du service Google Traduction. Et là, ils ont obtenu quelque chose…

    Le manuscrit de Voynich serait un guide botanique

    Dans la langue de Shakespeare, la première phrase du manuscrit dirait :

    « She made recommendations to the priest, man of the house and me and people ».

    Traduite en français, cela signifie : « Elle a fait des recommandations au prêtre, à l’homme de la maison, à moi et aux gens ».

    Une phrase d’introduction bien curieuse, a lui-même admis le professeur Kondrak. Ce dernier estime que seule la contribution d’historiens spécialisés en hébreu ancien pourrait aider à une interprétation plus cohérente de ces traductions étant donné la syntaxe atypique qui a été employée.

    Bref, pour le moment, le manuscrit de Voynich garde encore son mystère. Cependant, les chercheurs concluent leur article scientifique paru dans Transactions of the Association for Computational Linguistics en soutenant que le texte est probablement de l’hébreu avec les lettres réarrangées pour suivre un ordre fixe. L’étude a révélé plusieurs mots pris individuellement signifiant « fermier », « air », « lumière », « feu ». Les auteurs estiment que cela conforte l’hypothèse déjà émise plusieurs fois que le manuscrit de Voynich serait en fait un guide botanique. Forts de cette première expérience, ils comptent continuer à affiner leur algorithme et l’appliquer à d’autres manuscrits anciens.

    CE QU’IL FAUT RETENIR

  • Le manuscrit de Voynich est un casse-tête pour les historiens et les cryptographes, qui n’ont toujours pas réussi à percer son mystère.

  • Grâce à la puissance des algorithmes, des chercheurs de l’université de l’Alberta (Canada) pensent avoir identifié la langue du texte utilisée sous forme d’anagrammes.

  • Mais encore faut-il que des historiens spécialisés en hébreu ancien puissent trouver un sens à ces écrits.

https://www.futura-sciences.com

Les mouvements de votre souris peuvent révéler si vous mentez sur le web


C’est ingénieux comme moyen de repérer les fraudeurs grâce aux mouvements de la souris d’ordinateur et d’une question inattendue, mais à la longue, cela ne serait probablement pas toujours possible de voir qui sont les arnaqueurs
Nuage

 

Les mouvements de votre souris peuvent révéler si vous mentez sur le web

 

Un homme navigue sur le web avec sa souris dans un café à Pékin, en juin 2017. GREG BAKER / AFP

Un homme navigue sur le web avec sa souris dans un café à Pékin, en juin 2017. GREG BAKER / AFP

Repéré par Juliette Mitoyen —

Repéré sur Science Magazine

Un algorithme basé sur les mouvements des souris d’ordinateur permettrait de détecter les usurpateurs d’identité.

Tous les ans, des millions de gens se font voler leur identité sur internet, comme le montre Science Magazine. Quand quelqu’un veut s’en amuser pour pourrir votre compte Facebook d’informations compromettantes, c’est embêtant. Quand il s’agit de vous dérober des informations bancaires pour vider votre compte, ça devient très dangereux.

Une équipe de chercheurs de l’université de Padoue en Italie s’est penchée sur ce problème et a développé une intelligence artificielle pour y répondre: un algorithme analysant les mouvements des souris d’ordinateur.

Observer la trajectoire de la souris

L’expérience, publiée dans le journal Plos One, est assez simple. Les chercheurs ont demandé à une vingtaine de volontaires de mémoriser les détails d’une fausse identité. Ces personnes devaient ensuite répondre par oui ou non à une série de questions telles que «Quel est votre nom?» ou encore «Êtes vous né en 1991?» Parmi ces questions attendues par les testeurs, les chercheurs ont glissé des questions inattendues concernant leurs nouvelles identités, telle que «Quel est votre signe astrologique?» Des fraudeurs connaissent une date de naissance, mais n’ont pas forcément réfléchi au signe du zodiac de la personne dont ils usurpent l’identité.

Les chercheurs se sont alors improvisés chats, surveillant les faux-pas des souris. En observant le temps de réaction de la souris des volontaires et en regardant sa trajectoire depuis le bas de l’écran jusqu’aux cases oui et non, l’algorithme élaboré a su détecter les menteurs dans 90% à 95% des cas. Quand les testeurs répondaient à une question inattendue sur leur fausse identité, ils mettaient de fait plus de temps à répondre et effectuaient des mouvements de souris douteux –ils déviaient notamment de la ligne droite qui se trace logiquement quand on est sûr de sa réponse.

Une méthode réellement efficace?

Un concept novateur, mais difficile de dire s’il pourra être mis en application à grande échelle. Giorgia Ganis, neuroscientifique à l’université de Plymouth au Royaume-Uni, doute de l’efficacité de l’algorithme:

«Les criminels et les fraudeurs passent du temps à rechercher un maximum d’éléments sur l’histoire et l’identité de leurs victimes. Trouver des questions surprenantes ou déstabilisantes peut être compliqué.»

Mais selon Giuseppe Sartori, membre du groupe de chercheurs ayant élaboré l’algorithme, même si un fraudeur apprend une quantité de choses sur la personne dont il veut usurper l’identité, la liste des questions inattendues et donc potentiellement piégeuses reste illimitée.

http://www.slate.fr/

Un logiciel pour reconnaître les moutons malheureux


Dans le but de réagir plus vite aux blessures ou de maladies des moutons, les chercheurs ont placé une caméra qui scanne le visage des moutons. Il semble que cela fonctionne aussi pour le cheval, le lapin ou certains rongeurs
Nuage

 

Un logiciel pour reconnaître les moutons malheureux

 

Un programme informatique permettant de déterminer si les moutons souffrent ou sont malheureux a été mis au point par une équipe de chercheurs de l’université de Cambridge au Royaume-Uni dans le but d’améliorer leur bien-être.

Les scientifiques se sont appuyés sur près de 500 photos de moutons collectées par des vétérinaires pour élaborer un algorithme qui détecte certaines expressions sur la tête des ovins. Ils peuvent ainsi déterminer si l’animal souffre, et son degré de douleur.

Le logiciel décèle les yeux mi-clos, les joues creusées, les oreilles repliées, les lèvres étirées, ou les narines déformées, autant d’expressions de la douleur chez le mouton. Il fonctionne aussi pour d’autres espèces, notamment le cheval, le lapin ou certains rongeurs utilisés pour les expériences en laboratoire.

En installant des caméras sur des abreuvoirs ou dans des granges pour scanner le visage des bêtes, les scientifiques pensent pouvoir permettre aux fermiers de détecter plus rapidement les maladies et ou les blessures de leur bétail, et accélérer la mise en place des traitements.

Pour développer leur logiciel, les scientifiques se sont appuyés sur des recherches en intelligence artificielle visant à reconnaitre les émotions humaines.

« Une bonne partie du travail préparatoire avait été effectuée par Darwin », explique Peter Robinson, professeur au Laboratoire d’informatique de Cambridge, sur le site de l’Université.

Analogies entre l’homme et le mouton

« Il avait affirmé que les humains et les animaux exprimaient leurs émotions par des comportements similaires. On a donc voulu appliquer aux animaux certains de nos travaux sur les humains ».

« C’est intéressant de constater qu’il existe des analogies évidentes dans l’expression de la douleur sur le visage d’un humain ou d’un mouton », complète sa collègue Marwa Mahmoud.

Les scientifiques s’attachent désormais à élargir leur base de données, et de photos, pour perfectionner le logiciel.

« Je marche souvent dans la campagne, et depuis que je travaille sur ce projet, je me surprends à m’arrêter devant les moutons pour m’assurer qu’ils vont bien », conclut Peter Robinson.

http://www.7sur7.be

Trois caractéristiques faciales pour reconnaître un criminel


Je me méfie de ce genre de recherches, même si les résultats à l’essai à de bons résultats. C’est comme le profilage racial, des innocents risquent de payer la note
Nuage

 

Trois caractéristiques faciales pour reconnaître un criminel

 

Trois

Portraits de criminels.Photo Gentside

Les deux chercheurs chinois ont créé un algorithme inédit.

Trois caractéristiques ressortent (juste sur des visages de type asiatique): les criminels auraient une petite bouche, une lèvre supérieure recourbée et de petits yeux quasiment fermés.

«Il est possible d’identifier une tendance à la criminalité à partir des traits du visage», affirment les scientifiques.

Ils se basent sur leur étude: ils ont proposé à leurs ordinateurs 1800 visages. Le résultat? Les algorithmes ont reconnu les criminels à 89 %.

http://fr.canoe.ca/

Les algorithmes qui prédisent les crimes marchent-ils vraiment?


Je ne suis pas vraiment rassuré si la police utilise des algorithmes qui prédisent des crimes, et des personnes qui avec leur casier judiciaire seraient des risques potentiels. Et pour ce qui est des résultats, cela ne semble pas être vraiment concluant
Nuage

Les algorithmes qui prédisent les crimes marchent-ils vraiment?

 

EMMANUEL DUNAND / AFP

EMMANUEL DUNAND / AFP

Repéré par Alix Fieux

Difficile pour une population de concevoir qu’elle peut être contrôlée, simplement par ce qu’un logiciel aura fiché certains individus comme «suspects».

Prédire où et quand se dérouleront les prochains crimes d’une grande ville, c’est possible. En tout cas, c’est bien ce qu’espèrent les services de police d’une dizaine de grandes villes américaines (et du monde entier) qui se sont déjà équipées d’un logiciel de police prédictive, nous raconte le magazine Aeon.

Comment fonctionne-t-il? L’outil recense en une même base de données tous les lieux et l’heure des crimes déjà commis dans la ville concernée, mais aussi les cercles de personnes qui seraient susceptibles de commettre des infraction (d’après leur casier judiciaire et même leurs fréquentations). À partir de ces informations, un calcul de probabilité est fait et des algorithmes mathématiques directement transmis au services de police leur permettent de connaître les probabilités du lieu et de l’heure des prochains délits.

Les logiciels comme PredPol et Hunchlab, parmi les plus utilisés aux États-Unis, permettent notamment d’avertir les patrouilles de police des risques de cambriolages, de vols, d’agressions et d’homicides dans les quartiers repérés comme «les plus chauds» par l’outil informatique et de les inciter à surveiller davantage certains profils susceptibles de commettre une infraction.

Les défenseurs des libertés individuelles sont sceptiques

Jusqu’à présent, certaines communes comme Los Angeles et Atlanta ont vu leur taux de criminalité baisser depuis la mise en place des services de police prédictive. Toutefois, si l’objectif est parfaitement louable, comment de telles probabilités peuvent-elles rester compatibles avec les libertés et droits fondamentaux de chaque citoyen? Comment éviter de tomber à l’avenir dans l’arrestation arbitraire ?

Le magazine Science, fait valoir que ce type de logiciels pourrait permettre à des agents de police d’arrêter des individus n’ayant aucune raison valables d’être suspectés, mais simplement interpellés parce qu’ils se trouvaient dans les «zones à risques» définies par les algorithmes prédictifs. Un rapport d’investigation du département de police de Baltimore, ville dans laquelle le jeune Freddie Gray trouvait la mort il y a plus d’un an suite aux blessures infligées lors de son arrestation, aborde également ce danger. Selon ses auteurs, des arrestations arbitraires auraient un effet désastreux sur la confiance déjà  tenue qui relie certaines populations et la police aux États-Unis. 

L’Union américaine pour les libertés civiles craint que ce type de données encourage les discriminations raciales, partant du postulat qu’une communauté présente plus de risques criminels qu’une autre. Elle se demande aussi à moyen et long terme comment il sera possible pour les civils de faire confiance à une justice mathématiques et arbitraire qui serait rendue non pas par des humains, mais par des données informatiques limitées. Et pour quels résultats?

Cercle vicieux

À Chicago, le retour d’expérience démontre que malgré la mise en place d’une police prédictive, le nombre d’homicides n’a pas diminué. Pire, un rapport en vient même à la conclusion que les personnes fichées comme «suspectes» d’après les algorithmes n’avaient en réalité aucune raison précise d’être considérées comme plus dangereuses que les autres. 

Pour Jennifer Lynch, qui travaille à la Fondation Frontière Électronique de Californie, il existe même un risque de prophéties auto-réalisatrices. En se rendant sur les lieux de contrôle déjà plus méfiants et plus agressifs, les policiers pourraient ne faire qu’accroître des tensions déjà existantes. Une question déjà très sensible aux États-Unis et un véritable enjeu sécuritaire pour les années à venir.

http://www.slate.fr/

Facebook favorise les fausses nouvelles


 

Facebook a remplacé des algorithmes par des employés pour rendre le fil des nouvelles plus neutre. En fin du compte, c’est raté ! Le problème, ces fausses nouvelles et légendes urbaines peuvent devenir virales et donc revenir force.
Nuage

 

Facebook favorise les fausses nouvelles

 

Depuis que Facebook a mis à pied, le 26 août dernier, les personnes chargées de faire le tri dans les fils de nouvelles, le réseau social monte en épingle — encore plus qu’avant — les légendes urbaines et les fausses informations.

C’est du moins le résultat d’une expérience non scientifique menée par des journalistes du Washington Post : entre le 31 août et le 22 septembre, ils ont repéré cinq histoires devenues virales qui étaient « indéniablement fausses » et trois qui étaient « profondément inexactes ». Les communiqués de presse, disent-ils, de même que les billets promotionnels de sites comme iTunes, auraient également tendance à « monter » plus souvent dans les fils des nouvelles. Et ils n’ont mené leurs observations que pendant les heures de bureau…

Le tout va dans le même sens que ce que d’autres journalistes avaient souligné dès la première fin de semaine suivant la restructuration : l’algorithme de Facebook avait alors fait grimper dans les « tendances » (trending topics) au moins trois histoires fausses, dont deux concernant des vedettes de la télévision américaine. Officiellement, le but de ce remplacement d’employés par un algorithme était de rendre le fil de nouvelles de Facebook plus « neutre »,particulièrement en cette saison électorale aux États-Unis.

http://www.sciencepresse.qc.ca/

Instagram, dépisteur de dépression ?


Peut-être que les réseaux sociaux comme Instagram qui est un réseau social de photos pourraient devenir un endroit pour permettre de détecter les personnes dépressives. En tout cas, selon leur algorithme, je crois que je vais très bien
Nuage

 

Instagram, dépisteur de dépression ?

 

BenjaminWalewski l

Un algorithme créé par des chercheurs américains permet de dépister les signes de dépression via des photos Instagram.

(CCM) — Instagram, comme tous les réseaux sociaux, sert principalement à parler de soi et de ses expériences. Mais est-ce que les photos que l’on poste et les filtres que l’on choisit révèlent bien plus que ce que l’on pense ? C’est l’avis de chercheurs de l’Université d’Harvard et de l’Université du Vermont, qui pensent que les clichés publiés sur Instagram peuvent être utilisés pour identifier des symptômes la dépression.

Dans le cadre d’une étude publiée récemment (lien en anglais), ces chercheurs ont développé un algorithme capable de détecter les marqueurs de la dépression juste en analysant les images postées sur Instagram. Le programme prend en compte la luminosité et la saturation des couleurs, les métadonnées et la présence de visages dans l’image.

Après avoir passé au crible plus de 40 000 photos venant de 166 comptes différents, les chercheurs ont établi que les personnes déprimées postaient des photos dans des tons gris ou bleutés, de préférence sans filtre ou avec des filtres sombres comme Inkwell. Contre toute attente, l’étude indique aussi que ce sont les gens déprimés qui postent le plus de selfies. Les gens heureux postent des photos plus colorées et privilégie les photos où ils sont accompagnés.

« En utilisant uniquement des détails photographiques, notre modèle statistique a été capable de prédire quels participants de l’étude souffraient de dépression et montre un taux de précision plus élevé que celui atteint lors de diagnostics de patients réalisés par des médecins généralistes sans aucune assistance »expliquent les chercheurs dans leur publication. Le taux de détection réussie est de 70%.

Si les résultats ne sont pas parfaits, ils sont néanmoins très prometteurs. Les chercheurs pensent même que leur technologie pourrait être utilisée pour aider à la détection précoce des troubles de la dépression

.

Photo : © tanuha2001 – Shutterstock.com

http://www.commentcamarche.net/

La manière de se parler importe autant que les mots


Tout le monde sait que la conversation est importante et c’est d’autant plus vrai pour un couple. Cependant, le ton que l’on emploie avec son partenaire, la façon que sont dites les choses, peut semble-t-il être un indice si le couple va rester uni ou pas
Nuage

 

La manière de se parler importe autant que les mots

 

La manière de se parler importe autant que les mots

Garder son calme est souvent une bonne solution aux disputes.Photo Fotolia

Un algorithme informatique, développé par une équipe de chercheurs américains, permet de prédire le succès d’un couple de façon plus précise que des experts du comportement humain uniquement grâce au ton de la voix des couples enregistrée lors de séances avec un conseiller conjugal.

Sur une période de deux ans, des chercheurs de l’université de Californie du Sud ont enregistré les conversations lors de séances de plus d’une centaine de couples avec des conseillers matrimoniaux. Ils ont ensuite suivi les mêmes couples pendant cinq années pour évaluer les évolutions au sein des couples.

Les résultats, parus dans la revue Proceedings of Interspeech, ont montré que l’algorithme pouvait prédire les améliorations ou la détérioration des relations au sein du couple dans plus de 74 % des cas, plus que par un spécialiste.

Pour évaluer les échanges des couples, l’algorithme a séparé les enregistrements sous forme de bribes acoustiques en utilisant des techniques de traitement de discours, en prenant en compte la hauteur de la voix, l’intensité, mais aussi les gazouillis de la voix qui peuvent souligner des instants de forte émotion. Ce programme a ensuite été comparé aux analyses comportementales réalisées par les experts au préalable auprès des couples.

Un des membres de l’équipe de chercheurs, Brian Baucom de l’université de l’Utah, a commenté ces résultats en disant:

«Les chercheurs en psychologie et les praticiens savent depuis longtemps que la manière dont les partenaires parlent de leurs problèmes a d’importantes conséquences sur la santé de leur relation.»

«Cependant, le manque d’outils efficaces et fiables pour mesurer les éléments importants de ces conversations a été un frein majeur à leur utilisation clinique».

Il se félicite par ailleurs que ces résultats marquent un point de départ vers une mesure plus objective au sein des couples.

Et les chercheur en charge de l’étude, Shrikanth Narayanan, de conclure:

«Ce que vous dites n’est pas la seule chose qui compte, il est aussi très important de savoir comment vous le dites».

http://fr.canoe.ca/