Quand les algorithmes influencent les peines de prison


Je veux bien croire que tout est mathématique, il n’est pas judicieux à mon avis, de laisser les algorithmes faire des prédictions sur un détenu dans un tribunal, et cela, même, si le dernier mot revient au juge.
Nuage

 

Quand les algorithmes influencent les peines de prison

 

Un marteau de bois et le plateau d'une balance.

L’utilisation des algorithmes pour prédire les crimes et les risques de récidive est vivement critiquée par les organismes de défense des libertés civiles. Photo: iStock

Des algorithmes s’invitent de plus en plus dans les procès aux États-Unis, où ils aident à déterminer le risque de récidive d’un accusé… et à décider s’il devrait être emprisonné ou relâché. Des prédictions trop souvent faussées par des données historiques non pertinentes, rapporte le magazine MIT Technology Review.

Devant composer avec l’impératif de réduire le nombre de prisonniers sans augmenter le taux de criminalité, le système judiciaire américain se tourne de plus en plus vers des outils technologiques pour tenter d’améliorer son efficacité.

Après les algorithmes prédicteurs de crimes pour les policiers, voilà maintenant que l’intelligence artificielle prétend pouvoir accorder un pointage aux accusés en cour. Ce pointage, obtenu en colligeant des données sur le profil de la personne et des données historiques, permettrait de connaître le risque que poserait l’accusé s’il était remis en liberté.

Il revient ensuite au juge de tenir compte ou non de ce pointage dans ses décisions : choix des services de redressement, emprisonnement ou non pendant le procès, sévérité de la peine, etc.

Les personnes en faveur de l’utilisation de l’intelligence artificielle par les tribunaux estiment que les algorithmes pourraient réduire, voire éliminer la partialité des juges en basant les décisions uniquement sur des données.

Des algorithmes biaisés, dénoncent des opposants

Mais c’est justement la question de la partialité qui dérange les opposants à cette technologie. Ceux-ci croient plutôt que ces algorithmes sont intrinsèquement biaisés, puisqu’ils se basent sur des données historiques pour effectuer certaines prédictions.

Les outils de ce genre tentent de trouver des corrélations dans de grandes quantités de données. Comme les communautés à faible revenu et les minorités ont historiquement été davantage ciblées par les forces de l’ordre, les outils d’intelligence artificielle ont plus de chances de conclure qu’une personne issue de ces communautés pose un risque pour la société, explique le MIT Technology Review.

Or, la corrélation entre deux catégories de données ne signifie pas qu’il y a un lien de cause à effet. En basant leurs conclusions sur des données biaisées, les algorithmes auraient donc tendance à amplifier ces biais, alimentant un cercle vicieux qui pénaliserait les communautés judiciarisées.

Malgré l’appel, en juillet(Nouvelle fenêtre), de l’American Civil Liberties Union et de la National Association for the Advancement of Colored People, des organismes américains de défense des libertés civiles, à tourner le dos à cette technologie, de plus en plus d’États commencent à s’en servir, espérant réduire le taux d’occupation de leurs prisons

.

Avec les informations de MIT Technology Review

https://ici.radio-canada.ca/

Voici «Norman», l’intelligence artificielle psychopathe


Des scientifiques ont voulu montrer certains dangers de l’intelligence artificielle. Quand les données sont biaisées cela donne comme résultat. À l’aide de Norman un psychopathe entraîné à voir la mort partout et un autre entraîner de façon traditionnelle. Les réponses entre le deux intelligences artificielles sont carrément contraire
Nuage

 

Voici «Norman», l’intelligence artificielle psychopathe

 

Le prénom de «Norman» est un hommage au... (IMAGE TIRÉE DU SITE NORMAN-AI.MIT.EDU)

Le prénom de «Norman» est un hommage au personnage du tueur psychopathe dans le film Psycho (1960) d’Alfred Hitchcock.

IMAGE TIRÉE DU SITE NORMAN-AI.MIT.EDU

Agence France-Presse
San Francisco

 

Il voit la mort partout: Norman, «la première intelligence artificielle psychopathe», a été mis au point par des chercheurs aux États-Unis pour expliquer au grand public comment sont confectionnés les algorithmes et le sensibiliser aux dangers possibles de l’IA.

«Quand les gens disent que les algorithmes d’intelligence artificielle sont biaisés ou injustes, le coupable est souvent non pas l’algorithme lui-même mais les données biaisées qui ont été utilisées (pour le mettre au point). Cette idée est bien connue des scientifiques mais beaucoup moins du grand public», ont expliqué lundi Pinar Yanardag, Manuel Cebrian et Iyad Rahwan, du prestigieux Massachusetts Institute of Technology (MIT).

D’où l’idée de créer Norman, prénom choisi d’après le personnage du tueur psychopathe Norman Bates dans le film Psycho (1960) d’Alfred Hitchcock.

Concrètement, Norman a été «nourri» uniquement avec de courtes légendes décrivant des images «de personnes en train de mourir» trouvées sur la plateforme internet Reddit, expliquent les trois chercheurs, qui ont créé un site internet dédié.

Les chercheurs lui ont ensuite soumis des images de taches d’encre, comme dans le test psychologique de Rorschach, pour savoir ce que Norman voyait et pour comparer ses réponses à celles d’une autre IA, entraînée de façon traditionnelle.

Et les résultats sont pour le moins effrayants: quand l’IA traditionnelle voit «deux personnes deboEt quand Norman distingue «un homme tué par balles devant sa femme qui hurle», l’autre IA décèle «une personne en train de tenir un parapluie».ut l’une près de l’autre», Norman voit dans la même tache d’encre «un homme qui saute d’une fenêtre». Le site internet montre ainsi dix exemples de taches d’encre accompagnées des réponses des deux systèmes, avec toujours une réponse macabre provenant de Norman. Le site propose aux internautes de faire eux aussi le test des taches d’encre et d’envoyer leurs réponses «pour aider Norman à se réparer».

Plus qu’une expérience réellement scientifique, Norman illustre «les dangers de l’intelligence artificielle quand elle tourne mal parce que des données biaisées ont été utilisées» pour l’entraîner, disent les chercheurs, qui «espèrent susciter une prise de conscience du public et un débat sur ces sujets».

http://www.lapresse.ca

Le mystérieux manuscrit de Voynich enfin décodé par une IA ?


Le manuscrit de Voynich qui aurait été écrit entre 1404 et 1438 qui a toujours été un mystère total, commencerait à céder ses secrets grâce à des chercheurs canadien qui fait des algorithmes et on utilisé l’intelligence artificielle ainsi que Google Traduction et un document Déclaration universelle des droits de l’Homme qui est traduit en 230 langues.
Nuage

 

Le mystérieux manuscrit de Voynich enfin décodé par une IA ?

 

Marc Zaffagni
Journaliste

Deux informaticiens pensent être parvenus à identifier la langue du manuscrit de Voynich, un texte rédigé au XVe siècle et qui était jusqu’ici impénétrable. Pour cela, ils se sont aidés d’une série d’algorithmes et du service Google Traduction.

Depuis sa découverte au XXe siècle, de nombreux historiens et cryptographes se sont évertués, en vain, à déchiffrer le manuscrit de Voynich. C’est peut-être finalement une intelligence artificielle (IA) qui y est parvenue. Greg Kondrak et Bradley Hauer, deux chercheurs en informatique et spécialistes en traitement du langage naturel de l’université de l’Alberta (Canada), ont créé une série d’algorithmes grâce à laquelle ils ont pu analyser cet alphabet inconnu et identifier la langue utilisée.

Le manuscrit de Voynich est un codex du XVe siècle. Long de 240 pages manuscrites, il est accompagné de dessins de plantes, de nus et d’observations astronomiques. À ce jour, il est considéré comme le plus important cryptogramme non résolu. Toutes sortes d’hypothèses ont été émises quant à la langue d’origine du texte : latin, italien, arabe coranique, moldave, thaï, pinyin. Pour sa part, l’équipe de l’université de l’Alberta penchait au départ pour l’arabe.

Plusieurs analyses du manuscrit de Voynich ont penché pour un guide botanique. L’analyse pratiquée à l’aide de l’intelligence artificielle a amené les chercheurs à confirmer cette hypothèse. © DP

Plusieurs analyses du manuscrit de Voynich ont penché pour un guide botanique. L’analyse pratiquée à l’aide de l’intelligence artificielle a amené les chercheurs à confirmer cette hypothèse. © DP

    80 % des mots figurent dans un dictionnaire hébreu

    Pour vérifier leur théorie, les chercheurs ont entraîné leurs algorithmes en se servant d’échantillons du texte de la « Déclaration universelle des droits de l’Homme » dans 380 langues différentes. Et, contre toute attente, la machine a estimé que le manuscrit de Voynich avait été rédigé en hébreu. Les chercheurs se sont ensuite employés à tenter de traduire ce texte. Pour ce faire, ils sont partis de l’hypothèse de base que le cryptage reposait sur des alphagrammes, technique qui consiste à réorganiser les lettres d’un mot dans l’ordre alphabétique pour former des anagrammes. Ils ont alors conçu un algorithme capable de déchiffrer les mots.

    « Il s’est avéré que plus de 80 % des mots existaient dans un dictionnaire hébreu, mais nous ne savions pas si, pris ensemble, ils avaient un sens. »

    Greg Kondrak et Bradley Hauer se sont tournés vers un confrère parlant hébreu pour savoir si la première phrase du texte traduite avec cet idiome était cohérente. Réponse négative. Les chercheurs ont alors tenté de convertir la phrase hébreu en anglais en se servant tout simplement du service Google Traduction. Et là, ils ont obtenu quelque chose…

    Le manuscrit de Voynich serait un guide botanique

    Dans la langue de Shakespeare, la première phrase du manuscrit dirait :

    « She made recommendations to the priest, man of the house and me and people ».

    Traduite en français, cela signifie : « Elle a fait des recommandations au prêtre, à l’homme de la maison, à moi et aux gens ».

    Une phrase d’introduction bien curieuse, a lui-même admis le professeur Kondrak. Ce dernier estime que seule la contribution d’historiens spécialisés en hébreu ancien pourrait aider à une interprétation plus cohérente de ces traductions étant donné la syntaxe atypique qui a été employée.

    Bref, pour le moment, le manuscrit de Voynich garde encore son mystère. Cependant, les chercheurs concluent leur article scientifique paru dans Transactions of the Association for Computational Linguistics en soutenant que le texte est probablement de l’hébreu avec les lettres réarrangées pour suivre un ordre fixe. L’étude a révélé plusieurs mots pris individuellement signifiant « fermier », « air », « lumière », « feu ». Les auteurs estiment que cela conforte l’hypothèse déjà émise plusieurs fois que le manuscrit de Voynich serait en fait un guide botanique. Forts de cette première expérience, ils comptent continuer à affiner leur algorithme et l’appliquer à d’autres manuscrits anciens.

    CE QU’IL FAUT RETENIR

  • Le manuscrit de Voynich est un casse-tête pour les historiens et les cryptographes, qui n’ont toujours pas réussi à percer son mystère.

  • Grâce à la puissance des algorithmes, des chercheurs de l’université de l’Alberta (Canada) pensent avoir identifié la langue du texte utilisée sous forme d’anagrammes.

  • Mais encore faut-il que des historiens spécialisés en hébreu ancien puissent trouver un sens à ces écrits.

https://www.futura-sciences.com

Les mouvements de votre souris peuvent révéler si vous mentez sur le web


C’est ingénieux comme moyen de repérer les fraudeurs grâce aux mouvements de la souris d’ordinateur et d’une question inattendue, mais à la longue, cela ne serait probablement pas toujours possible de voir qui sont les arnaqueurs
Nuage

 

Les mouvements de votre souris peuvent révéler si vous mentez sur le web

 

Un homme navigue sur le web avec sa souris dans un café à Pékin, en juin 2017. GREG BAKER / AFP

Un homme navigue sur le web avec sa souris dans un café à Pékin, en juin 2017. GREG BAKER / AFP

Repéré par Juliette Mitoyen —

Repéré sur Science Magazine

Un algorithme basé sur les mouvements des souris d’ordinateur permettrait de détecter les usurpateurs d’identité.

Tous les ans, des millions de gens se font voler leur identité sur internet, comme le montre Science Magazine. Quand quelqu’un veut s’en amuser pour pourrir votre compte Facebook d’informations compromettantes, c’est embêtant. Quand il s’agit de vous dérober des informations bancaires pour vider votre compte, ça devient très dangereux.

Une équipe de chercheurs de l’université de Padoue en Italie s’est penchée sur ce problème et a développé une intelligence artificielle pour y répondre: un algorithme analysant les mouvements des souris d’ordinateur.

Observer la trajectoire de la souris

L’expérience, publiée dans le journal Plos One, est assez simple. Les chercheurs ont demandé à une vingtaine de volontaires de mémoriser les détails d’une fausse identité. Ces personnes devaient ensuite répondre par oui ou non à une série de questions telles que «Quel est votre nom?» ou encore «Êtes vous né en 1991?» Parmi ces questions attendues par les testeurs, les chercheurs ont glissé des questions inattendues concernant leurs nouvelles identités, telle que «Quel est votre signe astrologique?» Des fraudeurs connaissent une date de naissance, mais n’ont pas forcément réfléchi au signe du zodiac de la personne dont ils usurpent l’identité.

Les chercheurs se sont alors improvisés chats, surveillant les faux-pas des souris. En observant le temps de réaction de la souris des volontaires et en regardant sa trajectoire depuis le bas de l’écran jusqu’aux cases oui et non, l’algorithme élaboré a su détecter les menteurs dans 90% à 95% des cas. Quand les testeurs répondaient à une question inattendue sur leur fausse identité, ils mettaient de fait plus de temps à répondre et effectuaient des mouvements de souris douteux –ils déviaient notamment de la ligne droite qui se trace logiquement quand on est sûr de sa réponse.

Une méthode réellement efficace?

Un concept novateur, mais difficile de dire s’il pourra être mis en application à grande échelle. Giorgia Ganis, neuroscientifique à l’université de Plymouth au Royaume-Uni, doute de l’efficacité de l’algorithme:

«Les criminels et les fraudeurs passent du temps à rechercher un maximum d’éléments sur l’histoire et l’identité de leurs victimes. Trouver des questions surprenantes ou déstabilisantes peut être compliqué.»

Mais selon Giuseppe Sartori, membre du groupe de chercheurs ayant élaboré l’algorithme, même si un fraudeur apprend une quantité de choses sur la personne dont il veut usurper l’identité, la liste des questions inattendues et donc potentiellement piégeuses reste illimitée.

http://www.slate.fr/

Un logiciel pour reconnaître les moutons malheureux


Dans le but de réagir plus vite aux blessures ou de maladies des moutons, les chercheurs ont placé une caméra qui scanne le visage des moutons. Il semble que cela fonctionne aussi pour le cheval, le lapin ou certains rongeurs
Nuage

 

Un logiciel pour reconnaître les moutons malheureux

 

Un programme informatique permettant de déterminer si les moutons souffrent ou sont malheureux a été mis au point par une équipe de chercheurs de l’université de Cambridge au Royaume-Uni dans le but d’améliorer leur bien-être.

Les scientifiques se sont appuyés sur près de 500 photos de moutons collectées par des vétérinaires pour élaborer un algorithme qui détecte certaines expressions sur la tête des ovins. Ils peuvent ainsi déterminer si l’animal souffre, et son degré de douleur.

Le logiciel décèle les yeux mi-clos, les joues creusées, les oreilles repliées, les lèvres étirées, ou les narines déformées, autant d’expressions de la douleur chez le mouton. Il fonctionne aussi pour d’autres espèces, notamment le cheval, le lapin ou certains rongeurs utilisés pour les expériences en laboratoire.

En installant des caméras sur des abreuvoirs ou dans des granges pour scanner le visage des bêtes, les scientifiques pensent pouvoir permettre aux fermiers de détecter plus rapidement les maladies et ou les blessures de leur bétail, et accélérer la mise en place des traitements.

Pour développer leur logiciel, les scientifiques se sont appuyés sur des recherches en intelligence artificielle visant à reconnaitre les émotions humaines.

« Une bonne partie du travail préparatoire avait été effectuée par Darwin », explique Peter Robinson, professeur au Laboratoire d’informatique de Cambridge, sur le site de l’Université.

Analogies entre l’homme et le mouton

« Il avait affirmé que les humains et les animaux exprimaient leurs émotions par des comportements similaires. On a donc voulu appliquer aux animaux certains de nos travaux sur les humains ».

« C’est intéressant de constater qu’il existe des analogies évidentes dans l’expression de la douleur sur le visage d’un humain ou d’un mouton », complète sa collègue Marwa Mahmoud.

Les scientifiques s’attachent désormais à élargir leur base de données, et de photos, pour perfectionner le logiciel.

« Je marche souvent dans la campagne, et depuis que je travaille sur ce projet, je me surprends à m’arrêter devant les moutons pour m’assurer qu’ils vont bien », conclut Peter Robinson.

http://www.7sur7.be

Trois caractéristiques faciales pour reconnaître un criminel


Je me méfie de ce genre de recherches, même si les résultats à l’essai à de bons résultats. C’est comme le profilage racial, des innocents risquent de payer la note
Nuage

 

Trois caractéristiques faciales pour reconnaître un criminel

 

Trois

Portraits de criminels.Photo Gentside

Les deux chercheurs chinois ont créé un algorithme inédit.

Trois caractéristiques ressortent (juste sur des visages de type asiatique): les criminels auraient une petite bouche, une lèvre supérieure recourbée et de petits yeux quasiment fermés.

«Il est possible d’identifier une tendance à la criminalité à partir des traits du visage», affirment les scientifiques.

Ils se basent sur leur étude: ils ont proposé à leurs ordinateurs 1800 visages. Le résultat? Les algorithmes ont reconnu les criminels à 89 %.

http://fr.canoe.ca/

Les algorithmes qui prédisent les crimes marchent-ils vraiment?


Je ne suis pas vraiment rassuré si la police utilise des algorithmes qui prédisent des crimes, et des personnes qui avec leur casier judiciaire seraient des risques potentiels. Et pour ce qui est des résultats, cela ne semble pas être vraiment concluant
Nuage

Les algorithmes qui prédisent les crimes marchent-ils vraiment?

 

EMMANUEL DUNAND / AFP

EMMANUEL DUNAND / AFP

Repéré par Alix Fieux

Difficile pour une population de concevoir qu’elle peut être contrôlée, simplement par ce qu’un logiciel aura fiché certains individus comme «suspects».

Prédire où et quand se dérouleront les prochains crimes d’une grande ville, c’est possible. En tout cas, c’est bien ce qu’espèrent les services de police d’une dizaine de grandes villes américaines (et du monde entier) qui se sont déjà équipées d’un logiciel de police prédictive, nous raconte le magazine Aeon.

Comment fonctionne-t-il? L’outil recense en une même base de données tous les lieux et l’heure des crimes déjà commis dans la ville concernée, mais aussi les cercles de personnes qui seraient susceptibles de commettre des infraction (d’après leur casier judiciaire et même leurs fréquentations). À partir de ces informations, un calcul de probabilité est fait et des algorithmes mathématiques directement transmis au services de police leur permettent de connaître les probabilités du lieu et de l’heure des prochains délits.

Les logiciels comme PredPol et Hunchlab, parmi les plus utilisés aux États-Unis, permettent notamment d’avertir les patrouilles de police des risques de cambriolages, de vols, d’agressions et d’homicides dans les quartiers repérés comme «les plus chauds» par l’outil informatique et de les inciter à surveiller davantage certains profils susceptibles de commettre une infraction.

Les défenseurs des libertés individuelles sont sceptiques

Jusqu’à présent, certaines communes comme Los Angeles et Atlanta ont vu leur taux de criminalité baisser depuis la mise en place des services de police prédictive. Toutefois, si l’objectif est parfaitement louable, comment de telles probabilités peuvent-elles rester compatibles avec les libertés et droits fondamentaux de chaque citoyen? Comment éviter de tomber à l’avenir dans l’arrestation arbitraire ?

Le magazine Science, fait valoir que ce type de logiciels pourrait permettre à des agents de police d’arrêter des individus n’ayant aucune raison valables d’être suspectés, mais simplement interpellés parce qu’ils se trouvaient dans les «zones à risques» définies par les algorithmes prédictifs. Un rapport d’investigation du département de police de Baltimore, ville dans laquelle le jeune Freddie Gray trouvait la mort il y a plus d’un an suite aux blessures infligées lors de son arrestation, aborde également ce danger. Selon ses auteurs, des arrestations arbitraires auraient un effet désastreux sur la confiance déjà  tenue qui relie certaines populations et la police aux États-Unis. 

L’Union américaine pour les libertés civiles craint que ce type de données encourage les discriminations raciales, partant du postulat qu’une communauté présente plus de risques criminels qu’une autre. Elle se demande aussi à moyen et long terme comment il sera possible pour les civils de faire confiance à une justice mathématiques et arbitraire qui serait rendue non pas par des humains, mais par des données informatiques limitées. Et pour quels résultats?

Cercle vicieux

À Chicago, le retour d’expérience démontre que malgré la mise en place d’une police prédictive, le nombre d’homicides n’a pas diminué. Pire, un rapport en vient même à la conclusion que les personnes fichées comme «suspectes» d’après les algorithmes n’avaient en réalité aucune raison précise d’être considérées comme plus dangereuses que les autres. 

Pour Jennifer Lynch, qui travaille à la Fondation Frontière Électronique de Californie, il existe même un risque de prophéties auto-réalisatrices. En se rendant sur les lieux de contrôle déjà plus méfiants et plus agressifs, les policiers pourraient ne faire qu’accroître des tensions déjà existantes. Une question déjà très sensible aux États-Unis et un véritable enjeu sécuritaire pour les années à venir.

http://www.slate.fr/