Intelligence artificielle : les risques d’une utilisation malveillante


Cela ne prend pas un diplôme de génie pour comprendre que l’Intelligence artificielle a de bons et mauvais côtés. Comme dans toute chose, tout dépend ceux qui l’utilisent. Le problème est que plus ont avance en technologie pour de bonnes causes, plus les risques augmentent tout autant pour des mauvaises causes, que ce soit de la manipulation des élections que la politique en générale pouvant provoquer des guerres, des drônes tueurs, vols de données, tout ce qui est « intelligent » (par exemple l’auto), la cybersécurité se doit de vite évoluer pour contrer a la cybercriminalité
Nuage

 

Intelligence artificielle : les risques d’une utilisation malveillante

26 experts spécialisés en intelligence artificielle, cybersécurité et robotique ont rédigé un rapport alarmiste sur les dangers d’un dévoiement de ces technologies. Ils passent en revue divers scénarios inquiétants qui vont jusqu’à des attaques terroristes et des manipulations politiques à l’aide de fausses vidéos indétectables.

Des experts internationaux sonnent l’alarme sur les risques d’une utilisation malveillante de l’intelligence artificielle (IA) par « des États voyous, des criminels, des terroristes », dans un rapport publié mercredi. Selon eux, dans les dix prochaines années, l’efficacité croissante de l’IA risque de renforcer la cybercriminalité mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Celle-ci est aussi susceptible de faciliter la manipulation d’élections via les réseaux sociaux grâce à des comptes automatisés (bots).

Ce rapport de 100 pages intitulé The Malicious Use of Artificial Intelligence a été rédigé par 26 experts spécialistes en intelligence artificielle, cybersécurité et robotique. Ceux-ci travaillent pour des universités (Cambridge, Oxford, Yale, Stanford) et des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation). Ces experts appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées à l’intelligence artificielle.

La cybercriminalité à grande échelle

« Nous pensons que les attaques qui seront permises par l’utilisation croissante de l’IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer », souligne le rapport.

Pour illustrer leurs craintes, ces spécialistes évoquent plusieurs « scénarios hypothétiques » d’utilisation mal intentionnée de l’IA. Ils soulignent que des terroristes pourraient modifier des systèmes d’IA disponibles dans le commerce (drones, véhicules autonomes) pour provoquer des crashs, des collisions ou des explosions.

Les auteurs imaginent ainsi le cas d’un robot nettoyeur trafiqué qui se glisserait subrepticement parmi d’autres robots chargés de faire le ménage dans un ministère berlinois. Un jour, l’intrus passerait à l’attaque après avoir reconnu visuellement le ministre des Finances. Il se rapprocherait de lui et exploserait de façon autonome, tuant sa cible.

Par ailleurs, « la cybercriminalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par l’IA », déclare à l’AFP Seán Ó hÉigeartaigh, directeur du Centre for the Study of Existential Risk de l’université de Cambridge, un des auteurs du rapport.

Les attaques par hameçonnage ciblé (spear phishing) pourraient ainsi devenir beaucoup plus aisées à mener à une large échelle.

Un risque politique

Mais, pour lui, « le risque le plus sérieux, même s’il est moins probable, est le risque politique. Nous avons déjà vu comment des gens se servaient de la technologie pour essayer d’interférer dans les élections et la démocratie. Si l’IA permet à ces menaces de devenir plus fortes, plus difficiles à repérer et à attribuer, cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres », estime Seán Ó hÉigeartaigh.

Avec l’IA, il devrait être possible de réaliser des fausses vidéos très réalistes et cela pourrait être utilisé pour discréditer des responsables politiques, avertit le rapport. Les États autoritaires vont aussi pouvoir s’appuyer sur l’IA pour renforcer la surveillance de leurs citoyens, ajoute-t-il. Ce n’est pas la première fois que des inquiétudes s’expriment concernant l’IA. Dès 2014, l’astrophysicien Stephen Hawking lançait une mise en garde sur les risques qu’elle pourrait faire courir à l’humanité, en dépassant l’intelligence humaine. L’entrepreneur Elon Musk et d’autres ont aussi tiré la sonnette d’alarme.

Des rapports spécifiques sur l’utilisation de drones tueurs ou sur la façon dont l’IA pourrait affecter la sécurité des États-Unis ont également été publiés.

Ce nouveau rapport apporte « une vue d’ensemble sur la façon dont l’IA crée de nouvelles menaces ou change la nature des menaces existantes dans les domaines de la sécurité numérique, physique et politique », explique Seán Ó hÉigeartaigh.

Appel à l’action

Apparue dès les années 1950, l’intelligence artificielle correspond à des algorithmes sophistiqués qui permettent de résoudre des problèmes pour lesquels les humains utilisent leurs capacités cognitives. Ces dernières années, elle a fait des progrès substantiels notamment dans les domaines liés à la perception, comme la reconnaissance vocale et l’analyse d’images.

« Actuellement, il y a encore un écart important entre les avancées de la recherche et ses applications possibles. Il est temps d’agir », déclare à l’AFP Miles Brundage, chargé de recherche au Future of Humanity Institute de l’université d’Oxford.

Cet expert a animé en février 2017 à Oxford un atelier sur les risques d’un usage malveillant de l’IA, qui a donné naissance à ce rapport.

« Les chercheurs en IA, les concepteurs de robots, les compagnies, les régulateurs, les politiques doivent à présent collaborer pour tenter de prévenir [ces risques] », conclut Seán Ó hÉigeartaigh.

https://www.futura-sciences.com

3 réponses à “Intelligence artificielle : les risques d’une utilisation malveillante

  1. Même si je ne renie aucun progrès et suis émerveillé par les progrès des hautes technologies, je reste lucide et suis tout de même inquiet face à la vitesse à laquelle évoluent ces intelligences artificielles.
    Ceux qui les conçoivent et les créent pensent-ils aux dégâts sociaux que cela va créer au niveau emploi ?
    Réfléchissent-ils sur la façon dont les politiques et autres malveillants vont utiliser cette intelligence artificielle ?
    Il y a de cela 35 ans, je lisais « 1984 » et « le meilleur des monde ». J’ai trouvé ces livres passionnants en me disant que ce n’était que de la science-fiction. Désormais nous vivons ce qui est décrit dans ces deux livres.
    Certains réalisateurs ont mis en scène la révolte des machines, sans doute faudrait-il s’interroger sur le fait que l’intelligence artificielle pourrait se retourner contre l’homme ?
    De la science fiction cette question et ces films ? Au même titre que les livres précédemment nommés peut être.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s