CES 2020 : Découvrez Jennie, l’adorable robot-chien de compagnie plus vrai que nature


Pour apaiser, sortir de sa solitude, un animal est une bonne idée. Cependant, il faut être en mesure de s’en occuper aussi. Alors un chien-robot ? Certains trouvent que c’est une bonne idée, moi, je vois cela comme une façon de se donner de bonnes excuses pour ne pas être plus présent envers les personnes âgées.
Nuage


CES 2020 : Découvrez Jennie, l’adorable robot-chien de compagnie plus vrai que nature


Voici Jennie, le premier chien-robot de compagnie

Sa mission ? Apaiser les personnes qui souffrent de solitude ou d’anxiété.

Cette semaine a eu lieu à Las Vegas le Consumer Electronics Show 2020 (CES), l’une des plus grandes foires technologiques au monde. Comme chaque année, y sont dévoilées les toutes dernières innovations technologiques. Parmi elles, on a pu découvrir Jenny, un chiot Labrador de compagnie dont la particularité est… d’être un robot. Son but : apaiser les personnes qui souffrent de solitude ou d’anxiété.

C’est d’ailleurs en voyant sa mère atteinte de la maladie d’Alzheimer que Tom Stevens, fondateur et PDG de la startup de robotique Tombot a eu l’idée de créer Jenny.

Jenny alors plus vraie que nature

« L’histoire de ma mère n’est pas unique », explique-t-il lors de la conférence CES ajoutant que les personnes âgées ou/et atteintes de démence tirent beaucoup de réconfort de leurs animaux de compagnie. Problème, plus la maladie progresse, moins ils sont en mesure de prendre soin d’eux. C’est la où Jenny a tout bon puisqu’elle a beau aboyer, remuer la queue, le cou et les oreilles comme un vrai toutou, et même répondre aux commandes vocales et au toucher, ce chiot animatronique n’a, en revanche, nul besoin d’être sorti matin et soir et ne réclame jamais de croquettes. 

Jenny est une excellente alternative pour tenir compagnie aux personnes âgées

Tom Stevens a décidé de confier la création de son chien-robot à la compagnie Jim Henson Creature Shop, qui a déjà à son actif d’autres célèbres créatures animatroniques passées sur nos écrans comme Babe, le cochon, Docteur Dolittle et Les Muppets.

Jenny vous a fait fondre ? Sâchez qu’elle est disponible en pré-commande pour 449 $ (405 euros).

https://wamiz.com/

Certains systèmes informatiques touchés par un « bogue de l’an 2020 »


On a beaucoup parlé du bogue de l’an 2000 et rien ne s’est vraiment passé. Surprise !!! L’année 2020 lui a provoqué quelques bogues. Heureusement, c’est moins pire de ce qui avait été annoncé pour celui de 2000. Par contre, il semble que certains appréhendaient que le problème réagirait plus tard. Ils ont choisi une méthode rapide en pensant que de toute manière les problèmes n’existeraient plus en 2020… Erreur !
Nuage


Certains systèmes informatiques touchés par un « bogue de l’an 2020 »

Conceptualisation de l'année 2020 avec des nombres binaires.

Des mesures mises en place par certaines équipes de développement pour éviter le bogue de l’an 2000 l’ont simplement repoussé de 20 ans.

PHOTO : GETTY IMAGES/ISTOCKPHOTO / JACKIE NIAM

Radio-Canada

Au tournant du millénaire, on annonçait une catastrophe informatique communément appelée « le bogue de l’an 2000 », parce que plusieurs systèmes n’étaient pas programmés pour passer à un nouveau siècle

Outre quelques changements d’année indésirables où l’on passait de 1999 à 1900, rien de trop grave ne s’était finalement produit. Toutefois, certaines des mesures mises en place pour éviter le bogue de l’an 2000 l’ont simplement repoussé de 20 ans.

Ce que certaines personnes ont baptisé « le bogue de l’an 2020 » (ou Y2K20 en anglais) est loin d’être généralisé, mais certains problèmes techniques liés à ce changement de décennie ont été rapportés dans divers médias.

Les parcomètres de la ville de New York ont par exemple tous arrêté d’accepter les paiements électroniques lorsque minuit a sonné dans la nuit du 31 décembre au 1er janvier. Au moment d’écrire ces lignes, la Ville s’affaire toujours à mettre à jour les systèmes informatiques de ces parcomètres un à un afin qu’ils redeviennent fonctionnels.

Le passage à l’an 2020 a aussi paralysé une partie de la flotte de trains du métro de Hambourg, en Allemagne. Les problèmes sont maintenant réglés, mais selon plusieurs médias allemands, leurs systèmes informatiques n’étaient pas programmés pour changer de décennie.

Les serveurs du jeu vidéo de lutte WWE 2K20 ont aussi arrêté de fonctionner le 1er janvier. L’éditeur du jeu, 2K Games, a remédié à la situation en moins de 24 heures.

Mais pourquoi ce bogue survient-il?

En gros, certaines des solutions mises en place par des équipes de développement pour éviter le bogue de l’an 2000 étaient des bombes à retardement. L’une d’entre elles, surnommée « la méthode de l’année pivot », consistait à modifier l’année de référence pour un nouveau siècle.

Certaines équipes de développement ont donc choisi l’année à deux chiffres « 20 » (pour 2020) comme année de référence. Concrètement, cela veut dire que les années se terminant par les chiffres « 00 » à « 19 » sont interprétées comme faisant partie du 21e siècle, tandis que celles se terminant par les chiffres « 20 » à « 99 » appartiennent au siècle précédent.

Greg Sternberg, un développeur et consultant en informatique qui a travaillé avec plusieurs entreprises financières pour empêcher le bogue de l’an 2000, explique au site spécialisé ZDNet que la méthode de l’année pivot était quelque peu répandue dans l’industrie à l’époque.

On me disait souvent qu’il n’y avait pas de chance que le programme roulerait encore en 2020. C’est vrai dans bien des cas, mais plusieurs programmes sont restés en place beaucoup plus longtemps qu’initialement prévu, relate Greg Sternberg. 

Ces décisions à court terme étaient peut-être la solution la plus rapide à l’époque. […] Mais [les solutions rapides] finissent habituellement par nous rattraper.

La majorité des entreprises ont toutefois choisi de complètement réécrire le code de leurs systèmes plutôt que d’avoir recours à la méthode de l’année pivot. C’était une technique plus laborieuse, mais qui entraîne bien moins de conséquences négatives.

Nombreux autres incidents liés au bogue de l’an 2020 ont été rapportés par divers médias ces derniers jours. On pense entre autres aux caisses enregistreuses fabriquées par l’entreprise polonaise Novitus, qui ne sont toujours pas capables d’imprimer de factures en raison d’un problème avec leur horloge.

https://ici.radio-canada.ca

La face cachée d’Alexa, de Siri et autres assistants virtuels


Les assistants virtuels sont de plus en plus présent et nous ne sommes pas vraiment protéger contre l’amassement des données personnelles qu’ils peuvent ingérer. Si nous tenons à ces assistants, il est essentiel d’agir avec éthique socialement. Ce n’est pas tout le monde qui veut qu’les appareils intelligents puissent avoir accès à notre vie privée.
Nuage


La face cachée d’Alexa, de Siri et autres assistants virtuels



Ces appareils peuvent avoir des défaillances, des problèmes de nature technique ou dans le traitement des données. Ils sont également susceptibles d’être piratés à distance.

  • Par Rozita Dara, Tribune libre

  • Il y a de cela à peine quelques années, les appareils numériques d’assistance vocale tels qu’Alexa de Amazon, Siri de Apple, et l’Assistant de Google semblaient relever de la science-fiction. Mais demain, c’est aujourd’hui, et cet avenir est désormais intégré, amplifié, et omniprésent.

    Les assistants virtuels se retrouvent partout: au bureau, à la maison, dans l’auto, à l’hôtel, et dans bien d’autres endroits. Leur évolution récente est spectaculaire. Leurs systèmes opératoires sont propulsés par l’intelligence artificielle (IA). Ils font la cueillette de données en temps réel, et ils sont capables de rassembler des informations de sources diverses – telles que les appareils intelligents et services infonuagiques – de les contextualiser et les interpréter grâce à l’IA. Si une bonne partie du chemin a été parcouru pour développer ces technologies, il reste encore bien du travail à faire dans ce domaine.

    Grand nombre des données récoltées et utilisées par ces assistants numériques contiennent des renseignements personnels, parfois identifiables, et parfois de nature délicate. Alexa et les autres assistants virtuels violent-ils le caractère privé et la sécurité de nos données? Oui. Ces assistants personnels ont une face cachée.

    Je suis spécialiste en protection et en gouvernance des données ainsi qu’en intelligence artificielle. Je travaillais auparavant au bureau du Commissaire à l’information et à la protection de la vie privée de l’Ontario.

    Un service d’accueil

    Envisageons le scénario suivant.

    Vous recevez des amis. Votre première invitée arrive, et la caméra de sécurité de votre porche la filme en train de s’approcher de votre maison. Une voix polie lui souhaite la bienvenue et débarre la porte. Une fois entrée, votre assistant personnel lui explique que vous êtes en route et arriverez bientôt. Votre système de son met en marche une sélection des morceaux préférés de votre invitée (à partir de sa liste Spotify qu’elle a mise en partage sur son réseau d’amis). Puis, il lui demande si elle préfère toujours le café à saveur de citrouille épicée, ou si elle en voudrait plutôt un à la vanille française ou bien encore un colombien. Peu après, votre invitée prend son café sur la machine à café numérique. Son service d’accueil terminé, votre assistant vocal se tait, alors qu’en vous attendant, votre invitée passe quelques coups de téléphone.

    C’est fascinant de s’apercevoir qu’un assistant virtuel peut avec exactitude identifier votre invitée, choisir ses chansons préférées, se souvenir de son café de prédilection tout en gérant les appareils intelligents de votre domicile.

    Nos assistants virtuels à l’accueil

    Mais en quoi le comportement de votre assistant numérique vous concerne-t-il?

    Les assistants numériques sont capables d’enregistrer nos conversations, nos images, et bien d’autres éléments de notre vie privée, y compris notre localisation, par l’intermédiaire de nos téléphones intelligents. Ils se servent de nos données pour améliorer leur apprentissage automatique au fil du temps. Ils sont programmés et entretenus par des entreprises qui sont constamment à l’affût de nouvelles façons de capturer et d’utiliser nos données.

    Comme c’est le cas pour d’autres programmes informatiques, l’enjeu fondamental est que ces appareils peuvent avoir des défaillances, des problèmes de nature technique ou dans le traitement des données. Ils sont également susceptibles d’être piratés à distance, ce qui représente une atteinte à la vie privée de l’usager.

    Par exemple, en Oregon, un couple a dû débrancher leur Alexa, car ses conversations privées étaient enregistrées et envoyées à un ami figurant sur sa liste de contacts.

    Dans un incident séparé, un Allemand a reçu par erreur 1700 fichiers d’Alexa appartenant à un parfait inconnu. Ces fichiers contenaient son nom, ses habitudes, ses emplois et autres renseignements confidentiels.

    La conscience du privilège

    La popularité croissante et la disponibilité des assistants virtuels a eu pour effet d’élargir ce qu’on appelle le fossé numérique. On y découvre un paradoxe intéressant, où les usagers qui sont au courant et attentifs au respect de leur vie privée ont tendance à limiter l’utilisation d’outils numériques, alors que ceux qui protègent le moins leur vie privée intègrent de façon beaucoup plus régulière ces assistants personnels dans leur monde numérique.

    Les assistants personnels enregistrent les données des usagers soit en continu, soit en attendant une commande de réveil pour se mettre en fonction. Il n’existe pas de limite à la cueillette de données qu’ils peuvent faire. Ils sont capables de recueillir et de traiter des données non autorisées par l’usager, comme sa voix, par exemple.

    Dans notre société où sévit ce «fossé numérique», une personne avertie n’intégrerait pas un tel équipement dans son quotidien, alors que d’autres auraient tendance à accepter ou rationaliser ce type de comportement.

    Le respect de la vie privée d’autrui

    Dans notre époque aux objets omniprésents et à l’accès illimité à l’Internet, comment devrions-nous gérer ce paradoxe et respecter les choix d’autrui?

    Retournons à notre assistant virtuel du début. Il a dû traiter plusieurs sources de données sur l’invitée afin de pouvoir agir comme un «hôte intelligent».

    A-t-il agi pour nourrir ses algorithmes, ou bien pour empiéter sur la vie privée de l’invitée? Cela dépend à qui l’on pose la question.

    Notre éducation, basée sur les bonnes manières, nous pousse au respect des valeurs d’autrui en matière de technologies numériques. Cependant, les implications et la croissance de ces technologies ont été si radicales et si rapides que nous ne sommes pas encore arrivés à revoir nos paramètres sociaux ni nos exigences.

  • En tant qu’hôtes, par exemple, sommes-nous tenus d’informer nos invités de la présence de nos objets branchés? Serait-il poli pour un invité de nous demander d’éteindre ces appareils? Devrions-nous nous renseigner sur la présence d’intelligence artificielle avant de nous rendre chez un ami, dans un hôtel, ou dans un Airbnb?

    La réponse à toutes ces questions, c’est oui, selon l’expert en étiquette Daniel Post Senning. Ce dernier croit qu’une auto-évaluation aide à mieux comprendre l’étiquette. Aimerions-nous savoir que nous sommes enregistrés lors d’une réunion d’affaires ou une rencontre privée? Ou qu’on nous demande d’éteindre nos appareils intelligents lorsque nous recevons? Les règles de l’étiquette sont universelles: il nous faut être respectueux et honnêtes.

    Informez vos collègues que vos assistants virtuels peuvent enregistrer leurs voix, leur image et d’autres données personnelles. Demandez à votre hôte de fermer ses appareils si leur présence vous cause de l’inconfort. Mais faites-le avec respect. Il ne faudrait pas lui demander de le faire en présence d’une personne qui serait dépendante de tels outils, en raison de son âge ou d’un handicap, par exemple.

    Tous ensemble pour préserver notre vie privée

    La vie privée est une norme sociale que nous devons tous ensemble protéger. Tout d’abord, nous devons nous éduquer en matière de cybersécurité et des risques associés aux technologies numériques. Nous devrions également nous tenir au courant des dernières avancées technologiques et y réagir le cas échéant.

    Le gouvernement se doit de jouer un rôle essentiel face à ce paradigme complexe. Il nous faut des lois plus fortes en matière de protection de la vie privée en lien avec les assistants virtuels. Pour l’instant, les règles du jeu sont écrites par Amazon, Google et Apple.

    D’autres juridictions ont instauré des réglementations, comme celle du Règlement général sur la protection des données en Europe qui, notamment, supervise la cueillette de données sur un éventail d’appareils intelligents. Le Canada devrait suivre leur exemple.

    La version originale de cet article a été publiée en anglais sur le site de La Conversation.

  • https://quebec.huffingtonpost.ca/

Les visages des minorités visibles moins bien identifiés par la reconnaissance faciale


Je peux comprendre lors d’un attentat ou au crime qu’on puisse utiliser la reconnaissance faciale pour trouver les criminelles, mais si cette technologie identifie, à tort des personnes de couleurs, il y a des risques de harcèlements et d’accusations infondées.
Nuage


Les visages des minorités visibles moins bien identifiés par la reconnaissance faciale

Une foule de personnes identifiées par reconnaissance faciale en Chine.

L’étude paraît au moment où de plus en plus de gens critiquent l’arrivée de cette technologie aux États-Unis, qui pourrait selon eux mener à des cas d’arrestation ou de harcèlement injustifiés.

PHOTO : REUTERS / CHINA DAILY CDIC

Reuters

Plusieurs systèmes de reconnaissance faciale identifient mal les visages des personnes de couleur plus souvent que ceux des personnes blanches, d’après une étude rendue publique par le gouvernement américain jeudi. 

L’étude du National Institute of Standards and Technology (NIST) a trouvé que les algorithmes de reconnaissance faciale faisant des comparaisons un à un, qui servent habituellement à confirmer l’identité d’une personne, ont mal identifié les personnes noires et asiatiques de 10 à 100 fois plus souvent que pour les personnes caucasiennes.

L’étude a également trouvé que les femmes noires ont plus de chances d’être mal identifiées par des algorithmes de reconnaissance faciale faisant des comparaisons un à plusieurs, dont se servent souvent les autorités pour identifier des personnes d’intérêt lors d’enquêtes criminelles.

Le fondateur de la Ligue de la Justice Algorithmique, Joy Buolamwini, a qualifié l’étude de réfutation exhaustive des arguments des gens qui estiment que le biais algorithmique n’est pas (ou plus) un enjeu.

L’étude paraît au moment où de plus en plus de gens critiquent l’arrivée de cette technologie aux États-Unis, qui pourrait selon eux mener à des cas d’arrestation ou de harcèlement injustifiés.

https://ici.radio-canada.ca/

Il terrorise une fillette en piratant la caméra de surveillance placée dans sa chambre


Même si la mère aurait fait les authentifications des caméras de surveillance dans la chambre des enfants, ce sont des objets connectés qui peuvent être pirater. Sommes-nous si obsédé par la sécurité des enfants qu’on les surveillent partout ? Je trouve cela vraiment ignoble ce piratage a cette petite fille
Nuage


Il terrorise une fillette en piratant la caméra de surveillance placée dans sa chambre

Une caméra de surveillance placée sur un bureau, à côte d'une pile de livres.

Une caméra de surveillance domestique Ring.

PHOTO : AMAZON.CA

Radio-Canada

Alyssa LeMay, 8 ans, entend de la musique venant de sa chambre. Elle entre dans la pièce pour savoir ce qui se passe. Soudain, la chanson s’arrête. « Bonjour », dit la voix d’un homme. La fillette regarde autour d’elle, confuse, ne comprenant pas d’où vient la voix mystérieuse. La caméra de surveillance Ring qu’avait achetée sa mère quelques jours plus tôt, lors du Vendredi fou, venait d’être piratée.

Le dialogue entre le pirate et la jeune fille se poursuit plus de deux minutes dans cette vidéo mise en ligne jeudi. L’homme lui lance des injures à caractère raciste. On voit la petite fille du Tennessee devenir de plus en plus angoissée au fil de la conversation.

Qui est-ce?, demande la fillette.

« Je suis ton meilleur ami. Je suis le père Noël. Veux-tu être ma meilleure amie? » lui répond le pirate.

Une caméra achetée à des fins de sécurité

La mère d’Alyssa, Ashley LeMay, a expliqué avoir acheté cette caméra Ring, que fabrique le géant Amazon, pour garder un œil sur sa fille lorsqu’elle travaillait ses quarts de nuit.

[Une autre mère] en avait une et elle s’en servait pour regarder ses enfants sur son téléphone. Je me suis dit “Oh, on peut même [s’en servir] pour leur parler, c’est vraiment intéressant! a-t-elle raconté au réseau télévisé WMC5.

La femme a depuis débranché la caméra en plus des deux autres qu’elle a achetées pour mettre dans les chambres de ses deux autres filles et compte se faire rembourser.


Des images d'une caméra de surveillance dans la chambre d'une petite fille.

Cette vidéo mise en ligne jeudi a été captée par la caméra Ring de la famille LeMay, qui a été piratée.

PHOTO : TWITTER / JESSICA HOLLEY

Ils auraient pu les regarder dormir ou se changer. Ils auraient pu voir tellement de choses, se désole Ashley LeMay.

Une attaque évitable? 

La famille avoue toutefois ne pas s’être servi de l’authentification à deux facteurs pour son compte Ring, ce qui pourrait avoir facilité une intrusion du pirate. 

C’est entre autres pour cette raison, a expliqué un porte-parole de Ring dans une déclaration fournie à WMC5, que l’incident ne constitue pas une brèche de sécurité aux yeux de l’entreprise.

En raison du fait que la clientèle se sert souvent du même pseudonyme et mot de passe pour plusieurs comptes, les personnes malveillantes se servent souvent d’identifiants volés ou ayant fuité d’un autre service pour accéder à d’autres comptes. Nous encourageons les utilisateurs et utilisatrices de Ring à activer l’authentification à deux facteurs sur leur compte, […] d’utiliser des mots de passe forts et de régulièrement les changer, a déclaré le porte-parole.

Le site web Motherboard a trouvé plusieurs publications sur des forums où des cybercriminels discutaient d’outils dédiés à pirater des caméras Ring, dont un logiciel qui teste automatiquement une banque de pseudonymes et de mots de passe pour voir s’ils fonctionnent avec des comptes Ring. Certains programmes de la sorte étaient offerts pour aussi peu que 6 $.

Ring fait l’objet de controverse depuis plusieurs mois aux États-Unis. Il a été révélé en octobre que plus de 600 services de police américains pouvaient demander l’accès aux images captées par les sonnettes intelligentes de cette marque sans avoir besoin d’un mandat.

Les cyberattaques sur les objets connectés ont d’ailleurs augmenté de 300 % dans la première moitié de l’année par rapport aux 6 derniers mois de 2018, selon un rapport de l’équipe de recherche de l’entreprise spécialisée en cybersécurité F Secure. Ce type d’attaque peut être particulièrement dangereuse, puisqu’elle peut servir de point d’entrée à des réseaux complets.

https://ici.radio-canada.ca/

Détectez les séismes avec votre smartphone


Une application  gratuite pour détecter les séismes, plus cette application est télécharger plus, il est possible que les smartphones détectent les tremblements de terre a plus de 4.5.
Nuage


Détectez les séismes avec votre smartphone

Fabrice Auclert

Journaliste


MyShake. C’est le nom de cette application pour Android et iOS qui utilise l’accéléromètre présent dans les smartphones pour détecter les mouvements de la terre. 

Les catastrophes naturelles entraînent non seulement des dégâts conséquents, mais ils se traduisent encore aujourd’hui par les pertes de nombreuses vies humaines. Bien souvent le nombre de victimes est largement réduit si la population est avertie à temps. C’est le cas avec les tremblements de terre, et certains pays, comme la Corée du Sud, le Mexique, le Japon et Taïwan, ont déjà mis en place des réseaux de sismographes et un système d’alerte qui prévient la population avant le début du séisme. Cependant, les systèmes actuels sont limités et chers à mettre en place.

Un groupe de chercheurs de l’université de Californie à Berkeley a eu une idée pour créer un système à moindres frais. Plutôt que de déployer un matériel coûteux, ils ont décidé de tirer profit d’une technologie qui couvre déjà tout le territoire : les smartphones.

Gratuite, l’application fonctionne en arrière-plan et enregistre jour et nuit les secousses de la terre. © UC Berkeley

Bientôt intégrée directement dans iOS ou Android ?

Les chercheurs ont publié une application appelée MyShake, qui fonctionne sur iOS et Android, et qui utilise l’accéléromètre des appareils mobiles pour détecter les séismes. Grâce à une étude sur 100 volontaires, ils ont appris à différencier les mouvements dus à une utilisation normale des secousses d’un tremblement de terre. L’application peut détecter un séisme de magnitude 4,5 ou plus, auquel cas il envoie une alerte.

Bien entendu, une alerte d’un seul appareil ne permet pas de conclure à un séisme. Cependant, en 2016 un tremblement de terre de magnitude 5,2 a été détecté par plus de 200 smartphones. À ce jour, plus de 320.000 personnes ont installé l’application à travers le monde. Les chercheurs imaginent intégrer la technologie dans une application populaire ou directement au sein du système d’exploitation mobile pour créer rapidement un réseau mondial capable de détecter les séismes et envoyer une alerte partout où les humains sont présents.

https://www.futura-sciences.com/

Le monde comptera 1 milliard de caméras de surveillance en 2021


1 milliard de caméras de surveillance prévu en 2021 dans le monde, rien que ça. La Chine et les États-Unis sont les pays qu’il y a plus de ces caméras. Je peux comprendre que c’est utile, mais quand c’est pour épier la population comme le fait la Chine, c’est inquiétant.
Nuage

Le monde comptera 1 milliard de caméras de surveillance en 2021

Des caméras de surveillance montées sur un poteau, à l'extérieur.

La Chine et les États-Unis sont les pays où l’on retrouve le plus de caméras de surveillance par personne.

PHOTO : GETTY IMAGES/ISTOCKPHOTO / SKARIE20

Radio-Canada

Il y aura plus de 1 milliard de caméras de surveillance actives partout dans le monde en 2021, et la moitié de celles-ci se trouveront en Chine, d’après une récente étude de la firme IHS Markit.

C’est une augmentation de près de 30 % par rapport au nombre de caméras de surveillance présentement en service, dont le total mondial s’élève à près de 770 millions. Environ 350 millions de celles-ci sont situées en Chine (1 pour chaque 4,1 citoyens ou citoyennes), alors que 70 millions se trouvent aux États-Unis (1 pour chaque 4,6 citoyens ou citoyennes).

Ces deux pays sont de loin les plus touchés par le phénomène. Il faut par contre préciser que plus de la moitié des caméras installées en Chine sont utilisées à des fins de surveillance urbaine, alors que c’est le cas pour seulement 3 % de celles qu’on trouve aux États-Unis.

Il n’en demeure pas moins que l’auteur du rapport croit que la surveillance de masse pourrait bientôt être un problème de taille aux États-Unis, qui verra son nombre total de caméras de surveillance gonfler de 15 millions dans les deux prochaines années.

Étant donné que les États-Unis sont presque au même niveau que la Chine en ce qui concerne le taux de pénétration de caméras sur le marché, les futurs débats sur la surveillance de masse pourraient autant viser les États-Unis que la Chine, explique-t-il dans un communiqué.

Le Canada n’est pas mentionné dans la version abrégée du rapport dont Radio-Canada a obtenu une copie. Il est donc impossible pour l’instant de connaître les statistiques exactes sur le taux de caméras de surveillance par personne. Le classement complet devrait être rendu public plus tard cette semaine.

La Chine, chef de file

Certains des plus importants fabricants de matériel de surveillance vidéo, comme Hikvision, Dahua et Huawei, sont chinois. Ils exportent plusieurs de leurs produits partout dans le monde, dont en Amérique du Nord.

Le gouvernement du Parti communiste a su bâtir cette année un véritable système de surveillance de masse à l’aide d’un système de caméras propulsé par l’intelligence artificielle et la reconnaissance faciale.

Il a d’ailleurs récemment été révélé que la Chine se sert de cette technologie pour surveiller les moindres faits et gestes de la minorité ouïghoure, dont plus de 1 million de membres sont emprisonnés dans des camps d’internement.

https://ici.radio-canada.ca