Je peux comprendre lors d’un attentat ou au crime qu’on puisse utiliser la reconnaissance faciale pour trouver les criminelles, mais si cette technologie identifie, à tort des personnes de couleurs, il y a des risques de harcèlements et d’accusations infondées.
Nuage
Les visages des minorités visibles moins bien identifiés par la reconnaissance faciale
L’étude paraît au moment où de plus en plus de gens critiquent l’arrivée de cette technologie aux États-Unis, qui pourrait selon eux mener à des cas d’arrestation ou de harcèlement injustifiés.
PHOTO : REUTERS / CHINA DAILY CDIC
Reuters
Plusieurs systèmes de reconnaissance faciale identifient mal les visages des personnes de couleur plus souvent que ceux des personnes blanches, d’après une étude rendue publique par le gouvernement américain jeudi.
L’étude du National Institute of Standards and Technology (NIST) a trouvé que les algorithmes de reconnaissance faciale faisant des comparaisons un à un, qui servent habituellement à confirmer l’identité d’une personne, ont mal identifié les personnes noires et asiatiques de 10 à 100 fois plus souvent que pour les personnes caucasiennes.
L’étude a également trouvé que les femmes noires ont plus de chances d’être mal identifiées par des algorithmes de reconnaissance faciale faisant des comparaisons un à plusieurs, dont se servent souvent les autorités pour identifier des personnes d’intérêt lors d’enquêtes criminelles.
Le fondateur de la Ligue de la Justice Algorithmique, Joy Buolamwini, a qualifié l’étude de réfutation exhaustive
des arguments des gens qui estiment que le biais algorithmique n’est pas (ou plus) un enjeu.
L’étude paraît au moment où de plus en plus de gens critiquent l’arrivée de cette technologie aux États-Unis, qui pourrait selon eux mener à des cas d’arrestation ou de harcèlement injustifiés.
Affectivement cela pose un problème.