La reconnaissance faciale échoue sur le plan racial, selon une étude

Une étude du gouvernement américain suggère que les algorithmes de reconnaissance faciale sont beaucoup moins précis pour identifier les visages afro-américains et asiatiques que les visages caucasiens.

 

Les femmes afro-américaines sont encore plus susceptibles d’être mal identifiées, selon cette étude.

Cela pose la question de savoir si cette technologie devrait être utilisée par les organismes d’application de la loi.

Un critique a qualifié les résultats de « choquants ».

Le National Institute of Standards and Technology (Nist) a testé 189 algorithmes de 99 développeurs, dont Intel, Microsoft, Toshiba et les sociétés chinoises Tencent et DiDi Chuxing.

Correspondance individuelle

 

Amazon – qui vend son produit de reconnaissance faciale Rekognition aux forces de police américaines – n’en a pas soumis un pour examen.

Le géant de la vente au détail avait auparavant qualifié de « trompeuse » une étude du Massachusetts Institute of Technology.

Ce rapport avait suggéré que Rekognition était très peu performant lorsqu’il s’agissait de reconnaître les femmes à la peau plus foncée.

Lorsqu’on compare une photo particulière à une autre du même visage – ce que l’on appelle la correspondance biunivoque- de nombreux algorithmes testés ont fait dix à cent fois plus d’erreurs sur des visages afro-américains et asiatiques que sur des visages caucasiens, selon le rapport.

En outre, les Afro-Américaines étaient plus susceptibles d’être mal identifiées dans le cadre de la correspondance dite « un à plusieurs », qui consiste à comparer une photo particulière à de nombreuses autres dans une base de données.

 

Le membre du Congrès Bennie Thompson, président de la Commission de la Chambre des représentants sur la sécurité intérieure, a déclaré à Reuters « L’administration doit réévaluer ses plans pour la technologie de reconnaissance faciale à la lumière de ces résultats choquants. »

Joy Buolamwini, informaticienne et fondatrice de la Ligue de Justice Algorithmique, a qualifié le rapport de « réfutation complète » à ceux qui affirment que les logiciels d’intelligence artificielle ne sont pas biaisés.

Les algorithmes de l’étude Nist ont été testés sur deux types d’erreurs :

  • les faux positifs, où le logiciel considère à tort que les photos de deux individus différents montrent la même personne
  • les faux négatifs, où le logiciel ne parvient pas à faire correspondre deux photos qui montrent la même personne

Le logiciel utilisait des photos provenant de bases de données fournies par le département d’État, le ministère de la sécurité intérieure et le FBI, sans images provenant de médias sociaux ou de vidéosurveillance.

« Bien qu’il soit généralement incorrect de faire des déclarations à travers les algorithmes, nous avons trouvé des preuves empiriques de l’existence de différences démographiques dans la majorité des algorithmes de reconnaissance faciale que nous avons étudiés », a déclaré Patrick Grother, un informaticien du Nist et l’auteur principal du rapport.

« Bien que nous n’explorions pas ce qui pourrait causer ces différentiels, ces données seront utiles aux décideurs, aux développeurs et aux utilisateurs finaux pour réfléchir aux limites et à l’utilisation appropriée de ces algorithmes ».

L’une des entreprises chinoises, SenseTime, dont les algorithmes se sont révélés inexacts, a déclaré que c’était le résultat de « bugs » qui sont maintenant résolus.

« Les résultats ne reflètent pas nos produits, car ils sont soumis à des tests approfondis avant d’entrer sur le marché.

C’est pourquoi nos solutions commerciales présentent toutes un haut degré de précision », a déclaré un porte-parole à la BBC.

Plusieurs villes américaines, dont San Francisco et Oakland en Californie et Somerville dans le Massachusetts, ont interdit l’utilisation de la technologie de reconnaissance faciale.

 

Lire aussi :

 

 

Source : BBC Afrique

Diffusion partielle ou totale interdite sans la mention : Source : www.kassataya.com

 

Articles similaires

Bouton retour en haut de la page
Fermer
Fermer