Un tribunal britannique qualifie «d’illégale» la technologie de reconnaissance faciale automatique

1

Après une longue bataille juridique, un tribunal londonien a jugé illégal pour la police d’utiliser la reconnaissance faciale automatique pour surveiller les foules.

 

Le tribunal a jugé que les outils de reconnaissance faciale de la police du sud du Pays de Galles étaient trop peu contrôlés, selon BBC News, et est même allé plus loin en notant que la police n’avait pas réussi à s’assurer que l’algorithme de reconnaissance faciale ne perpétuait pas les préjugés raciaux. Même si une utilisation correcte de la reconnaissance faciale existe théoriquement quelque part, la police du sud du Pays de Galles a trop peu de garanties en place pour justifier son utilisation devant les tribunaux.

La reconnaissance faciale automatique consiste à installer des caméras de surveillance, à les équiper d’un logiciel de reconnaissance faciale et à comparer toutes les personnes qu’elle voit à une base de données de photos d’identité ou à d’autres fichiers de la police. Malheureusement, cela ne fonctionne pas très bien : Lors de la finale de la Ligue des champions 2017 (oui : le football), le système a fait 2 297 erreurs, signalant des personnes qui ne figuraient pas du tout dans la base de données des photos d’identité judiciaire.

«Je suis ravi que le tribunal ait accepté que la reconnaissance faciale menace clairement nos droits», a déclaré le plaignant Ed Bridges à BBC News. «Cette technologie est un outil de surveillance de masse intrusif et discriminatoire.»

Pendant ce temps, la police du sud du Pays de Galles dit à la BBC qu’elle veut continuer à utiliser la technologie de surveillance, en faisant croire à un tribunal qu’il s’agit d’une «étape importante dans son développement».

«Depuis trois ans maintenant, la police du sud du Pays de Galles l’utilise contre des centaines de milliers d’entre nous, sans notre consentement et souvent à notre insu», a déclaré Bridges à BBC News. «Nous devrions tous pouvoir utiliser nos espaces publics sans être soumis à une surveillance oppressive.»

 

Source : https://futurism.com/the-byte/uk-court-automatic-facial-recognition-tech-unlawful et https://www.bbc.com/news/uk-wales-53734716

Traduction : ExoPortail


Si l’article vous a plu, n’hésitez pas à vous abonner à nos Réseaux Sociaux / NewsLetter ainsi qu’à partager l’article sur vos pages / groupes Facebook, cela aide énormément à l’information. Et si vous vous sentez guidé, soutenir le site par un don ou par Tipeee. Merci beaucoup.

S'abonner à la Newsletter ExoPortail

Saisissez votre adresse e-mail pour vous abonner et recevoir une notification de chaque nouvel article par email.

Rejoignez les 3 425 autres abonnés

Partager l'article :

1 Commentaire

  1. Non seulement c’est illégal de le faire, mais ça devrait aussi être illégal de simplement « vouloir » le faire. Les personnes qui ont proposé ce projet et qui ont travaillé de près ou de loin sur sa réalisation devraient toutes en subir des conséquences : i.e. faire face à des poursuites criminelles.

Donnez votre Avis :)

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.