Unlocking your phone with facial recognition even when you have your glasses on

La police utilise un logiciel de reconnaissance faciale invasif pour placer chaque Américain dans une file d’attente perpétuelle

Réfléchissez-y à deux fois avant de publier ce selfie sur Facebook ; vous pourriez être ajouté à une base de données de la police.

Avec toute l’excitation autour de l’IA, grâce à ChatGPT, beaucoup applaudissent cette technologie et aiment ses pouvoirs d’optimisation. Malheureusement, cet oignon a plusieurs couches; plus on s’enfonce, plus ça pue.

Nous pouvons énumérer des dizaines de raisons de craindre l’IA, comme le fait qu’elle devienne plus intelligente que les humains et qu’elle conduise potentiellement à des résultats inattendus et incontrôlables, au déplacement d’emplois, à la militarisation et bien d’autres. Cependant, il y a déjà un problème qui pointe le bout de son nez. Les violations de la vie privée se multiplient et causent des dommages.

Dévoilement de l’identité de la société de reconnaissance faciale la plus notoire dont vous n’avez jamais entendu parler

La société de technologie IA IA Clearview, a fait la une des journaux pour son utilisation abusive des données des consommateurs. Il fournit un logiciel de reconnaissance faciale aux forces de l’ordre, aux entreprises privées et à d’autres organisations. Leur logiciel utilise des algorithmes d’intelligence artificielle pour analyser les images de visages et les comparer à une base de données de plus de 3 milliards de photos extraites de diverses sources, y compris des plateformes de médias sociaux comme Facebook, Instagram et Twitter, le tout sans l’autorisation des utilisateurs. La société a déjà été condamnée à des amendes de plusieurs millions de dollars en Europe et en Australie pour de telles atteintes à la vie privée.

Pourquoi les forces de l’ordre sont le plus gros client de Clearview AI

Chaque fois que la police a une photo d'un suspect, elle peut la comparer à votre visage, ce que beaucoup de gens trouvent envahissant.

Les détracteurs de l’entreprise affirment que l’utilisation de son logiciel par la police place tout le monde dans une « alignement de police perpétuel ». Chaque fois que la police a une photo d’un suspect, elle peut la comparer à votre visage, ce que beaucoup de gens trouvent envahissant.

Le système de Clearview AI permet aux forces de l’ordre de télécharger une photo d’un visage et de trouver des correspondances dans une base de données de milliards d’images que l’entreprise a collectées. Il fournit ensuite des liens vers les endroits où les images correspondantes apparaissent en ligne. Le système est connu pour être l’un des outils de reconnaissance faciale les plus puissants et les plus précis au monde.

Clearview AI a fait la une des journaux pour son utilisation abusive des données des consommateurs.  Il fournit un logiciel de reconnaissance faciale aux forces de l'ordre, aux entreprises privées et à d'autres organisations.

Bien qu’il lui soit interdit de vendre ses services à la plupart des entreprises américaines en raison d’une violation des lois sur la confidentialité, Clearview AI bénéficie d’une exemption pour la police. Le PDG de la société, Hoan Ton-That, affirme que des centaines de forces de police à travers les États-Unis utilisent son logiciel.

Vous pouvez visiter ce site Internet pour voir si les postes de police de votre quartier utilisent cette technologie.

Vous pouvez visiter ce site Web pour voir si les postes de police de votre quartier utilisent cette technologie.

Dans la plupart des cas, cependant, la police n’utilise la technologie de reconnaissance faciale de Clearview AI que pour les crimes graves ou violents, à l’exception de la police de Miami, qui a ouvertement admis utiliser le logiciel pour chaque type de crime.

Quels sont les dangers liés à l’utilisation de ce logiciel d’identification faciale ?

Clearview AI prétend avoir un taux de précision de près de 100 %, mais ces chiffres sont souvent basés sur des mugshots. La précision du système dépend de la qualité des images qui y sont introduites, ce qui a de sérieuses ramifications négatives. Par exemple, l’algorithme peut confondre deux personnes différentes et fournir une identification positive aux forces de l’ordre alors qu’en fait, la personne en question est totalement innocente et que l’identification faciale était erronée.

Clearview AI prétend avoir un taux de précision de près de 100 %, mais ces chiffres sont souvent basés sur des mugshots.

Les militants des droits civiques veulent que les forces de police qui utilisent Clearview disent ouvertement quand il est utilisé et que son exactitude soit ouvertement testée devant les tribunaux. Ils veulent que l’algorithme soit examiné par des experts indépendants et sont sceptiques quant aux affirmations de l’entreprise. Cela peut aider à garantir que ceux qui sont poursuivis grâce à cette technologie sont bien coupables et non victimes d’un algorithme défectueux.

Dernières pensées

Malgré certains cas où il est prouvé que Clearview AI a travaillé pour un défendeur, comme dans le cas de Andrew Conlyn de Fort Myers, en Floride, qui a fait abandonner les charges retenues contre lui après que Clearview AI a été utilisé pour trouver un témoin crucial, les critiques estiment que l’utilisation du logiciel a un prix trop élevé pour les libertés civiles et les droits civils. Bien que cette technologie puisse être utilisée pour aider certaines personnes, sa nature intrusive est terrifiante.

Souhaitez-vous soutenir cette technologie si vous saviez qu’elle pourrait vous aider à gagner une affaire, ou ses ramifications sont-elles trop dangereuses ? Faites le nous savoir! Nous aimerions recevoir de vos nouvelles.

Pour plus de mes conseils, abonnez-vous à ma newsletter gratuite CyberGuy Report en cliquant sur le lien en haut de mon site Web.

Copyright 2023 CyberGuy.com. Tous les droits sont réservés.

A lire également