La technologie de reconnaissance faciale doit-elle être développée ou arrêtée ? (partie 2)

Comparées à l’autorité publique, les sociétés commerciales ne semblent pas avoir la capacité d’établir une règle “orwellienne”. Pourquoi devraient-elles être restreintes ?

Cela s’explique principalement par le fait que, si les sociétés commerciales ne sont soumises à aucune restriction, elles collectent une grande quantité de données relatives au visage dans la poursuite de leurs intérêts commerciaux et peuvent vendre et exploiter ces données sans l’autorisation des consommateurs.

De nombreuses personnes pensent que les données faciales sont les données biométriques (biometric data) les plus sensibles dans les informations personnelles, et doivent être protégé au maximum.

Préjugés dans la technologie de reconnaissance faciale

Il existe également des raisons très importantes expliquant les restrictions imposées aux technologies de reconnaissance faciale: la technologie est encore immature, les erreurs sont nombreuses et entraînent une discrimination à l’encontre de différents groupes de personnes.

En avril de cette année, un étudiant américain âgé de 18 ans a poursuivi Apple en justice, en l’accusant d’avoir utilisé une technologie de reconnaissance faciale dans un magasin qui l’avait identifié à tort comme un voleur. Cela l’a conduit à recevoir une assignation à comparaître et a ensuite été arrêté par la police, lui causant de graves dommages psychologiques. L’étudiant a demandé à Apple de payer 1 milliard de dollars.

En janvier de cette année, ACLU a testé le système de reconnaissance faciale Rekognition développé par Amazon pour permettre au système d’identifier les photos de législateurs américains. En conséquence, le système a identifié jusqu’à 28 membres du parlement en tant que criminels.

La précision de la technologie de reconnaissance faciale chez les blancs est beaucoup plus élevée que chez les personnes de couleur. La précision de la reconnaissance chez les hommes est supérieure à celle des femmes.

Ce résultat n’est pas inattendu. Lors du développement de la technologie de reconnaissance faciale, les photos que les chercheurs utilisaient pour former les machines étaient principalement des clichés d’hommes de race blanche. Les machines étaient donc plus capable d’identifier ces derniers. En revanche, en raison du manque d’expérience dans l’identification des personnes de couleur et des femmes, les machines risquent davantage de commettre des erreurs lors de l’identification de ces individus.

Ce préjudice provient et renforce les inégalités existantes dans la société.

Ce type de préjugés dans la technologie est souvent négligé parce qu’à l’inverse des humains, les machines n’ont pas de sentiments, elles devraient donc être objectives et justes. Cependant, comme mentionné précédemment, la technologie est développée par des personnes dans des conditions sociales spécifiques, elle va donc reproduire ses préjugés. Ainsi, si les machines décident de tout, le résultat pourrait être une augmentation des inégalités sociales et une justice biaisée.

C’est pour ces raisons que de nombreux pays et villes ont imposé des restrictions strictes à l’utilisation de la technologie de reconnaissance faciale.

Concernant l’UE, des restrictions sur les technologies de reconnaissance faciale sont présentées dans le rapport appelé ” ethically based laws governing AI “. L’UE n’est pas un leader dans le développement de la technologie numérique, mais est à l’avant-garde pour la réglementation de ce domaine. Le but n’est pas de brider l’avancée des nouvelles technologies, mais de promouvoir celles au bénéfice de la société.

Encadrer la technologie de l’intelligence artificielle peut en fait augmenter la confiance du public et son acceptation, ce qui profitera en définitive au développement et à l’application de cette technologie.

Selon le Financial Times, l’UE espère établir une “norme mondiale pour la réglementation de l’intelligence artificielle” afin de protéger les droits individuels.

A propos de Yining HUANG

Vous aimerez aussi...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.