Devrait-on avoir peur d’une intelligence artificielle psychopathe ?

 

L’intelligence artificielle n’est plus un rêve de science-fiction, mais une évolution technologique dont nous commençons à voir les prémisses. Devrions-nous avoir peur d’une intelligence artificielle ? Plus précisément, devrions-nous avoir peur d’une intelligence artificielle psychopathe ?

 

Certains commencent à craindre l’importance de l’IA dans nos vies futures (serait-ce la faute des films de sci-fi ?) et n’hésitent pas à nous mettre en garde contre cette technologie. D’autres quant à eux, tentent de nous rassurer en mettant en avant les bienfaits que pourrait avoir l’IA… Mais il existe également des scientifiques qui prennent ce mouvement à contre-courant en créant une IA psychopathe.

Les chercheurs du Massachusetts Institute of Technology aurait essayé de prouver que le comportement d’une intelligence artificielle pouvait être influencé par les données qu’on lui donne. Prénommée « Norman », en référence au film culte Psychose d’Alfred Hitchcock, cette IA a été éduquée (via le deep learning) à travers un fil de discussion sur le forum Reddit ne postant que des images gores, violentes et macabres.

Après avoir été exposée à ce sombre recoin d’internet, l’IA aurait passé le test de Rorschach, le fameux test des taches d’encre qu’utilisent les psychologues pour évaluer leurs patients. Le résultat est sans conteste : Norman est considéré comme psychopathe et pour cause, là où une IA neutre (non influencée par des descriptions de photos macabres) pourrait voir une personne tenant un parapluie, Normal voit un homme être tué devant sa femme. De quoi avoir peur n’est-ce pas ?

 

Test des tâches d'encre

https://www.numerama.com/content/uploads/2018/06/norman-3-1024×310.png

 

 

Les chercheurs du MIT ont voulu sensibiliser les internautes au fait que le comportement d’une intelligence artificielle n’est que le résultat des données qui lui sont transmises. Ainsi l’année dernière une IA tenait des propos racistes et sexistes parce que les données reçues au travers du processus de deep learning étaient « mauvaises ».

Des questions d’éthiques sont ainsi soulevées, comment créer une IA neutre et s’assurer qu’on lui donne des « bonnes » données ? Les données sur lesquelles se basent les intelligences artificielles ont un rôle primordial, mais il apparaît bien difficile de faire le tri dans le vaste monde qu’est internet. Surtout que ces données sont des opinions exprimées par des humains…

Comment créer une IA bienveillante quand il existe encore énormément de racistes, sexistes et de psychopathes sur Terre ? La seule solution à l’heure actuelle serait de contrôler les données que reçoivent les IA. Vous pouvez également essayer de « soigner » Norman en lui donnant des informations un peu plus joyeuses (et moins sordides) à travers ce formulaire.

 

Pour l’instant le fait qu’une IA soit psychopathe n’a aucune conséquence. Quant à l’avenir ? Ce n’est pas tant de l’IA dont on devrait se méfier, mais des personnes derrière cette IA.

 

A propos de Steven GUILBERT

Etudiant en M2 Commerce Electronique à l'Université de droit de Strasbourg. Passionné par les nouvelles technologies et par l'art.

Vous aimerez aussi...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.