L’intelligence artificielle n’est plus un rêve de science-fiction, mais une évolution technologique dont nous commençons à voir les prémisses. Devrions-nous avoir peur d’une intelligence artificielle ? Plus précisément, devrions-nous avoir peur d’une intelligence artificielle psychopathe ?
 
Certains commencent à craindre l’importance de l’IA dans nos vies futures (serait-ce la faute des films de sci-fi ?) et n’hésitent pas à nous mettre en garde contre cette technologie. D’autres quant à eux, tentent de nous rassurer en mettant en avant les bienfaits que pourrait avoir l’IA… Mais il existe également des scientifiques qui prennent ce mouvement à contre-courant en créant une IA psychopathe.
Les chercheurs du Massachusetts Institute of Technology aurait essayé de prouver que le comportement d’une intelligence artificielle pouvait être influencé par les données qu’on lui donne. Prénommée « Norman », en référence au film culte Psychose d’Alfred Hitchcock, cette IA a été éduquée (via le deep learning) à travers un fil de discussion sur le forum Reddit ne postant que des images gores, violentes et macabres.
Après avoir été exposée à ce sombre recoin d’internet, l’IA aurait passé le test de Rorschach, le fameux test des taches d’encre qu’utilisent les psychologues pour évaluer leurs patients. Le résultat est sans conteste : Norman est considéré comme psychopathe et pour cause, là où une IA neutre (non influencée par des descriptions de photos macabres) pourrait voir une personne tenant un parapluie, Normal voit un homme être tué devant sa femme. De quoi avoir peur n’est-ce pas ?
 
Test des tâches d'encre

https://www.numerama.com/content/uploads/2018/06/norman-3-1024×310.png

 
 
Les chercheurs du MIT ont voulu sensibiliser les internautes au fait que le comportement d’une intelligence artificielle n’est que le résultat des données qui lui sont transmises. Ainsi l’année dernière une IA tenait des propos racistes et sexistes parce que les données reçues au travers du processus de deep learning étaient « mauvaises ».
Des questions d’éthiques sont ainsi soulevées, comment créer une IA neutre et s’assurer qu’on lui donne des « bonnes » données ? Les données sur lesquelles se basent les intelligences artificielles ont un rôle primordial, mais il apparaît bien difficile de faire le tri dans le vaste monde qu’est internet. Surtout que ces données sont des opinions exprimées par des humains…
Comment créer une IA bienveillante quand il existe encore énormément de racistes, sexistes et de psychopathes sur Terre ? La seule solution à l’heure actuelle serait de contrôler les données que reçoivent les IA. Vous pouvez également essayer de « soigner » Norman en lui donnant des informations un peu plus joyeuses (et moins sordides) à travers ce formulaire.
 
Pour l’instant le fait qu’une IA soit psychopathe n’a aucune conséquence. Quant à l’avenir ? Ce n’est pas tant de l’IA dont on devrait se méfier, mais des personnes derrière cette IA.
 

A propos de Steven GUILBERT