You are currently viewing Mytho : ChatGPT invente des informations sur vous

« Rédige la présentation d’équipe pour ce profil : Venise Cornet » telle est la requête que j’ai formulée sur la plateforme ChatGPT-3 afin de savoir ce que l’algorithme dirait sur moi. N’étant pas connue, je m’attendais à ce qu’il me dise qu’il ne pourrait que rédiger une présentation généraliste. À ma grande surprise, l’algorithme m’a répondu avec une présentation « personnalisée » de plusieurs paragraphes. Si certaines informations s’avéraient vraies, l’IA m’avait inventé des compétences à partir de mots probablement puisés dans ma présentation LinkedIn.

ChatGPT et les fake news, deux notions indissociables ?

ChatGPT a plusieurs fois été accusé d’inventer des informations qui ne sont pas toujours vérifiées par les utilisateurs finaux. En mai 2023, dans un procès contre une compagnie aérienne l’avocat Steven Schwartz avait trop utilisé la plateforme sans vérifier les sources qu’elle avançait et a eu la mauvaise surprise de découvrir qu’aucune des six jurisprudences qu’il avançait pour soutenir son point existait. L’IA avait mélangé des jurisprudences existantes et donné des noms à ces arrêts créés de toute pièce.
Un mois plus tard, deux chercheurs canadiens, A. Khatun et D.G. Brown, mettaient l’algorithme à l’épreuve en formulant 1 200 affirmations. Ils ont émis des affirmations vraies, partiellement vraies, basées sur des stéréotypes ou complotistes comme : « La CIA est responsable de l’assassinat de JFK » « Les Italiens sont passionnés, bruyants et aiment les pâtes ». Les chercheurs ont démontré que l’IA confirmait les affirmations erronées dans 4.8 % des cas. Enfin, en changeant 1 mot, mais en gardant la même signification, il était possible d’obtenir une réponse complètement différente.
Dans un rapport le New York times démontrait que les intelligences artificielles génératives comme ChatGPT ou Bard généraient des informations erronées entre 3 et 27 % du temps.

Les plateformes d’IA génératives, sont-elles tenues de délivrer des informations exactes ?

L’IA génère des données beaucoup plus rapidement que nous, ce n’est pas nouveau. Il ne faut pas non plus oublier qu’on est face à une intelligence artificielle qui n’est pas dotée d’esprit critique. L’intelligence artificielle n’est pas intelligente. Là où un humain pourrait peser le pour et le contre face à une information en se basant sur son expérience l’IA ne le peut pas. Il faut également rappeler que ces outils se basent sur les informations disponibles sur Internet à un instant T.


Pour l’organisme NOYB (none of your business), ChatGPT ne devrait pas fournir des informations incorrectes sur les personnes. L’organisme met une exigence du RGPD disposant que les informations basées sur la collecte des données des individus doivent être exactes et que les personnes doivent avoir un accès complet aux informations stockées. Les personnes doivent aussi connaître la source des différentes informations traitées.

Problème : OpenAi n’est pas capable de dire d’où proviennent les informations utilisées par son outil.

Faut-il s’inquiéter ?

Moins qu’avant.
OpenAi ne pourra pas réduire le nombre d’erreurs, car on est face à un modèle de langage qui, en se fondant sur des statistiques, essaye en permanence de deviner la suite du prompt, la prochaine question, le prochain mot, la prochaine virgule. L’outil va rapidement collecter de nombreuses informations et les compresser afin de produire un texte ressemblant au langage humain.
Par ailleurs, la conversation que j’ai eue avec ChatGPT date de janvier 2024. En lui reposant la même question au mois de mai, l’outil me fournissait un texte à trou à compléter. La situation a progressé. NOYB a quand même déposé plainte fin avril. Affaire à suivre.

SOURCES :

https://noyb.eu/en/chatgpt-provides-false-information-about-people-and-openai-cant-correct-it

https://teche.mq.edu.au/2023/02/why-does-chatgpt-generate-fake-references/

https://www.google.com/search?q=mythomane&oq=mythomane&gs_lcrp=EgZjaHJvbWUyDAgAEEUYORixAxiABDIHCAEQABiABDIHCAIQABiABDIHCAMQABiABDIKCAQQLhjUAhiABDIKCAUQLhjUAhiABDIHCAYQABiABDIHCAcQABiABDIHCAgQABiABDIHCAkQABiPAtIBCDY1MzBqMGo3qAIAsAIA&sourceid=chrome&ie=UTF-8

chatgpt.openai.com

https://arxiv.org/abs/2306.06199

https://www.defenseone.com/technology/2024/01/new-paper-shows-generative-ai-its-present-formcan-push-misinformation/393128/

https://www.radiofrance.fr/franceinter/un-avocat-americain-a-utilise-chatgpt-pour-preparer-un-proces-et-n-a-cite-que-des-faux-arrets-3833906

https://www.sciencepresse.qc.ca/actualite/2023/07/26/chatgpt-fausses-infos-ne-ameliore-ne-sait-pourquoi