L’IA du robot conversationnel ChatGPT continue de susciter l’attention. Initialement saluée pour ses performances techniques, notamment sa capacité à générer des textes structurés dans divers domaines et langues, elle est aujourd’hui au cœur d’une polémique en Italie. En avril 2023, l’Autorité nationale de protection des données personnelles (équivalent de la Cnil en France) a pris la décision inédite de suspendre ChatGPT, marquant ainsi un tournant significatif.
Pourquoi ?
L’Autorité italienne de protection des données personnelles a souligné que sa décision de suspension a un « effet immédiat ». Elle accuse le robot conversationnel de ne pas respecter la réglementation européenne, également connue sous le nom de RGPD, en omettant de vérifier l’âge des utilisateurs mineurs. Bien que le robot soit conçu pour des utilisateurs de plus de 13 ans, l’autorité italienne insiste sur le fait que l’absence de filtres pour vérifier l’âge expose les mineurs à des réponses qui ne sont pas du tout adaptées à leur niveau de développement.
Demande de transparence
Dans une interview accordée au site Wired Italia, la Garante a expliqué avoir relevé l’absence d’une « base légale justifiant la collecte et le stockage massifs de données personnelles en vue de former les algorithmes sous-jacents au fonctionnement de la plateforme ».
De surcroît, les utilisateurs ne sont pas explicitement informés du fait que leurs conversations avec ChatGPT sont utilisées pour nourrir et améliorer l’algorithme. Des employés imprudents ont ainsi transmis à la machine des informations confidentielles sur leurs entreprises, qui ont ensuite été reproduites par le chatbot auprès d’autres utilisateurs. L’autorité vise à garantir que les internautes soient clairement informés de ces pratiques et aient la possibilité de donner leur consentement, ou non.
Est-ce que ça peut ralentir l’innovation ?
OpenAI a vingt jours pour expliquer comment elle se conformera aux régulations, risquant une amende de 20 millions d’euros ou 4% de son chiffre d’affaires. L’accent est mis sur la nécessité de ne pas sacrifier les droits individuels au nom de l’innovation. Un porte-parole d’OpenAI affirme activement travailler à réduire l’utilisation de données personnelles dans l’entraînement de leur IA, exprimant la volonté de coopérer avec toute régulation future de l’IA.
L’accès à ChatGPT en Europe pourrait être restreint bientôt.
De la région brésilienne au Nigeria, de l’Europe à l’Asie, Sam Altman, le dirigeant d’OpenAI et créateur de ChatGPT, effectue un tour du monde pour apaiser les inquiétudes concernant l’intelligence artificielle et éviter une régulation excessive, en particulier en Europe. Lors de sa dixième étape à Londres le 24 mai, Altman a adopté une position plus ferme en avertissant qu’OpenAI pourrait se retirer de l’Union européenne si les réglementations futures deviennent excessivement contraignantes.
Outre la Chine, où l’accès à ChatGPT est limité et nécessite l’utilisation d’un VPN
La France
Du côté français, la Commission nationale de l’informatique et des libertés (CNIL) a déclaré à Libération qu’elle n’avait reçu aucune plainte concernant ChatGPT et n’avait donc aucune procédure en cours à son encontre. Toutefois, la CNIL a souligné qu’elle avait initié des discussions avec son homologue italienne pour partager les observations éventuelles. Elle a également exprimé son intention de « clarifier le cadre légal des intelligences artificielles génératives dans les prochains mois ».
Sources :
ChatGPT bientôt inaccessible en Europe ?
Sept choses à savoir sur la suspension de ChatGPT en Italie
ChatGPT interdit en Italie : le premier domino tombe en Europe
Image mise en avant générée par l’IA
Entrepreneur | Etudiant en M2 Commerce électronique, UNISTRA.
