L’intelligence artificielle est la technologie phare de l’économie des données. Sa méthode d’apprentissage profond (deep learning) enrichie par la captation de données l’illustre parfaitement. Toutefois, les autorités nationales chargées de la protection des données personnelles rappellent que son potentiel économique ne doit pas outrepasser le respect des droits et libertés des individus notamment en matière de respect dû à leur vie privée. La Datatilsynet (1) a publié un rapport le 2 février 2018 dans lequel elle met en avant l’impact de l’intelligence artificielle sur la vie privée. La CNIL norvégienne passe en revue les grands principes de la protection des données en les appliquant à cette technologie.
De prime abord, rappelons que l’une des visées premières du Règlement Général sur la Protection des Données (RGPD) du 27 avril 2016 est de remettre l’individu au cœur de la gestion de ses données personnelles. Le règlement suit une logique de reddition des comptes, les responsables de traitement sont accountable c’est-à-dire qu’ils doivent démontrer leur conformité à la réglementation auprès de la CNIL et des individus.
Les chercheurs en IA et les entreprises effectuant des traitements en matière de prise de décision automatisée, tel que le profilage, doivent prendre en compte le principe clé de protection des données dès la conception et par défaut (Privacy by design and by default). Par conséquent la mise en oeuvre de traitements de données est également supplanté par une exigence de proportionnalité. Le responsable de traitement devra faire en sorte de limiter et minimiser la collecte aux données qui lui sont nécessaires.
Assurer un usage loyal et non discriminatoire de l’intelligence artificielle
L’inconvénient avec l’intelligence artificielle est que celle-ci est biaisée dès l’origine puisque son apprentissage dépend de son environnement et de la personne humaine qui l’a programmé au fur et à mesure des entraînements. Ainsi, cela peut engendrer des effets discriminatoires tels que les tweets racistes du chatbot Tay de Microsoft il y a trois ans ou encore les lacunes de certains systèmes de reconnaissance faciale qui ne parviennent pas à identifier l’ensemble des ethnicités.
L’usage d’algorithmes prédictifs infère un haut degré d’intrusion dans la vie privée des individus. Le responsable de traitement doit prendre des mesures techniques et organisationnelles appropriées afin de réduire les erreurs qui pourraient engendrer ces effets discriminatoires. Ce risque est d’autant plus élevé dans le cadre de la constitution de profils à partir de données sensibles révélant l’origine raciale ou ethnique, l’état de santé ou l’orientation sexuelle de la personne concernée. A l’avenir ceci apparaitrait davantage problématique si les banques ou les services de police recouraient à des algorithmes prédictifs dans le cadre de leur prise de décision.
La difficile mise en œuvre du principe de transparence dans la réalisation des traitements de données
Il n’est pas si aisé de comprendre le cheminement du programme jusqu’à son résultat. Comme le cerveau humain, il demeure une certaine opacité quant à la lisibilité de certains raisonnements opérés par la machine. On parle de « boîte noire ».
Ceci est en conflit avec le devoir de transparence du responsable de traitement vis-à-vis des personnes concernées par la collecte de données. Toutefois, les chercheurs poursuivent leurs efforts pour rendre davantage lisibles les programmes d’intelligence artificielle afin d’identifier les éventuelles erreurs de jugement.
 
(1) Autorité norvégienne chargée de la protection des données personnelles
Rapport sur l’IA et la vie privée