You are currently viewing Deadbots : vers une véritable immortalité numérique

Ces dernières décennies, de nombreuses évolutions techniques et technologiques ont été utilisées au (dé)service de la mémoire de personnes décédées. L’utilisation d’hologrammes fait partie des plus anciennes, que ce soit à l’occasion de performances sur scène (Elvis, Tupac), ou encore en tant qu’hommage commémoratif.

La technique de synthèse permettant de modifier un visage et de reproduire une voix grâce à l’intelligence artificielle, notamment connue pour certaines utilisations à des fins malveillantes avec les deepfakes (diffusion de fausses informations, manipulation politique, diffamation), a également été utilisée à des fins mémorielles. Les hologrammes offrent une expérience immersive similaire à celle de la virtualité numérique, mais les technologies mobilisées sont pour autant très différentes, et de nouveaux usages commémoratifs se développent désormais.

Le sujet de l’immortalité numérique est de plus en plus abordé, parce qu’elle devient possible en vertu de la grande quantité de données générées de nos vivants. Bien que les capacités de l’intelligence artificielle offrent un large éventail d’applications, la possibilité de « ramener les morts à la vie » soulève des questions éthiques quant aux dangers de l’innovation technologique. Il est important de noter que la création de clones numériques, bien que techniquement réalisable, doit être abordée avec précaution et prudence : « Maintenant que ces clones numériques sont à la portée de tous, faut-il pour autant les créer ? »

Converser avec les morts : les promesses de l’intelligence artificielle

L’avènement de l’immortalité numérique et de la représentation digitale de l’être humain est en train de devenir une réalité, et ces concepts sont étroitement liés aux idées transhumanistes, puisqu’il s’agit de l’idée de repousser les limites de l’humain – et d’étendre nos existences au-delà du corps physique. Il est aujourd’hui possible de créer des intelligences artificielles commémoratives à partir de nos données numériques, lesquelles peuvent notamment prendre la forme de chatbots ou d’avatars digitaux. Les agents conversationnels, aussi appelés chatbots sont des « systèmes numériques capables d’interagir avec leurs utilisateurs en langage naturel, à l’écrit comme à l’oral ».

Différents exemples de chatbots conversationnels illustrent justement comment l’intelligence artificielle est utilisée pour la commémoration, on parle alors de deadbots. Deux exemples :

  • Le Project December, créé en 2019 par Jason Rohrer. Initialement, la promesse de Jason Rohrer était la suivante : de « simuler une conversation textuelle avec n’importe qui, y compris avec quelqu’un qui n’est plus en vie ». C’est précisément ce qui est arrivé, jusqu’à ce qu’OpenAi mette fin à l’accès au GPT-3 du créateur du projet, en raison d’inquiétudes par rapport à l’éthique de son projet dans sa globalité, et de sa non-adéquation avec leurs pratiques en matière de sécurité.
  • L’application Roman, créée par Eugenia Kuyda à partir de messages échangés avec son ami décédé utilisés pour alimenter un réseau neuronal. L’application est désormais disponible sur l’AppStore, érigée en « mémorial digital ». Tout utilisateur peut alors parler avec Roman, ou du moins sa représentation digitale.

Ces exemples interrogent justement l’exploitation des données générées par l’Homme et son utilisation détournée, qui permettrait à terme de créer ce que l’on pourrait qualifier d’avatar, ou de clone digital. Il ne s’agit pas à proprement parler de la personne, mais sa représentation est assez proche de ce qu’a été la réalité pour questionner les limites éthiques du procédé, dans le sens où, la conscience et la personnalité humaine ne peuvent pas être traduites dans une machine, mais ce qui peut être traduit suffit à pouvoir porter à confusion, et devrait faire l’objet d’une autorisation de traitement.

Une évolution qui nous dépasse : où se dressent les limites éthiques de l’exploitation des données du défunt ?

Les biais présents dans l’apprentissage sont une source majeure de conflits en matière d’éthique, puisque ce sont des risques difficiles à prévenir. Pour autant, ils sont aussi difficiles à éviter en raison de l’instabilité de l’apprentissage et des très grandes quantités de données nécessaires. Une idée très bien illustrée par un exemple clair : « Un enfant peut reconnaître un chat après en avoir vu trois, une intelligence artificielle doit reproduire cette action des millions de fois ».

Un autre souci, lui aussi connecté aux biais hérités des données structurantes nécessaires à l’apprentissage, réside dans l’impossibilité de procéder à une évaluation rigoureuse sur un chatbot puisqu’il est impossible de prédire les entrées générées par l’utilisateur, et encore plus les réponses du bot en raison, entre autres, des aléas présents dans l’apprentissage. La nature des agents conversationnels en tant que telle attire l’attention des autorités de régulations puisque les agents conversationnels s’appuient sur des données personnelles.

En 2021, le Comité National Pilote pour l’Ethique du Numérique s’est justement saisi de la question, et cinq dimensions éthiques ont été identifiées pour la conception des agents conversationnels :

  • L’éthique par conception ou ethics by design, qui repose sur « l’idée de respect des valeurs fondamentales lors de la conception d’un système technique » ;
  • La réduction des biais dans le langage : « les concepteurs doivent mettre en œuvre une solution technique à trois niveaux : dans la mise en œuvre de l’algorithme, dans la sélection des paramètres d’optimisation et dans le choix des données d’apprentissage et de validation pour les différents modules des agents conversationnels » ;
  • La transparence, reproductibilité, interopérabilité et explicabilité du chatbot ;
  • L’interaction affective avec l’être humain et adaptation automatique ;
  • L’évaluation des agents conversationnels ;

Parmi les treize préconisations sur les usages retenues par le Comité dans son avis rendu le 15 septembre 2021, certaines traitent spécifiquement des deadbots. De ce fait, la France est l’un des premiers pays à s’intéresser aux deadbots d’un point de vue législatif. Le Comité appelle à mener une règlementation sociétale avant toute réglementation, afin que la future règle de droit soit adoptée spécifiquement concernant les agents conversationnels imitant la parole de personnes décédées.
Aussi, le Comité souhaite encadrer techniquement les deadbots afin que ces derniers soient opérés dans le respect de la dignité humaine, qui ne s’éteint pas à la mort de l’individu, mais également à préserver la santé mentale des utilisateurs de tels agents. Parmi les pistes retenues figurent des règles définies et respectées concernant « le consentement de la personne décédée, le recueil et à la réutilisation de ses données, le temps de fonctionnement d’un tel chatbot, le lexique utilisé, le nom qui lui est attribué ou encore les conditions particulières de son utilisation » .

 

Sources:

A propos de Karine Munschi