Vous êtes sur une plateforme d’offres d’emploi, vous voulez juste consulter une annonce, et voilà qu’un écran s’interpose : « Créez votre compte pour continuer ». Le bouton principal est clair, rapide, rassurant. L’option « plus tard » existe, mais elle est discrète, parfois même cachée derrière un lien gris. Vous soupirez, vous cliquez, et vous venez de donner plus d’informations que prévu. Quelques heures plus tard, même scénario sur une appli de santé : pour accéder à un suivi ou à un simple questionnaire, on vous propose d’activer les notifications, de partager des données, ou d’accepter des conditions longues comme un jour sans fin. À première vue, ce sont de petits détails. En réalité, ce sont des choix de design qui, mis bout à bout, finissent par décider à votre place.
C’est précisément ce qu’on appelle des dark patterns, ou « interfaces trompeuses ». Le principe n’est pas de vous mentir frontalement, mais de guider votre comportement en jouant sur des réflexes humains très basiques : l’envie d’aller vite, la peur de rater une opportunité, l’aversion au risque, ou tout simplement la fatigue. Le « oui » devient fluide, évident, presque automatique. Le « non », lui, devient un parcours du combattant. Et comme tout se passe dans l’interface, on a l’impression que c’est nous qui choisissons, alors que le chemin a été pavé à l’avance.
Jusqu’ici, on pourrait se dire que ces pratiques relèvent d’un marketing un peu agressif, et qu’il suffit d’être vigilant. Sauf que l’intelligence artificielle change l’échelle du problème. Là où, hier, un site testait deux versions d’une page pour voir laquelle convertissait le mieux, aujourd’hui l’IA peut adapter l’expérience en continu, selon votre profil, votre historique, votre moment de connexion, vos hésitations, voire votre sensibilité au prix ou à l’urgence. Autrement dit, la persuasion ne vise plus un « utilisateur moyen » : elle peut viser un utilisateur précis, dans un contexte précis, avec le bon message au bon instant. Cette logique d’optimisation est largement documentée dans les travaux des régulateurs et organisations publiques.
C’est à ce moment-là que le design devient une stratégie de persuasion à part entière. Prenez le cas des plateformes d’emploi. Si un algorithme détecte qu’un candidat consulte beaucoup d’offres mais postule peu, il peut être tentant de lui pousser des “nudges” très efficaces : bannière « profil incomplet » répétée, messages du type « augmentez vos chances », ou encore parcours qui rend l’option “postuler” plus saillante que l’option “enregistrer”. Rien n’est forcément illégal dans l’idée d’encourager. Mais lorsque l’interface commence à amplifier l’urgence, à minimiser les alternatives, ou à faire disparaître l’option la plus protectrice (par exemple, limiter le partage de données), on quitte l’aide à la décision pour entrer dans la captation de décision.
La santé rend ces mécanismes encore plus sensibles. Parce qu’on ne parle plus seulement d’achats impulsifs, mais de vulnérabilités. Une personne anxieuse face à des symptômes, ou pressée de trouver un rendez-vous, est naturellement plus influençable. Dans ce contexte, une interface peut “pousser” vers un abonnement premium, vers un partage de données plus large, ou vers l’activation de notifications permanentes, tout en rendant l’option “continuer sans” moins visible. Avec l’IA, la personnalisation peut devenir redoutablement fine : le texte qui rassure, le moment où l’alerte apparaît, la formulation qui donne l’impression que refuser met la santé en danger. Ce n’est pas toujours intentionnel, mais c’est exactement ce que l’optimisation par la performance produit quand on ne fixe pas de garde-fous.
À ce stade, la vraie question n’est plus « est-ce que ça marche ? », mais « est-ce que c’est loyal ? ». Le droit européen commence justement à poser des limites, parce que la liberté de choix ne se résume pas à la présence d’un bouton. Le Digital Services Act encadre la conception des interfaces des plateformes afin d’éviter des designs qui trompent ou manipulent les utilisateurs. Dans le même esprit, le RGPD impose un consentement libre et éclairé, et le Comité européen de la protection des données a publié des lignes directrices détaillant les schémas de design trompeurs (asymétries “accepter/refuser”, surcharge de sollicitations, parcours qui épuisent le refus). Et comme ces mécaniques se déploient souvent dans une relation commerciale, la directive sur les pratiques commerciales déloyales rappelle que des techniques trompeuses ou agressives peuvent être sanctionnées lorsqu’elles faussent le comportement du consommateur. Enfin, le règlement européen sur l’IA (AI Act) encadre aussi certains usages manipulatoires, notamment lorsqu’ils exploitent des vulnérabilités ou altèrent la capacité de décision de façon préjudiciable.
Mais le droit ne doit pas être vu seulement comme une menace : il peut servir de boussole. Si l’on veut concevoir des interfaces performantes sans glisser vers les dark patterns, on peut s’appuyer sur une idée simple : un choix est acceptable si la personne ferait sensiblement le même choix en comprenant parfaitement ce qui se passe. Et c’est là que l’on revient à des principes concrets, très “terrain”, sans moraliser : le refus ne devrait pas demander trois fois plus de clics que l’acceptation, la sortie (résiliation, désinscription, fermeture de compte) ne devrait pas ressembler à un labyrinthe, et l’information clé ne devrait pas être noyée sous une avalanche de texte, surtout quand il s’agit de données personnelles ou de services liés à la santé. Dans la même continuité, l’IA ne devrait pas être autorisée à “optimiser” en ciblant des fragilités humaines simplement parce que les chiffres de conversion montent — c’est précisément le type de dérive que les régulateurs essaient d’identifier et de réduire.
Au fond, la différence entre un design persuasif et un dark pattern tient moins à la créativité qu’à l’intention et à l’impact. La persuasion respecte l’utilisateur et l’aide à décider. Le dark pattern le fatigue jusqu’à ce qu’il cède, parfois sans comprendre, parfois sans s’en rendre compte. Avec l’IA, cette frontière peut devenir floue, car l’interface apprend à être efficace. C’est justement pour cela que les organisations ont intérêt à instaurer des règles internes claires, à auditer leurs parcours (notamment consentement et abonnements), et à mesurer autre chose que la conversion, comme le regret, les réclamations, ou la compréhension réelle.
Et si l’on devait résumer en une phrase : une entreprise peut gagner un clic grâce à une interface “maline”, mais elle gagne un utilisateur sur la durée grâce à une interface honnête. Dans un monde où l’IA rend la persuasion plus invisible et plus personnalisée, la confiance devient la ressource la plus rare, donc la plus stratégique.
Sources :
https://eur-lex.europa.eu/eli/reg/2022/2065/oj?locale=fr
https://eur-lex.europa.eu/eli/reg/2016/679/oj?locale=fr
https://www.edpb.europa.eu/system/files/2025-05/edpb_03-2022_guidelines_on_deceptive_design_patterns_in_social_media_platform_interfaces_v2_fr.pdf?utm
https://eur-lex.europa.eu/eli/dir/2005/29/oj/eng?
https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng
https://www.oecd.org/content/dam/oecd/en/publications/reports/2022/10/dark-commercial-patterns_9f6169cd/44f5e846-en.pdf
https://assets.publishing.service.gov.uk/media/624c27c68fa8f527710aaf58/Online_choice_architecture_discussion_paper.pdf
https://www.drcf.org.uk/siteassets/drcf/pdf-files/harmful-design-in-digital-markets-ico-cma-joint-position-paper.pdf
