You are currently viewing IA et Santé – Entretien avec Christian Acknin
Christian Acknin © Santéclair – droits réservés

Pour Christian Acknin, directeur général de Santéclair, l’IA en santé ne doit ni impressionner, ni décider à la place des patients. Elle doit demeurer un outil de discernement, au service de l’orientation des patients et de la pertinence des soins.

Pas d’IA toute-puissante, pas de diagnostic automatisé : aujourd’hui, un seul outil est effectivement utilisé, un « symptom checker » certifié, conçu pour guider l’assuré vers la ressource de soins la plus appropriée, sans jamais se prononcer sur une pathologie.

Ce choix volontairement prudent traduit une ligne claire et assumée : pas d’IA prédictive sans données fiables, pas d’innovation sans consentement éclairé, pas de technologie sans contrôle humain

 

 

Juliette Haller : L’outil d’analyse de symptômes développé avec Ada Health, une IA d’aide au diagnostic immédiat, est certifié dispositif médical de classe IIa, donc validé sur le plan clinique pour garantir la sécurité des patients. Comment sensibilisez-vous vos assurés à son bon usage : dans quels cas cet outil peut-il vraiment les aider, et quand faut-il au contraire consulter un médecin ? Et comment suivez-vous la fiabilité clinique de ses résultats dans la durée ?

Christian Acknin : Ça n’est pas un outil d’aide au diagnostic, c’est un outil d’orientation vers les ressources de soins le plus appropriées. Le but est de bien recommander les urgences lorsqu’il y a un risque qui le justifie effectivement et de recommander les autres orientations possibles, de la façon toujours la plus adaptée à la cause probable identifiée du problème de santé décrit par l’usager, que ça soit la consultation médicale physique ou en téléconsultation, voire l’automédication pour les cas clairement bénins. Cela participe très utilement à éviter une sur-sollicitation du système de soins sans risquer de perte de chance. En dehors des situations d’urgence vitale évidente, il peut donc toujours être utile d’utiliser l’outil d’analyse de symptômes avant de recourir aux soins pour optimiser son orientation initiale dans le système de soins.

C’est précisément le rôle de ce « symptom checker » d’analyser les symptômes en définissant leur cause probable pour orienter, au besoin, vers le professionnel de santé qui pourra lui poser un diagnostic précis et une thérapeutique adaptée.

 

Quels indicateurs concrets suivez-vous afin de rendre compte de l’utilité de l’IA chez SantéClair ?

Christian Acknin : La seule solution d’IA intégrée à ce stade à nos services est celle de notre partenaire ADA (analyse de symptômes) et ce sont eux qui sont garants de cette sécurité (dispositif médical IIa).

 

Dans le parcours « téléconsultation → orientation → réseau de soins », à quel moment l’intelligence artificielle crée-t-elle aujourd’hui le plus de valeur ? Et à l’inverse, à quels moments l’intervention humaine reste-t-elle indispensable pour préserver la confiance et la pertinence médicale ?

Christian Acknin : Nous proposons différents parcours fléchés dans notre plateforme MySanteclair pour faciliter l’accompagnement de l’assuré en santé dans ses parcours de soins, chaque parcours  étant adapté à nos différents domaines d’intervention : optique, dentaire, audio, hospitalisation, médecine de ville, médecines douces, santé mentale, prévention. Aucune des étapes des différents parcours n’est un passage obligé pour permettre à l’assuré d’accéder aux soins, mais simplement recommandé… et le parcours que vous décrivez « téléconsultation → orientation → réseau de soins » n’existe dans aucun des domaines. Les différents parcours ne sont jamais construits à partir de la téléconsultation mais plutôt à partir du symptom checker… qui est la brique où l’IA intervient pour l’aide à l’orientation et à la pertinence des soins.

 

L’IA prédictive peut repérer des signaux faibles, c’est-à-dire des variations discrètes dans les données de santé ou de comportement, annonciatrices d’un risque santé ou d’une pathologie. Comment Santéclair envisage-t-elle d’intégrer ce type de technologies dans ses services ? Et quels risques ou limites identifiez-vous ?

Christian Acknin : Ce n’est pas encore une technologie disponible dans la pratique courante !! Lorsque ça le sera, l’intégration dépendra de l’usage des données qu’on peut faire en tenant compte des obligations impératives en matière de consentement, de recueil légal et sécurité des données et d’identification d’une finalité valable de leur traitement. Ce sera donc d’abord ces prérequis qu’il faudra traduire dans les process à mettre en place pour permettre l’utilisation à grande échelle de données individuelles de santé sans lesquelles il n’y aura de toute façon pas d’IA prédictive valable.

Le symptom checker actuel n’intègre pas d’IA prédictive.

 

Le Guide 2025 de la Délégation du Numérique en Santé impose aux acteurs de la e-santé d’informer clairement les utilisateurs lorsqu’une décision ou un conseil repose sur une IA : description de son rôle, de ses limites et de ses biais connus. Comment Santéclair applique-t-elle concrètement cette obligation de transparence et de pédagogie auprès des assurés ?

Christian Acknin : On informe les assurés bénéficiaires s’agissant de leur utilisation de notre dispositif d’orientation déployé avec ADA, et seulement pour celui-ci puisqu’il n’y a, à ce stade, pas d’IA associée à nos autres services… Mais bien sûr, en cas d’implémentation d’IA dans n’importe lequel de nos services, on respectera pleinement le cadre légal ! Santéclair est systématiquement attachée au respect de la règlementation et prend les mesures pour satisfaire notamment à cette obligation d’information des assurés

 

Le même guide recommande la création d’un comité scientifique et éthique, la supervision humaine et la lutte contre les biais. Comment ces principes se traduisent-ils, dans les faits, au sein du Lab Innovation Santéclair ? Disposez-vous d’un dispositif interne d’évaluation ou de débat éthique avant la mise en service d’un outil ?

Christian Acknin : Santéclair n’est pas fournisseur d’IA en tant tel la question ne nous concerne pas directement… Mais nos partenaires dont c’est le cas portent alors la conformité de l’IA ainsi que l’information de l’usager du service concerné et on s’assure qu’ils le font bien.

 

Les innovations d’intelligence artificielle reposent sur des volumes massifs de données de santé, dont la qualité et la conformité déterminent directement la performance des modèles. L’utilisation de ces données reste toutefois fortement encadrée par la CNIL et les référentiels de la Haute Autorité de Santé. Comment Santéclair parvient-elle à maintenir cet équilibre entre exploitation des données pour innover et respect strict des cadres de protection imposés par la CNIL, la HAS et le RGPD ? Et selon vous, le futur Espace européen des données de santé (EHDS), qui vise à faciliter le partage sécurisé et standardisé des données médicales entre les acteurs européens, représente-t-il une opportunité pour améliorer la qualité, la traçabilité et la transparence des modèles d’IA en santé ?

Christian Acknin : Santéclair n’est pas fournisseur d’IA, mais simplement « déployeurs », nous n’avons donc pas à ce jour à gérer de volumes massifs de données de santé alimentant l’IA. S’agissant de la dimension européenne de la question, essentielle à prendre en compte pour atteindre les tailles requises des bases de données permettant d’alimenter l’IA, l’EHDS semble effectivement porteur de nombreuses opportunités pour autant que les contraintes règlementaires imposées n’en limitent pas excessivement le potentiel. La question de l’équilibre entre opportunités et contraintes reste ouverte et devra être ajustée dans le temps notamment à l’aune de la pratique.

 

Le Règlement européen sur l’intelligence artificielle (AI Act) imposera, à partir de 2027, de nouvelles obligations pour les systèmes d’IA considérés « à haut risque ». Comment Santéclair se prépare-t-elle à ces exigences en matière de traçabilité, supervision, transparence et documentation technique ?

Christian Acknin : Pour Santéclair tenir compte de la réglementation est essentiel. Nous sommes attentifs à ce que tous les partenaires répondent aux obligations règlementaires imposées. C’est un élément fort de sécurité et de qualité pour l’ensemble de nos clients. Et, là encore, ce sera par la mise en œuvre des obligations prévues que nous prendrons le recul nécessaire pour porter un regard critique sur leur pertinence et leur faisabilité.

 

Le concept d’« IA digne de confiance » va-t-il, selon vous, au-delà de la simple conformité réglementaire ?

Christian Acknin : Le sujet de l’IA est vaste et complexe. Santéclair s’attache à en appréhender tous les contours. Evoquer ce sujet tire l’ensemble des sujets de sécurité et de qualité que nous portons au travers de notre promesse à nos clients. C’est pourquoi les choix que nous réalisons portent sur des briques technologiques que nous intégrons et une administration de la donnée qui soit sécurisée. Nous sommes ainsi certifiés ISO 27001 et HDS.

 

Si vous deviez imaginer la santé numérique en 2030, quelles innovations vous paraissent les plus prometteuses pour améliorer la prévention et le parcours patient ? Et à l’inverse, quelles dérives potentielles vous semblent les plus préoccupantes ?

Christian Acknin :

D’abord ce qui me paraît le plus prometteur dans ce qu’apporte l’IA :

– En premier lieu la capacité d’amélioration des services existants avant d’en envisager de nouveaux

– Ensuite le domaine des « jumeaux numériques » (notamment dans la prédiction des conséquences d’un traitement, sujet clé en matière de pertinence des soins)

– L’amélioration des parcours de prévention grâce à leur beaucoup plus grande individualisation, comme en matière de dépistage où il peut être très utile de le recommander en fonction de l’évaluation individuelle de sa balance bénéfice / risque.

– Cette même logique d’individualisation renforcée grâce à l’IA se retrouve en matière de choix thérapeutique au-delà de la prévention, la prise en compte d’un risque beaucoup plus individualisé rend la décision conjointe patient/soignant beaucoup plus solide et éclairée.

– Enfin, en matière de parcours clients enrichis avec une information mieux ciblé, plus personnalisée, plus systématiquement interactive pour améliorer le service aux assurés.

 

Et s’agissant des risques de dérives on peut en perçoit plusieurs :

–       IA non supervisée et détournée de son usage initial.

–       Exclusion du contrôle humain.

–       L’absence de suivi des effets délétères à long terme (équivalent phase IV pour le médicaments et surveillance ANSM).

–       Remise en cause des principes fondamentaux de liberté de choix éclairé pour sa santé

–       Transposition du RGPD en droit français plus rigide que dans les autres pays ce qui contribue à nous faire perdre en compétitivité

Comme pour tout système d’IA les dérives potentielles sont de même nature et s’apparentent en général à un détournement de leur usage et objectif initial.

 

An English translation of this interview is available for our international readers

 

Sources : 

https://eur-lex.europa.eu

https://www.has-sante.fr

https://eur-lex.europa.eu

https://www.cnil.fr/fr/les-fiches-pratiques-ia

https://www.has-sante.fr

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.