Elise Debiès
Avocate au barreau de Paris, chargée d’enseignement Master 2 DNGO
La prévention en santé est au cœur de l’action de l’assurance maladie, avec des campagnes ciblées notamment liées à l’âge et au sexe des assurés. Ainsi des rendez-vous de prévention sont automatiquement inscrits dans « Mon espace santé » en fonction de l’âge et du sexe de son titulaire ; de même, l’utilisation du numéro de sécurité sociale (NIR) est autorisée par le décret 2019-341 du 19 avril 2019 pour le dépistage des cancers. Les mutuelles, bien que toujours très présentes en santé préventive (rappelons qu’au titre de l’article L 111-1 du Code de la mutualité, elles sont à la fois assureurs, préventeurs et offreurs de soins et de services), sont l’objet de la plus grande prudence de la part des pouvoirs publics quant aux réutilisations potentielles des données de santé qu’elles pourraient collecter : avec l’irruption de la donnée, la question posée est celle de son utilisation sans pour autant opérer une sélection du risque.
Pour commencer, définissons !
La sensibilité du sujet émerge au moment même de la détermination de ce qu’est une « donnée de santé ». La notion ne figurait pas dans la loi Informatique et Libertés du 6 janvier 1978 ; elle est apparue dans le droit français avec la loi de bioéthique de 1994, mais sa définition n’a été consacrée qu’avec le Règlement général sur la protection des données (RGPD), qui indique qu’une donnée de santé est une donnée à caractère personnel relative à la santé physique ou mentale d’une personne physique « qui révèle des informations sur l’état de santé de cette personne », « y compris la prestation de service de soins de santé ». C’est une définition large qui n’exige pas que ces données aient été collectées par un professionnel de santé et qui couvre les données de santé « par destination » (l’usage médical qui en est fait). Ce sont des données dont le RGPD interdit en principe le traitement.
Le principe d’interdiction attaché aux données sensibles vient nous rappeler que les données de santé doivent avant tout être protégées. Mais les exceptions à cette interdiction permettent le partage de ces données, indispensable tant à la prise en charge du patient qu’à la recherche et aux politiques publiques de santé. Cette recherche d’équilibre et l’association de tous les acteurs concernés doit guider la définition des politiques et actions de santé préventive basées sur l’exploitation de données, de santé, sociales, environnementales, pour en obtenir tous les potentiels escomptés.
L’OMS définit la santé comme « un état de complet bien-être physique, mental et social, [qui] ne consiste pas seulement en une absence de maladie ou d’infirmité ». Cette approche englobe tant les éléments médicaux stricto sensu que les déterminants de santé, sociaux et environnementaux, et concerne la santé physique comme la santé psychique. Trois grands concepts émergent de cet élargissement de la définition de la santé. Il s’agit de la prévention, de la promotion et de l’éducation pour la santé.
On retrouve la notion de déterminants de santé dans le projet de Règlement sur l’espace européen des données de santé ((European Health Data Space, en abrégé EHDS) en cours d’adoption, qui définit les a)«données de santé électroniques à caractère personnel» comme « les données concernant la santé et les données génétiques telles que définies dans le RGPD, ainsi que les données se rapportant aux déterminants de la santé, ou les données traitées dans le cadre de la prestation de services de soins de santé, qui existent sous forme électronique ».
Le législateur européen affiche ainsi une volonté farouche de favoriser la réutilisation des données de santé couplées aux déterminants sociaux, économiques, environnementaux de la santé, pour le bien commun. Tout est en place pour bâtir de véritables politiques de santé préventive, dans une approche « One health ».
I. Ne pas confondre prévention et prédiction !
1. Une « santé prédictive » sous contrôle
Le décryptage du génome humain dans les années 90 laissait entrevoir les dangers d’une « médecine prédictive » et a très vite entrainé des mesures de précaution pour éviter les discriminations et encadrer de manière restrictive l’accès aux données génétiques, puis aux données de santé, par les assureurs et employeurs.
Mais prévenir, ce n’est pas prédire ; la loi française a érigé et repris de manière continue, suivie en cela par le législateur européen, les finalités interdites à la réutilisation des données de santé[1] et les mesures de précautions propres au profilage et à la prise de décision automatisée.
2. Donnée sensible ou traitement sensible de la donnée ?
Les données génétiques sont personnelles mais aussi collectives, puisqu’elles touchent la famille, avec toutes les questions de contrôle de ses données par l’individu que cela suppose. Déjà affleure la question de la sensibilité des traitements, plus forte que celle de la sensibilité des données elles-mêmes, les caractéristiques communes d’individus constituant le point sensible, bien plus que l’identification de l’individu lui-même. C’est notamment une mine d’or pour la « surveillance » que les GAFAM déploient.
Cette « surveillance » peut atteindre les extrêmes profondément inquiétants de la dénonciation comme l’illustre la « surveillance des utérus »[2] aux Etats-Unis : suite à l’interdiction de l’IVG dans certains Etats, on assiste à une demande croissante de transmission de données de géolocalisation pour identifier les femmes qui se seraient rendu dans des cliniques qui pratiquent l’IVG. Des données d’achat, de remboursement, des communications privées sont également utilisées à l’encontre des femmes qui ont avorté. Ces données pourraient être corroborées, et l’identification des femmes concernées facilitée, grâce à la transmission des données des applications de suivi du cycle menstruel, qui forcément révèlent les changements dans le cycle associés. Cet exemple met cruellement en lumière comment des données non sensibles à la base peuvent conduire à incriminer des femmes qui ont avorté.
3. Partager des données de santé pour alimenter l’intelligence artificielle (IA)… dans des conditions éthiques
Avec toutes les précautions nécessaires liées aux risques de biais et de discrimination, le partage des données de santé doit bien entendu aussi permettre d’alimenter l’IA, pour identifier les facteurs de risques d’apparition d’une maladie, aide au diagnostic, personnalisation des actions préventives …. La prise de décision automatisée, encadrée par le RGPD dont la CJUE livre une interprétation stricte dans son arrêt « Schufa »[3], atteint une sensibilité accrue avec l’IA, objet d’un prochain règlement européen ad hoc. En matière de santé, on retrouve spécifiquement l’encadrement des algorithmes d’entrainement d’IA dans le projet de règlement EHDS[4].
La loi bioéthique du 2 août 2021 a, en outre, d’ores et déjà encadré le recours à l’IA par les professionnels de santé : « Un professionnel de santé qui décide d’utiliser, pour des actes de prévention, de diagnostic ou de soin, un dispositif médical comportant un traitement de données algorithmique dont l’apprentissage a été réalisé à partir de données massives [doit s’assurer] que la personne concernée en a été informée et qu’elle est, le cas échéant, avertie de l’interprétation qui en résulte ». En outre, « les concepteurs d’un traitement algorithmique s’assurent de l’explicabilité de son fonctionnement pour les utilisateurs ». Le consentement du patient n’est ici pas requis (il ne l’est pas plus dans le projet de règlement européen sur l’IA) et l’explicabilité exigée s’avère bien difficile à atteindre dans le cas de systèmes d’IA génératives … La condition irréfragable du contrôle humain s’est imposée pour les systèmes d’IA à haut risque dans le règlement européen sur l’IA. La garantie humaine se déploie déjà en santé en France, portée notamment par Ethik-IA[5].
II Pour libérer le potentiel des données afin de renforcer le virage préventif, la France dispose d’une antériorité
La France a anticipé le règlement européen sur l’espace européen des données de santé avec la création en 2016 du Système national des données de santé (SNDS), puis du Health data hub ou plateforme des données de santé en 2019. Le SNDS rassemble et met à disposition des informations de santé pseudonymisées issues de 3 bases déjà existantes :
-le Système National d’Information Inter Régimes de l’Assurance Maladie (SNIIRAM) qui date de 1998 ;
-les données des hôpitaux et autres établissements de santé (Programme de Médicalisation des Systèmes d'Information - PMSI) ;
-les données statistiques relatives aux causes de décès (BCMD).
Puis, lorsqu’elles seront constituées, le SNDS intégrera deux bases supplémentaires :
-les données « médico-sociales » des maisons départementales des personnes handicapées ;
-un échantillon représentatif des données de remboursement par bénéficiaires transmis par les mutuelles (objectif latent en l’état).
Depuis 2019 avec la Plateforme des données de santé, la valorisation des données du SNDS est facilitée, mais aussi leur appariement avec des données d’entrepôts, de cohortes, et la naissance de projets qui prennent en compte les déterminants environnementaux de santé comme le green data for health, l’espace commun de données environnementales pour la santé déployé en application du 4e plan national santé-environnement (PNSE4).
Avec l’espace européen des données de santé, que le Parlement européen vient d’approuver le 24 avril 2024, c’est un espace unique européen de la donnée de santé qui se crée, organisé autour de trois piliers :
-Donner aux citoyens le pouvoir de contrôler et d’utiliser leurs données de santé, tant dans leur pays d’origine que dans d’autres États membres (niveau européen de Mon espace santé) ;
-Favoriser l’avènement d’un véritable marché unique des produits et services de santé numérique. Il s’agit de permettre à l’économie fondée sur les données de déployer toute sa mesure, en favorisant un véritable marché unique des produits et services de santé numériques (traduction européenne du catalogue de services numériques en santé) ;
-Fixer des règles strictes pour l’utilisation des données de santé (rendues non identifiantes) d’une personne à des fins de recherche, d’innovation, d’élaboration de politiques et de réglementation. C’est le pilier fondamental de ce texte.
Parmi les catégories minimales de données électroniques destinées à une utilisation secondaire figurent les données des dossiers médicaux électroniques, après leur pseudonymisation. Le champ des possibles lié à l’utilisation secondaire des données est immense et ouvert aux entités publiques, privées, à but non lucratif, aux chercheurs individuels, toujours dans un but d’intérêt général. Les données artificielles de santé, générées dans des conditions de sécurité et respect des droits des personnes, auront vocation à améliorer, sous contrôle humain, la recherche en santé pour de meilleures politiques de prévention.[6]
III La transparence pour la confiance
La combinaison du croisement de données de santé non identifiantes avec les déterminants de santé sociaux et environnementaux, associée à la puissance de l’IA, va sans aucun doute favoriser une connaissance fine des questions à investir en matière de prévention, pour répondre aux demandes citoyennes et aux besoins de santé publique en matière de prévention.
Mais le risque est fort de perdre en route les personnes pour et grâce auxquelles ces efforts sont déployés ! Les traitements pour améliorer la prévention reposent sur leurs données et il est indispensable de systématiquement prévoir un retour sur les usages et les résultats. Pour les mutuelles cette information des adhérents doit se traduire en outre par l’attention portée à :
-la transparence sur la gestion technologique, organisationnelle des données pour respecter l’interdiction de sélection du risque ; un tiers de confiance peut apporter des garanties aux adhérents et à l’ensemble des acteurs ;
-s’attacher au parcours et toujours au souci de répondre à une demande avec des outils ergonomiques et accessibles au public visé.
L’accumulation et l’échange de données extrêmement sensibles moyennant des technologies de pointe sont difficilement conciliables avec l’objectif du contrôle renforcé exercé par la personne concernée sur les données qui la concernent. La fracture numérique n’est pas derrière nous et risque même d’être renforcée. Il est inconcevable d’abandonner une population âgée ou précaire (avec de forts besoins de prévention) qui décroche face au numérique.
Nous sommes face à un paradoxe : en matière d’IA, le régulateur semble bien plus attaché aux libertés et à la vie privée que les utilisateurs, happés par le confort de l’expérience du consommateur. Or le régulateur ne pourra pas prémunir de tout danger le citoyen qu’il protège si ce dernier ne se mobilise pas ou n’est qu’indifférent. En santé, la prévention est l’affaire de tous et l’IA est un maillon prometteur, s’il est sous contrôle humain, d’une chaîne de responsabilité faite d’éducation, d’accompagnement, de confiance, d’innovation et de régulation qui concerne tous les acteurs, y compris des mutuelles.
[1] L’article 35 du projet de règlement EHDS reprend les interdictions déjà présentes dans la loi française de modernisation de notre système de santé de 2016 qui instaurait le SNDS : « b) prise de décisions, à l’égard d’une personne physique ou d’un groupe de personnes physiques, les excluant du bénéfice d’un contrat d’assurance ou modifiant leurs cotisations et leurs primes d’assurance »
[2] A Lutun, La surveillance des utérus à la lumière de la décision Dobbs sur le droit à l’avortement aux Etats-Unis, RDSS 2022, 869.
[3] Arrêt de la Cour 1ere chambre 7 décembre 2023 (affaire C-634/21)
[4] L’article 34 du projet de règlement EHDS vise spécifiquement l’IA au titre des finalités de traitements autorisées, qui doivent être conformes :
« g)à la formation, au test et à l’évaluation des algorithmes, entre autres dans les dispositifs médicaux, les systèmes d’IA et les applications de santé numériques, à la contribution à la santé publique ou à la sécurité sociale, ou à la garantie d’un niveau élevé de qualité et de sécurité des soins de santé, des médicaments ou des dispositifs médicaux ».
[6] Voir Livre blanc coordonné par Pr. ALLASSONNIÈRE Stéphanie et Dr. FRAYSSE Jean-Louis « DONNÉES DE SANTÉ ARTIFICIELLES : ANALYSE ET PISTES DE RÉFLEXION »
댓글