XVe législature
Session ordinaire de 2019-2020

Séance du vendredi 04 octobre 2019

Ce matin, l’Assemblée a poursuivi la discussion des articles du projet de loi, s’arrêtant à l’amendement no 1571, portant article additionnel après l’article 10.
L’amendement no 1571 n’est pas défendu.
Sur l’amendement no 2537, je suis saisi par le groupe Les Républicains d’une demande de scrutin public.
Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.
La parole est à Mme Michèle de Vaucouleurs, pour soutenir l’amendement no 2537.
Je ne vais pas reprendre tout l’argumentaire développé ce matin ; je me contenterai de soulever quelques points complémentaires. Mais si, prenez votre temps ! Non, parce qu’il se trouve que j’ai à faire, mais je vous remercie de votre sollicitude. Vous avez bien appuyé sur le bouton du chronomètre, monsieur le président ? Outre le fait qu’elle alignerait la réglementation de la France sur celles de la quasi-totalité de ses partenaires européens, la levée de l’interdiction des tests ADN généalogiques permettrait d’assurer une meilleure protection des consommateurs et le développement d’acteurs français.
Elle permettrait aussi de limiter la fuite de données génétiques en offrant aux gens une autre solution que le recours à des acteurs extracommunautaires qui construisent des bases de données massives et se retrouvent en position dominante dans ce secteur.
Le recours de plus en plus fréquent à ces tests révèle la volonté croissante d’une majorité de Français d’avoir accès à leurs origines historiques et géographiques. Selon la Fédération française de généalogie, près de sept Français sur dix s’intéresseraient à la généalogie.
Dans son étude intitulée « Révision de la loi de bioéthique, quelles options pour demain ? », qu’il a publiée en juin 2018, le Conseil d’État ne s’oppose pas à la levée de l’interdiction des tests généalogiques. Il précise que cet interdit est lié à la sensibilité des données génétiques, qui sont difficiles à interpréter et peuvent en outre révéler des informations sur d’autres personnes que l’intéressé. Cependant, cet interdit se heurte à l’idée que rien ne s’oppose à ce qu’un individu, au nom de l’autonomie de la personne, puisse avoir accès à ses caractéristiques génétiques.
En tout état de cause, le groupe de travail estime qu’un éventuel assouplissement de la législation devrait rester sans incidence sur les autres interdits existants, en particulier sur l’interdiction faite aux employeurs et aux assureurs de demander, et même de prendre en compte, les résultats d’examens de caractéristiques génétiques.
La parole est à M. Philippe Berta, rapporteur de la commission spéciale chargée d’examiner le projet de loi relatif à la bioéthique, pour donner l’avis de la commission. Nous n’allons pas refaire la discussion matinale. Même en état postprandial, je n’ai pas changé d’avis : il est toujours défavorable. Excellent ! La parole est à M. le secrétaire d’État auprès de la ministre des solidarités et de la santé, pour donner l’avis du Gouvernement. Même avis que le rapporteur. Je mets aux voix l’amendement no 2537.
(Il est procédé au scrutin.) Voici le résultat du scrutin :
        Nombre de votants                        22
        Nombre de suffrages exprimés                22
        Majorité absolue                        12
                Pour l’adoption                4
                Contre                18
(L’amendement no 2537 n’est pas adopté.) Je suis saisi de deux amendements, nos 1844 et 1345 rectifié, pouvant être soumis à une discussion commune.
Sur l’amendement no 1844, je suis saisi par le groupe Les Républicains d’une demande de scrutin public.
Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.
La parole est à M. Thibault Bazin, pour soutenir l’amendement no 1844.
Des entreprises privées, dont je tairai le nom pour ne pas leur faire de la publicité, proposent au monde entier des tests génétiques récréatifs. Il suffit de remplir un questionnaire en ligne, d’envoyer un échantillon de salive aux États-Unis et de payer de 60 à 100 euros. Or ces tests ne sont pas toujours fiables, ils peuvent même être complètement délirants. Les données peuvent être commercialisées par les entreprises au détriment de ces personnes.
Quelque 100 000 à 200 000 personnes y recourent chaque année. Voyez à quel point il est important de prévenir les risques d’usurpation.
C’est pourquoi nous vous proposons, par cet amendement, de punir pénalement ceux qui proposent ces examens ou en font la promotion de manière illégale dans notre pays.
La parole est à Mme Sylvia Pinel, pour soutenir l’amendement no 1345 rectifié. Cet amendement traite d’un sujet que nous avons déjà abordé ce matin. Il va dans le même sens que celui que vient de défendre mon collègue Thibault Bazin.
Les tests génétiques doivent être encadrés. Pourtant, 100 000 à 200 000 personnes recourent à ce genre de tests chaque année, par l’intermédiaire d’entreprises privées étrangères qui proposent leurs services sur internet.
Les personnes qui achètent ces tests ne sont absolument pas accompagnées lors de la réception des résultats, lesdits tests étant d’ailleurs plus ou moins fiables. La question de l’amélioration de l’information sur la qualité de ces tests se pose.
De plus, la réalisation de tests génétiques à l’étranger induit le stockage de données génétiques de milliers de Français, en dehors de notre pays, avec tous les risques de dérive que cela implique quant à leur utilisation et leur conservation.
Comment comprendre que des publicités vantant ces entreprises étrangères aient pu être diffusées en France alors que ces tests y sont interdits ?
Cet amendement vise à renforcer notre législation en matière d’interdiction des tests génétiques dont l’objectif n’est ni scientifique ni médical, en sanctionnant également la publicité ou l’incitation à réaliser de tels examens.
Nous proposons d’aligner cette sanction sur celle qui existe pour les tests génétiques hors cadre médical, soit 3 750 euros d’amende.
Quel est l’avis de la commission sur ces deux amendements ? Nous en avons déjà discuté, et mon avis reste défavorable. Quel est l’avis du Gouvernement ? Cette discussion a effectivement déjà eu lieu lors de l’examen de l’amendement no 2583 de M. Brindeau, que vous avez adopté. Il a permis de réaffirmer l’interdiction de la publicité pour ce genre de test. Tout à fait ! Excellent amendement ! En ce qui concerne les sanctions, les cas que vous évoquez sont déjà couverts par les dispositions du code pénal. J’émets donc un avis défavorable. La parole est à M. Thibault Bazin. Nous avons voté sur le principe lorsque nous avons adopté l’amendement de notre collègue Pascal Brindeau, mais nous abordons ici la question des sanctions. A priori, notre code pénal n’est pas précis en la matière, ce qui motive notre amendement. La parole est à M. Pascal Brindeau. M. le secrétaire d’État nous indique que la sanction pénale est déjà prévue, ce qui est vrai. L’amendement de notre collègue Thibault Bazin vise à durcir cette sanction pénale, non pas à l’égard des utilisateurs de ces tests, mais à l’égard de ceux qui en font la promotion et la publicité. Pour les entreprises concernées – américaines en l’occurrence –, une amende de 3 750 euros serait au demeurant anecdotique. Il s’agit néanmoins de mettre un terme à ces campagnes de promotion.
J’invite donc tous les collègues qui ont bien voulu voter mon amendement ce matin à approuver également celui de Thibault Bazin. Ce serait logique et cohérent.
Très bien ! Je mets aux voix l’amendement no 1844.
(Il est procédé au scrutin.) Voici le résultat du scrutin :
        Nombre de votants                        31
        Nombre de suffrages exprimés                31
        Majorité absolue                        16
                Pour l’adoption                8
                Contre                23
(L’amendement no 1844 n’est pas adopté.)
(L’amendement no 1345 rectifié n’est pas adopté.)
Avant de donner la parole à l’oratrice inscrite sur l’article 11, je voudrais souhaiter la bienvenue à notre collègue Pierre Venteau qui siège aujourd’hui pour la première fois dans l’hémicycle, où il succède à M. Jean-Baptiste Djebbari. Bienvenue à vous, mon cher collègue ! (Applaudissements sur tous les bancs.)
La parole est à Mme Christine Hennion. Le présent article porte sur l’utilisation des traitements algorithmiques des données par l’intelligence artificielle dans le cadre de la relation entre le patient et le professionnel de santé.
C’est la première fois, il faut le souligner, que la loi bioéthique intègre des dispositions relatives à l’intelligence artificielle. Nous devons nous en réjouir, cette technologie étant porteuse d’espoirs au profit de la santé de nos concitoyens. L’article vise à privilégier l’humain et à faire en sorte que les professionnels de santé aient la prééminence sur la technique.
Puisque cet article est technique, il faut veiller à produire un texte qui soit clair dans ses objectifs, précis dans ses termes et compréhensible par tous. Or certains termes employés me semblent obscurs. Je souhaite que ces débats les éclairent.
Prenons le terme « traitement ». Il me semble prêter à confusion, car on ne comprend pas toujours très bien s’il s’agit d’un traitement algorithmique ou d’un traitement médical.
Dans l’alinéa 3, il est question du paramétrage des traitements par le professionnel de santé. Qu’entend-on par le terme « paramétrage » ? D’un point de vue technique, le paramétrage d’un algorithme peut mettre en jeu des compétences qui ne relèvent pas toujours du champ de celles des professionnels de santé.
Dans l’alinéa 4, on évoque la « traçabilité des actions d’un traitement ». Je m’interroge sur ce que peut désigner cette expression, sachant que, pour certains algorithmes d’intelligence artificielle parmi les plus utilisés actuellement, la traçabilité de la décision de l’algorithme est techniquement impossible.
J’espère que nos débats permettront d’éclairer la signification de ces termes.
Nous en venons à l’examen des amendements.
L’amendement no 116 de M. Pierre-Alain Raphan est défendu.
(L’amendement no 116, repoussé par la commission et le Gouvernement, n’est pas adopté.) La parole est à M. Thibault Bazin, pour soutenir l’amendement no 1232. Comme vient de l’indiquer notre collègue Mme Hennion, l’expression « traitement algorithmique de données » semble insuffisant, monsieur le secrétaire d’État. En effet, l’intelligence artificielle n’a plus nécessairement besoin d’algorithmes ; elle se développe parfois au moyen des réseaux neuronaux. Il convient donc d’élargir le champ en accolant à cette expression les termes « ou assimilé », ce que je propose par cet amendement d’appel – je suis certain que Mme Hennion le votera elle aussi. Cela permettrait de confirmer, dans le compte rendu de nos débats, que vous avez une interprétation large de cette expression. Quel est l’avis de la commission ? Votre amendement, si je le comprends bien, me semble déjà satisfait par le texte de l’article 11, l’expression « traitement algorithmique de données massives » étant suffisamment large pour inclure les différentes techniques d’intelligence artificielle. De fait, sont visées par la présente rédaction non seulement les techniques actuelles mais aussi les techniques à venir ayant un lien avec le traitement algorithmique. En outre, le terme « assimilé » que vous proposez me semble trop flou pour répondre à l’exigence de clarté de la loi. J’émets un avis défavorable. Quel est l’avis du Gouvernement ? Il est similaire à celui du rapporteur, pour les mêmes raisons. J’ajoute que l’expression « traitement algorithmique de données massives » a été consacrée par le Comité consultatif national d’éthique – CCNE – dans son avis no 130 intitulé « Données massives et santé : une nouvelle approche des enjeux éthiques ». Cette expression me semble donc couvrir les champs que vous souhaitiez ajouter. L’amendement étant satisfait, je vous invite à le retirer. À défaut, j’émettrai un avis défavorable.
(L’amendement no 1232 n’est pas adopté.) La parole est à Mme Christine Hennion, pour soutenir l’amendement no 2351. Il vise à atteindre le même objectif que le précédent, mais d’une autre manière : je propose de supprimer le terme « massives ». En effet, les données traitées par les algorithmes ne sont pas toujours massives. C’est particulièrement vrai dans le domaine de la santé où, lorsque les données sont de bonne qualité, on essaie d’en utiliser une quantité restreinte pour réaliser les traitements algorithmiques ou les calculs d’intelligence artificielle.
La suppression de ce terme permettrait d’élargir le champ des techniques d’intelligence artificielle couvert par l’article. N’oublions pas que cette loi a vocation à rester applicable pendant plusieurs années, alors que ces technologies progressent de plus en plus vite.
Dans les avis nos 129 et 130 du CCNE, l’expression « données massives » est effectivement utilisée, notamment dans le titre de l’avis no 130, mais elle n’est jamais confondue avec la notion d’« intelligence artificielle ». Il serait donc utile de préciser les choses.
Quel est l’avis de la commission ? L’adjectif « massives », qui vous pose problème, n’est que la transcription exacte de l’adjectif utilisé par le CCNE. Nous souhaitons respecter cette définition, qui semble inclure toutes les formes d’intelligence artificielle. J’émets un avis défavorable. Quel est l’avis du Gouvernement ? Le terme « massives » permet de désigner les traitements d’intelligence artificielle conjuguant puissance de calcul et données massives – ce que l’on appelle traditionnellement le « big data ». Cela couvre aussi le cas qui vous préoccupe : l’utilisation de dispositifs d’intelligence artificielle par un professionnel de santé, pour un patient en particulier. Dans un tel cas de figure, le professionnel soumet les données personnelles du patient dans un dispositif d’intelligence artificielle, lui-même entraîné à partir de données massives, afin que l’algorithme compare les données singulières avec une base de données massives. L’expression couvre bien l’ensemble du champ, notamment le cas particulier que vous évoquez. L’amendement étant satisfait, je vous suggère de le retirer. À défaut, j’émettrai un avis défavorable. La parole est à Mme Christine Hennion. Vos propos, monsieur le secrétaire d’État, montrent bien que l’article 11 manque de clarté. Comme le souligne la Commission nationale de l’informatique et des libertés – CNIL – dans son avis sur ce projet de loi, il est difficile de distinguer ce qui relève de la phase amont, période d’apprentissage de l’intelligence artificielle – lequel peut être réalisé, dans le domaine de la santé, à partir de jeux de données restreints si celles-ci sont de très bonne qualité – et ce qui est fait en aval pour le patient. J’y reviendrai par la suite en défendant d’autres amendements, l’article n’étant pas toujours clair à cet égard. En tout cas, je maintiens mon amendement.
(L’amendement no 2351 n’est pas adopté.) L’amendement no 1026 de Mme Marine Brenier est défendu.
(L’amendement no 1026, repoussé par la commission et le Gouvernement, n’est pas adopté.) Dommage ! Je suis saisi de deux amendements, nos 2405 et 1233, pouvant être soumis à une discussion commune.
La parole est à Mme Christine Hennion, pour soutenir l’amendement no 2405.
Il s’agit d’un amendement de précision qui permettrait de rendre l’article 11 conforme au RGPD, le règlement général sur la protection des données. Celui-ci dispose en effet que les personnes dont les données sont soumises à des traitements informatiques ou à l’intelligence artificielle doivent en être informées en amont. Or cela n’est pas clairement indiqué dans l’article. La parole est à M. Thibault Bazin, pour soutenir l’amendement no 1233. Je propose une modification similaire, mais qui tient en trois mots – ainsi, la loi serait moins bavarde ! Il s’agit de prévoir une information du patient préalablement à l’utilisation du traitement algorithmique de données massives, conformément au principe du consentement aux soins. Quel est l’avis de la commission sur ces deux amendements ? Il est défavorable, car il faut tenir compte des pratiques médicales : le praticien qui remet les résultats au patient n’est pas forcément celui qui a eu recours au dispositif d’intelligence artificielle en amont. Quel est l’avis du Gouvernement ? La proposition que vous faites par ces deux amendements ne semble pas de nature à améliorer la qualité et la sécurité des soins donnés aux patients. Il est question de leur consentement ! Laissez-moi répondre…
L’utilisation d’un dispositif doté d’une intelligence artificielle ne présente pas, en elle-même, de risque spécifique pour la santé. Ce qui importe, c’est de prévoir une garantie humaine dans le paramétrage du dispositif, afin que celui-ci réponde précisément à la situation du patient. C’est ce qui est proposé à l’article 11.
Dans sa pratique, un médecin est tenu de se fonder sur les meilleurs moyens d’investigation existants en l’état des connaissances. Les logiciels d’aide à la décision thérapeutique peuvent être un de ces moyens. Il ne faut donc pas considérer le recours à l’intelligence artificielle comme une pratique médicale particulière, à l’écart de la pratique quotidienne.
Le plus important, selon moi, est que cette utilisation soit transparente. C’est la raison pour laquelle le patient sera informé au moment de la communication des résultats et pourra bien sûr demander leur interprétation par un autre professionnel de santé, s’il en ressent le besoin. Cela garantit que la décision finale, qui s’appuie sur les résultats produits par ces dispositifs, est prise par le médecin en interaction avec le patient.
Je suggère le retrait des amendements. À défaut, je donnerai un avis défavorable.
La parole est à Mme Christine Hennion. Vous êtes en train de nous dire que vous n’appliquez pas le RGPD, que ce projet de loi entre en contradiction avec un autre texte. Je ne comprends pas pourquoi on ne pourrait pas expliquer à l’avance à un patient que, pendant son parcours médical, il subira des examens et que les médecins recourront éventuellement à l’intelligence artificielle pour choisir un traitement. C’est une simple information. Vous parlez de transparence. Or une telle information est plutôt de nature à mettre le patient en confiance ; l’absence d’information, au contraire, peut susciter des questions. Il y aussi le problème du consentement ! Oui, le consentement est important aussi. En tout cas, cela me pose un problème que l’article 11 soit en contradiction avec un autre texte de loi. Très juste !
(L’amendement no 2405 n’est pas adopté.) Si, il est adopté ! Monsieur le président, vous faites comme le président Ferrand ! L’amendement n’est pas adopté, et il ne me semble guère judicieux de faire référence à ce précédent.
Mes chers collègues, afin que le nombre d’incidents de séance soit aussi limité que possible, je vous invite à lever la main lorsque vous souhaitez participer à un vote, sans quoi votre voix ne sera pas comptabilisée.
(L’amendement no 1233 n’est pas adopté.) L’amendement no 1664 de Mme Annie Vidal est défendu.
(L’amendement no 1664, repoussé par la commission et le Gouvernement, n’est pas adopté.) La parole est à Mme Christine Hennion, pour soutenir l’amendement no 2354. Je le présente sans être certaine que ma proposition corresponde bien au sens que le Gouvernement souhaite donner à l’alinéa 3. Il vise à préciser la notion de paramétrage, qui n’est définie clairement nulle part. Je propose de remplacer l’expression « l’adaptation des paramètres d’un traitement » par « la saisie des données relatives au patient dans le but de mettre en œuvre un traitement ».
Quel est le sens de la rédaction actuelle ? Si les paramètres sont techniques, ce n’est pas le médecin qui pourra les modifier. Il doit, pour sa part, saisir des données relatives au patient, donc personnelles, puis confirmer ou rectifier l’interprétation apportée par le système d’aide à la décision. Tel est, me semble-t-il, l’objectif du recours à l’intelligence artificielle.
Je vous serais reconnaissante de me fournir des explications. Je suis disposée, le cas échéant, à retirer mon amendement. Mes amendements précédents ont été rejetés, mais il conviendrait selon moi de revoir la rédaction de l’article 11 à la faveur de la navette parlementaire, afin de le rendre plus compréhensible et plus aisément interprétable par les praticiens.
Quel est l’avis de la commission ? L’expression utilisée à l’alinéa 3 signifie effectivement que l’on doit pouvoir adapter les paramètres aux caractéristiques du patient, dans le cadre d’une médecine personnalisée. Je vous propose de retirer votre amendement. À défaut, mon avis sera défavorable. Quel est l’avis du Gouvernement ? J’interviendrai dans le même sens que M. le rapporteur, tout en apportant des exemples visant à clarifier l’intention du Gouvernement. J’espère ainsi répondre à vos interrogations.
Le paramétrage du traitement, mentionné à l’alinéa 3 consiste à ajuster ses variables aux caractéristiques d’un patient, pour qu’il réponde exactement à sa situation – dans le cadre d’une médecine de plus en plus personnalisée, comme l’a indiqué M. le rapporteur. S’agissant d’un dispositif médical implanté, le professionnel de santé pourra ainsi procéder aux réglages nécessaires à l’utilisation des règles induites dans ce dispositif, pour l’adapter aux caractéristiques individuelles du patient, en vue de son implantation. Par exemple, il adaptera un pancréas artificiel aux caractéristiques d’un patient diabétique – poids, taille, vitesse d’action de l’insuline… – pour qu’il lui administre le dosage d’insuline le plus juste.
Comme vous pouvez le constater, le paramétrage va au-delà de la simple saisie de données, qui est l’objet de votre amendement. J’espère avoir clarifié, avec cet exemple, l’intention du Gouvernement. Je vous invite à retirer l’amendement. À défaut, je recommanderai son rejet.
Je me permets d’ajouter, au sujet de votre amendement précédent, que le RGPD s’applique aux données personnelles saisies dans le traitement, non au traitement lui-même. L’article 11 n’entre donc pas en contradiction avec le RGPD.
La parole est à Mme Christine Hennion. Je retire l’amendement, mais je continue à penser qu’il faut développer un peu plus les choses dans l’article, parce que l’intelligence artificielle permet de traiter bien d’autres cas que celui que vous venez d’exposer. En outre, les éléments que vous avez cités comme exemples de paramètres, comme le poids ou d’autres caractéristiques du patient, sont bien des données personnelles, de caractère médical qui plus est. Dès lors, elles doivent être traitées de manière spécifique.
Par ailleurs, pour utiliser un outil de traitement des données, il faut bien saisir des données. Je pense que le patient doit donner son consentement à l’utilisation de ses données personnelles.
(L’amendement no 2354 est retiré.) Je suis saisi de deux amendements identiques, nos 1053 et 1829.
La parole est à M. Maxime Minot, pour soutenir l’amendement no 1053.
Il convient de recourir à des référentiels de bonnes pratiques, afin d’établir les modalités de la traçabilité prévue à l’alinéa 4. L’amendement vise également à associer les associations d’usagers à l’élaboration de ces référentiels. La parole est à M. Christian Hutin, pour soutenir l’amendement no 1829. Je sens souffler un petit vent d’inquiétude, mais peut-être n’est-ce pas votre cas, monsieur le président, monsieur le rapporteur, monsieur le secrétaire d’État, ni celui des éminents collègues qui connaissent particulièrement bien la question. Quant aux internautes qui suivent nos débats de cet après-midi, qui doivent être une dizaine tout au plus, ils les trouvent sans doute complètement surréalistes. Moi-même je n’y comprends ! Ou plutôt, le peu que je comprends suffit à m’inquiéter.
Il se trouve que l’on célèbre cette année le soixante-dixième anniversaire de la publication de
1984 , le roman d’Orwell… L’expression « traitement algorithmique de données massives » est extrêmement inquiétante, d’autant que Mme Hennion, qui semble s’y connaître, vient d’indiquer que le terme « algorithmique » était déjà dépassé. C’est un peu comme si le patron, les internes et les externes parlaient latin devant le lit du patient !
Le but de notre amendement est d’imposer quelques limites à ce surréalisme, en encadrant l’avancée prévue. Nous tenons beaucoup à ce que les données personnelles des patients gardent leur caractère privé. L’article 11 prévoit un certain nombre de garanties, dont la traçabilité des actions du traitement algorithmique, mais il ne précise en rien comment celle-ci sera assurée. C’est pourquoi le groupe Socialistes et apparentés propose qu’elle le soit grâce à des référentiels de bonnes pratiques médicales. Les associations de patients seraient associées à leur élaboration et pourraient les valider.
Quel est l’avis de la commission sur ces deux amendements ? Il y a là un problème de sémantique. Vous demandez que la traçabilité soit assurée « par des référentiels de bonnes pratiques ». Or on ne réalise rien « par » des bonnes pratiques ; on ne peut accomplir des choses que « selon » des bonnes pratiques. Vos amendements ne sont donc pas susceptibles d’apaiser votre inquiétude. L’avis est défavorable. Quel est l’avis du Gouvernement ? Pour compléter les propos du rapporteur et rassurer, si c’est nécessaire, la dizaine de Français qui nous regardent, je précise que les traitements algorithmiques de données massives sont considérés comme des dispositifs médicaux. À ce titre, ils devront déjà, aux termes du projet de loi, comporter une fonction assurant la traçabilité de leurs actions. C’est donc au niveau de la conception et de la fabrication de ces traitements que les règles en matière de traçabilité seront posées. Prévoir que des référentiels de bonnes pratiques viendront guider cette traçabilité n’apporterait rien, en pratique, en matière de sécurité. Celle-ci est assurée par le règlement européen relatif aux dispositifs médicaux, notamment par les normes relatives au marquage « CE », qui viennent d’être renforcées.
Soyez donc rassurés, messieurs les députés : vos amendements sont satisfaits. D’où une demande de retrait, sinon de rejet.
(Les amendements identiques nos 1053 et 1829 ne sont pas adoptés.) La parole est à M. Pierre-Alain Raphan, pour soutenir l’amendement no 123. Nous proposons par cet amendement que toutes les données de santé des citoyens français soient stockées sur le territoire français, afin qu’elles ne relèvent pas de lois extraterritoriales telles que le Cloud Act, sorte de permis d’espionner étranger. À défaut, certains États pourraient accéder à ces données, le cas échéant avec des intentions obscures. Il s’agit de préserver notre souveraineté. Il est nécessaire de prévoir une réponse française, voire européenne, en la matière. Quel est l’avis de la commission ? Votre souci que ces données de santé ne partent pas à l’étranger est légitime. Nous avons exprimé la même préoccupation ce matin à propos des séquençages massifs d’ADN opérés depuis l’étranger à la demande de certains de nos concitoyens. Si ce souci est totalement partagé, le cadre juridique actuel suffit à y répondre. En effet, le RGPD et la loi relative à la protection des données personnelles ont considérablement renforcé les modalités de protection des données personnelles. Parmi celles-ci, les données de santé bénéficient de la qualification de « données sensibles », ce qui leur confère le plus haut niveau de protection aux étapes de la collecte et du traitement, mais aussi de la conservation. L’avis est donc défavorable. Quel est l’avis du Gouvernement ? Il sera similaire à celui du rapporteur. Je compléterai simplement les propos de celui-ci en rappelant un élément de sécurisation supplémentaire déjà évoqué mercredi dernier, lors d’un débat similaire que vous avez eu à propos du registre des donneurs et de l’utilisation des serveurs de l’Agence de la biomédecine : un arrêté d’application relatif au système national des données de santé, le SNDS, prévoit que ces données ne peuvent être hébergées que par des opérateurs établis dans un pays qualifié de « sûr » par la CNIL. D’où ma demande de retrait, sinon de rejet, de cet amendement. La parole est à M. Pierre-Alain Raphan. Je le maintiens parce qu’il semblerait que, même au niveau européen, on n’ait pas encore trouvé de réponse au Cloud Act, lequel pourrait prévaloir sur le RGPD au cas où ces données seraient stockées par des opérateurs étrangers.
(L’amendement no 123 n’est pas adopté.) La parole est à M. Thibault Bazin, pour soutenir l’amendement no 1234. Défendu ! Je ne peux en dire plus en raison du temps législatif programmé.
(L’amendement no 1234, repoussé par la commission et le Gouvernement, n’est pas adopté.) Quel dommage ! Sur l’article 11, je suis saisi par le groupe La République en marche d’une demande de scrutin public.
Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.
La parole est à M. Alain Ramadier, pour soutenir l’amendement no 1661.
Défendu ! Je ne peux pas en dire plus en raison du temps législatif programmé.
(L’amendement no 1661, repoussé par la commission et le Gouvernement, n’est pas adopté.) Je suis saisi de deux amendements identiques, nos 206 et 462.
La parole est à M. Alain Ramadier, pour soutenir l’amendement no 206.
Défendu ! Je ne peux en dire plus en raison du temps législatif programmé. La parole est à M. Patrick Hetzel, pour soutenir l’amendement no 462. Défendu, monsieur le président ! Je ne peux pas en dire plus en raison du temps législatif programmé.
(Les amendements identiques nos 206 et 462, repoussés par la commission et le Gouvernement, ne sont pas adoptés.) La parole est à M. Pierre-Alain Raphan, pour soutenir l’amendement no 1059. Défendu. Il ne peut pas en dire plus en raison du temps législatif programmé ! (Sourires.)
(L’amendement no 1059, repoussé par la commission et le Gouvernement, n’est pas adopté.) La parole est à Mme Agnès Thill, pour soutenir l’amendement no 1502. Défendu.
(L’amendement no 1502, repoussé par la commission et le Gouvernement, n’est pas adopté.) La parole est à M. Patrick Hetzel, pour soutenir l’amendement no 463. Défendu ! Je ne peux pas en dire plus en raison du temps législatif programmé.
(L’amendement no 463, repoussé par la commission et le Gouvernement, n’est pas adopté.) Je mets aux voix l’article 11.
(Il est procédé au scrutin.) Voici le résultat du scrutin :
        Nombre de votants                        33
        Nombre de suffrages exprimés                29
        Majorité absolue                        15
                Pour l’adoption                29
                Contre                0
(L’article 11 est adopté.) (Applaudissements sur les bancs du groupe LaREM.)
Je suis saisi de deux amendements identiques, nos 693 et 1235.
La parole est à M. Alain Ramadier, pour soutenir l’amendement no 693.
Le séquençage du génome ouvre de nouvelles perspectives, notamment en matière de médecine prédictive. Il est possible de recourir à un examen génétique pour rechercher les prédispositions à une maladie qui pourrait se déclarer ultérieurement, telle que le cancer ou le diabète.
Cependant, la médecine prédictive soulève bien d’autres questions. Dans l’hypothèse d’une généralisation de ces diagnostics prédictifs par séquençage génétique, le risque est de tomber dans une forme de discrimination génétique en fonction de l’état de santé de chacun, par exemple en matière d’accès au crédit, à l’emploi ou à l’assurance.
Pour se prémunir de conséquences aussi gravement attentatoires à l’autonomie de chacun, il convient d’offrir à nos concitoyens une protection juridique. Tel est le but de cet amendement.
La parole est à M. Thibault Bazin, pour soutenir l’amendement no 1235. Notre collègue Pierre-Alain Raphan le sait bien, l’intelligence artificielle va encore se développer d’ici à la prochaine loi de bioéthique, et les potentialités prédictives des technologies risquent d’entraver la vie économique et sociale d’une personne, dès lors que la probabilité de survenance d’une maladie l’empêcherait, par exemple, de contracter une police d’assurance ou d’obtenir un prêt bancaire. Il est donc essentiel d’établir des limites claires et fermes à ne pas dépasser ; c’est le sens de cet amendement. Quel est l’avis de la commission sur ces amendements ? Je comprends parfaitement que la médecine prédictive suscite une telle inquiétude. Si nous en connaissons les côtés positifs, nous savons que, comme pour toute avancée scientifique ou médicale, il faut savoir se protéger de ses inconvénients. Cependant, la rédaction de vos amendements les rend difficilement acceptables. Le flou de termes comme « influer négativement » ou « la vie économique et sociale des personnes concernées » en rendrait l’application quelque peu complexe. C’est plutôt en raison de ce problème de rédaction que je donne un avis défavorable. La parole est à Mme la ministre des solidarités et de la santé, pour donner l’avis du Gouvernement. Je répète ce que j’ai dit ce matin au sujet d’un amendement assez similaire : quelle que soit la technique qu’on utilise pour les recueillir, les données de santé, qu’elles soient diagnostiques ou prédictives, relèvent d’ores et déjà d’une législation extrêmement sévère, qui interdit notamment leur utilisation par des organismes assureurs.
Je citerai deux cas.
Tout d’abord, les dispositions relatives aux contrats d’assurance maladie solidaires et responsables, qui représentent la quasi-totalité du marché, interdisent l’usage de questionnaires médicaux préalables à la conclusion d’un contrat, qui pourraient donner lieu à l’application de technologies prédictives. Pour la quasi-totalité du marché des contrats de complémentaire santé, l’utilisation de ces technologies se limite donc, en pratique, à l’établissement de données très générales permettant de pratiquer une tarification des contrats et des garanties adaptée à une population donnée, en fonction de l’âge par exemple.
Ensuite, en matière d’assurance emprunteur, la convention « S’assurer et emprunter avec un risque aggravé de santé », dite convention AERAS, se réfère à un consensus scientifique qui doit être partagé entre les associations de patients et d’usagers, les assureurs, les médecins et les scientifiques. Ce consensus prévaut notamment dans l’application du droit à l’oubli pour les pathologies cancéreuses et les pathologies énumérées dans une grille de référence. Ainsi peut-on interdire ou limiter l’application de surprimes ou d’exclusions de garantie aux patients qui présenteraient lesdites pathologies.
Outre que votre amendement me paraît trop général, il est déjà satisfait par la réglementation actuelle, qui vise toutes les données de santé, de quelque façon qu’elles aient été obtenues – y compris par l’intelligence artificielle et les données prédictives. J’émets un avis défavorable sur les amendements.
(L’amendement no 693 est retiré.)
(L’amendement no 1235 n’est pas adopté.) La parole est à Mme Michèle de Vaucouleurs, pour soutenir l’amendement no 1123. Il vise à garantir la liberté du médecin, en précisant que ce dernier n’est pas tenu de suivre les indications d’un algorithme et qu’il ne peut fonder sa décision médicale sur les seules données fournies par un algorithme. Cette mesure, soutenue par le Conseil d’État, permettra d’éviter une perte de responsabilité du médecin à cause des algorithmes. Bien que la répression de l’exercice illégal de la médecine puisse fonder l’interdiction d’un diagnostic établi uniquement par un système d’intelligence artificielle, une telle interdiction mériterait d’être rappelée de manière plus nette, comme le recommande le Conseil d’État. Quel est l’avis de la commission ? Plusieurs arguments peuvent être invoqués, mais je n’en retiendrai qu’un seul : le code de déontologie médicale, qui est repris dans le code de la santé publique, pose le principe selon lequel « le médecin ne peut aliéner son indépendance professionnelle sous quelque forme que ce soit ». Cela lui interdit déjà de s’en tenir uniquement aux indications d’un algorithme pour fonder sa décision médicale. L’avis est donc défavorable.
(L’amendement no 1123, repoussé par le Gouvernement, n’est pas adopté.) La parole est à M. Pierre-Alain Raphan, pour soutenir l’amendement no 131. Il vise à graver dans le marbre que les analyses ou traitements issus d’algorithmes ou de procédés d’intelligence artificielle doivent intégrer le principe de garantie humaine. Quel est l’avis de la commission ? Cet amendement manque de précision. S’adresse-t-il aux professionnels de santé, aux patients, ou aux deux à la fois ? Comment définir le principe de « garantie humaine » ? L’avis est donc défavorable. Quel est l’avis du Gouvernement ? En réalité, l’amendement est satisfait. Je suggère donc son retrait. À défaut, je recommanderai son rejet. Retirez-vous votre amendement, monsieur Raphan ? Oui, dans la mesure où il est satisfait.
(L’amendement no 131 est retiré.) La parole est à M. Thibault Bazin, pour soutenir l’amendement no 1236. Défendu ! Je ne peux pas en dire plus en raison du temps législatif programmé.
(L’amendement no 1236, repoussé par la commission et le Gouvernement, n’est pas adopté.)
La parole est à M. Thibault Bazin. Nous abordons la question de la neuromodulation, technique pouvant avoir une visée thérapeutique ou, au contraire, être appliquée à une personne non malade. Le fait de l’interdire lorsqu’elle peut occasionner un danger grave pour la santé nous amène à nous interroger sur la notion de « danger grave » : au regard de quels critères l’évaluer ? La loi autoriserait-elle que l’on expose quiconque à un danger qui ne serait pas jugé grave ? Puisque la neuromodulation est un acte médical, pourquoi ne pas lui appliquer le principe primum non nocere – d’abord, ne pas nuire ?
De toute évidence, les actes de neuromodulation doivent principalement garder une visée thérapeutique. Pourtant, la législation est assez silencieuse à ce sujet ; on autorise des actes de neuromodulation qui pourraient viser l’amélioration des performances du cerveau d’une personne non malade. Il ne s’agit donc plus ici de neuromodulation, mais de neuro-amélioration, ce qui n’est pas sans présenter un risque éthique. L’amélioration des performances cérébrales ne relève-t-elle pas d’une forme de visée transhumaniste ? Le projet de loi ne devrait-il pas limiter le recours à la neuromodulation en l’autorisation uniquement lorsqu’elle est à visée thérapeutique, autrement dit lorsqu’elle est utilisée en faveur de personnes chez lesquelles une pathologie a été diagnostiquée ?
Pour le reste, il semble juste de conserver la rédaction actuelle de l’article 16-14 du code civil, car l’usage des techniques d’imagerie cérébrale dans le cadre d’expertises judiciaires, sous réserve du consentement exprès de la personne concernée, ne semble pas avoir donné lieu à des dérives.
La parole est à M. Thibault Bazin, pour soutenir l’amendement no 1237. Il est défendu, mais j’espère que Mme la ministre répondra à mes questions concernant la neuromodulation. Quel est l’avis de la commission ? L’amendement vise à supprimer l’alinéa 2 de l’article 12. Or cela poserait un problème, car on renoncerait à la mise à jour prévue de notre droit, qui consiste à remplacer « techniques d’imagerie cérébrale » par « techniques d’enregistrement de l’activité cérébrale ». L’avis est donc défavorable. Quel est l’avis du Gouvernement ? Est-ce de la neuromodulation ou de la neuro-amélioration ? Par cet amendement, vous souhaitez rétablir les mots « imagerie cérébrale », qui ont été remplacés dans le projet de loi par « enregistrement de l’activité cérébrale ». Je vous propose de retirer votre amendement au profit du no 2489 de M. Eliaou, qui tend à leur substituer les mots « imagerie et exploration de l’activité cérébrale ». En faisant ainsi référence à la fois à l’exploration de l’activité cérébrale et à l’imagerie, nous couvrirons sans ambiguïté l’ensemble des techniques dont l’usage doit être réservé à des fins médicales, de recherche ou d’expertise judiciaire. Je retire cet amendement au profit du no 2489, mais je réitère ma question sur la neuromodulation. Vous prenez la parole sans que je vous la donne, monsieur Bazin, façon habile de vous exprimer sans que cela soit comptabilisé sur le temps de parole de votre groupe… Je répondais à Mme la ministre !
(L’amendement no 1237 est retiré.) La parole est à M. Jean-François Eliaou, pour soutenir l’amendement no 2489. J’aimerais également défendre, à cette occasion, les amendements nos 2490, 2494, 2493 et 2495. Il importe, à ce stade du débat, de bien préciser ce que sont les différentes techniques d’étude du cerveau.
En matière d’imagerie cérébrale, on distingue l’imagerie anatomique et l’imagerie fonctionnelle.
L’imagerie anatomique –– qui recouvre notamment l’IRM et le scanner, avec ou sans injection d’un produit de contraste – fournit la topographie de ce qui se produit dans le cerveau, et permet d’obtenir des données très précises : présence de tumeurs, signes d’accidents vasculaires cérébraux, etc.
L’imagerie fonctionnelle – qui peut être effectuée par IRM ou par d’autres moyens – donne une vision de la fonctionnalité de certaines zones du cerveau lorsque l’individu ou le patient est stimulé.
L’exploration cérébrale peut s’effectuer de façon anatomique ou fonctionnelle. L’enregistrement de l’activité cérébrale peut se faire soit de façon électrique, soit par l’imagerie fonctionnelle.
Il convient de différencier les techniques d’exploration cérébrale.
Premièrement, ces techniques ne doivent pas être utilisées dans un but comportemental lors d’études à visée marchande.
Deuxièmement, comme je l’ai précisé dans un rapport que j’ai établi pour l’Office parlementaire d’évaluation des choix scientifiques et technologiques, il me semble très dangereux d’utiliser les techniques d’exploration fonctionnelle cérébrale dans le cadre de procédures judiciaires, car elles permettraient d’observer la réaction du cerveau d’une personne présumée coupable ou innocente aux questions qui lui sont posées.
Quel est l’avis de la commission ? Je suis heureux d’avoir réussi à convaincre M. Eliaou que l’enregistrement d’une activité cérébrale ne se résumait pas à l’imagerie, mais pouvait aussi passer par d’autres outils. La commission s’est prononcée contre cet amendement. À titre personnel toutefois, je donne un avis favorable, constatant avec satisfaction que les termes que j’avais proposés ont été repris dans l’amendement.
(L’amendement no 2489, accepté par le Gouvernement, est adopté ; en conséquence, l’amendement no 140 tombe.) Les amendements nos 2490, 2494 et 2493 de M. Jean-François Eliaou sont défendus.
(Les amendements nos 2490, 2494 et 2493, acceptés par la commission et le Gouvernement, successivement mis aux voix, sont adoptés.) La parole est à Mme Michèle de Vaucouleurs, pour soutenir l’amendement no 733. Je défendrai par la même occasion l’amendement no 735.
L’amendement no 733 vise à interdire aux banques, aux assurances et aux mutuelles de procéder à une sélection et à une classification de leur clientèle en fonction de critères comportementaux en se fondant sur des données de santé. Il s’appuie sur une recommandation formulée dans le rapport d’analyse prospective de 2019 de la Haute Autorité de santé.
L’émergence de techniques permettant de traiter des données massives incite en effet certains acteurs de l’assurance à écarter les clients qui présentent des risques élevés et sont donc peu profitables. Cette pratique pourrait mettre en péril le principe de mutualisation des risques, les adhérents ayant de « bons » comportements pouvant estimer qu’il convient de démutualiser leurs risques dans le portefeuille de leur assurance complémentaire.
Notre pays ne s’est pas doté d’un arsenal juridique opérant contre cette sélection, que certains acteurs seront vraisemblablement tentés d’accentuer en tirant parti de la disponibilité grandissante des données de santé. Si la considération de l’état de santé d’une personne pour lui refuser un emploi ou un service constitue une discrimination passible des sanctions de l’article 225-1 du code pénal, la loi a maintenu quelques exceptions, notamment en ce qui concerne les assurances.
L’amendement no 733 vise le même objectif. Il tend à préciser que, pour ne pas porter atteinte aux solidarités universelle ou catégorielle d’assurance maladie, une identification et un bornage des risques de sélection liés à la collecte de données de santé – autres que celles issues du SNDS, pour lesquelles cette interdiction est déjà prise en compte – doivent être mis en œuvre.
Quel est l’avis de la commission sur l’amendement no 733 ? Toutes les pratiques que vous mentionnez, madame de Vaucouleurs, sont déjà couvertes à la fois par le RGPD et par la loi informatique et libertés de 1978. C’est pourquoi mon avis est défavorable. Quel est l’avis du Gouvernement ? L’amendement étant satisfait, je suggère son retrait. À défaut, je recommanderai son rejet.
(L’amendement no 733 n’est pas adopté.) L’amendement no 2495 de M. Jean-François Eliaou a été précédemment défendu.
(L’amendement no 2495, accepté par la commission et le Gouvernement, est adopté.) L’amendement no 735 de M. Cyrille Isaac-Sibille a été défendu par Mme de Vaucouleurs.
(L’amendement no 735, repoussé par la commission et le Gouvernement, n’est pas adopté.) Je suis saisi d’un amendement no 2608 qui fait l’objet d’un sous-amendement no 2623.
La parole est à M. Philippe Berta, pour soutenir l’amendement.
Il s’agit de l’amendement initial que j’avais déposé au sujet des techniques d’étude du cerveau. Il vise à élargir le champ, jusqu’alors limité à l’imagerie cérébrale, à l’ensemble des techniques d’enregistrement cérébral. Quel est l’avis du Gouvernement ? Je suis favorable à cet amendement, sous réserve de l’adoption du sous-amendement no 2623. La parole est à M. Jean-François Eliaou, pour soutenir le sous-amendement no 2623. Il vise à compléter l’amendement de M. Berta conformément aux explications que j’ai données précédemment.
(Le sous-amendement no 2623, accepté par la commission, est adopté.)
(L’amendement no 2608, sous-amendé, est adopté.)
(L’article 12, amendé, est adopté.)
L’amendement no 1512 de Mme Emmanuelle Ménard est défendu.
(L’amendement no 1512, repoussé par la commission et le Gouvernement, n’est pas adopté.) Je suis saisi de deux amendements, nos 186 et 153, pouvant être soumis à une discussion commune.
La parole est à M. Pierre-Alain Raphan, pour soutenir l’amendement no 186.
Les machines sont précises, rapides et stupides ; les humains sont négligents, lents et brillants. L’utilité de l’intelligence artificielle doit être de travailler sur la complémentarité des deux pour avoir un développement éthique et une intelligence artificielle socialement responsable. Il serait en conséquence nécessaire, comme le soulignait M. Bazin dans son intervention sur l’article 12, d’être très vigilant quant à des initiatives comme Neuralink, outre-Atlantique, car certains essaient d’implanter des puces dans les cerveaux pour augmenter les capacités humaines.
Neuromodulation à visée thérapeutique, pour guérir, oui ; neuro-augmentation, non. Tel est l’objet de cet amendement.
C’était brillant ! (Sourires.) Monsieur Raphan, vous gardez la parole pour soutenir l’amendement no 153. Il est défendu, monsieur le président. Quel est l’avis de la commission sur ces deux amendements ? Les dispositifs de neuromodulation ne devraient être motivés, selon vous, monsieur Raphan, que par des raisons médicales. Or la neuromodulation va parfois au-delà du médical, puisqu’il existe des dispositifs, dont vous faites peut-être usage, à des fins par exemple de détente ou de relaxation. Je n’en ai pas besoin, monsieur le rapporteur ! (Sourires.) De ce fait, j’émets un avis défavorable sur les deux amendements. Quel est l’avis du Gouvernement ? Au regard du droit européen, il n’est pas possible d’interdire la mise sur le marché de tels équipements. La neuromodulation inclut, entre autres, tous les produits que l’on vend pour dormir, que l’on utilise dans les EHPAD – les établissements d’hébergement pour personnes âgées dépendantes – ou à destination des patients atteints d’Alzheimer. Cela va bien au-delà de ce qu’on peut imaginer.
Tous ces dispositifs relèvent du règlement européen relatif aux dispositifs médicaux, qui entrera en vigueur en mai 2020 et qui comporte une annexe régissant les dispositifs qui, bien que dépourvus de finalité médicale, pourraient présenter un danger pour la santé en raison de leur mode opératoire. L’objet de l’article 13 du présent projet de loi est précisément de doter le Gouvernement de la capacité d’interdire rapidement les dispositifs de neuromodulation n’ayant pas de finalité médicale s’ils présentaient un danger pour la population.
Il me semble qu’avec le texte tel qu’il est rédigé, nous avons tout ce qu’il faut pour encadrer ces usages. La façon dont vos amendements sont formulés élargirait son application à tout un tas de dispositifs qui, en réalité, ne relèvent pas du champ du présent projet de loi.
Demande de retrait ; à défaut, l’avis du Gouvernement serait défavorable.
La parole est à M. Pierre-Alain Raphan. Si Mme la ministre garantit que le Gouvernement pourra agir rapidement en cas de danger, je retire les amendements.
(Les amendements nos 186 et 153 sont retirés.) L’amendement no 2262 de M. Philippe Berta est rédactionnel.
(L’amendement no 2262, accepté par le Gouvernement, est adopté.) Je suis saisi de deux amendements, nos 1238 et 1511, pouvant être soumis à une discussion commune.
La parole est à M. Thibault Bazin, pour soutenir l’amendement no 1238.
Madame la ministre, le problème n’est pas uniquement sanitaire. Quand on fait de la neuromodulation, même avec les meilleures intentions du monde, les effets peuvent être néfastes. Des dispositifs, sans présenter un danger pour la santé des personnes, peuvent ainsi ne pas être respectueux de la dignité de la personne humaine ou porter atteinte à sa liberté – on pourrait parler de « neurosoumission ». Certaines applications pourraient tenter un certain public…
C’est pourquoi je vous invite à compléter l’alinéa 4 par les mots « ou ne garantissant pas le respect de la dignité humaine ». Cela permettrait de mieux couvrir les risques d’abus liés à la neuromodulation, incluant, outre la neuro-augmentation, la neurosoumission.
L’amendement no 1511 de Mme Emmanuelle Ménard est défendu.
Quel est l’avis de la commission sur ces deux amendements ?
Défavorable. Quel est l’avis du Gouvernement ? Le présent projet de loi a pour objectif de permettre au Gouvernement d’interdire les dispositifs de neuromodulation qui échapperaient aux règles, notamment européennes, régissant les dispositifs ayant un effet sur la santé. En l’état, le texte me semble couvrir les risques évoqués. Tous les principes inscrits dans le code civil et relatifs à la dignité et à l’intégrité permettent d’ores et déjà de répondre à vos préoccupations – que je partage. Les amendements sont donc satisfaits. Avis défavorable.
(Les amendements nos 1238 et 1511, successivement mis aux voix, ne sont pas adoptés.) La parole est à M. Patrick Hetzel, pour soutenir l’amendement no 188. En raison du temps législatif programmé, je me bornerai à dire qu’il est défendu. Vous savez, monsieur Hetzel, on m’a dit que si nous décomptions à chaque fois le temps passé à prononcer cette formule, nous en serions déjà à près d’une demi-heure ! Favoritisme ! (Sourires.) Cela prouve qu’il y a un problème ! Oui, c’est une démonstration par l’absurde !

M. le président.