Deuxième séance du mercredi 07 février 2018
- Présidence de Mme Carole Bureau-Bonnard
- 1. Protection des données personnelles
- Discussion des articles (suite)
- Après l’article 13
- Avant l’article 14 A
- Article 14 A
- M. Rémy Rebeyrotte
- M. Jean Terlier
- M. Arnaud Viala
- M. Raphaël Schellenberger
- Amendements nos 35, 69, 21, 10, 103, 182 (sous-amendement) et 12
- Après l’article 14 A
- Article 14
- Mme Emmanuelle Ménard
- Amendements nos 53, 119 et 127
- Après l’article 14
- Article 15
- M. Laurent Furst
- Amendements nos74 rectifié, 149 rectifié, 160 rectifié, 55 et 56
- Après l’article 15
- Amendement no71 rectifié
- Article 16 A
- Article 16
- Article 17
- Amendement no83
- Après l’article 17
- Article 18
- Article 19
- Article 20
- Après l’article 20
- Amendement no155
- Article 21
- Article 22
- Après l’article 22
- Amendement no84
- Article 23
- Après l’article 23
- Amendement no60
- Article 23 bis
- Article 24
- Après l’article 24
- Amendement no20
- Discussion des articles (suite)
- 2. Ordre du jour de la prochaine séance
Présidence de Mme Carole Bureau-Bonnard
vice-présidente
Mme la présidente
La séance est ouverte.
(La séance est ouverte à vingt et une heures trente.)
1. Protection des données personnelles
Suite de la discussion d’un projet de loi
Mme la présidente
L’ordre du jour appelle la suite de la discussion du projet de loi relatif à la protection des données personnelles (nos 490, 592, 579).
Discussion des articles (suite)
Mme la présidente
Cet après-midi, l’Assemblée a poursuivi la discussion des articles, s’arrêtant à l’amendement no 134 portant article additionnel après l’article 13.
Après l’article 13
Mme la présidente
La parole est à Mme Paula Forteza, rapporteure de la commission des lois constitutionnelles, de la législation et de l’administration générale de la République, pour soutenir l’amendement no 134.
Mme Paula Forteza, rapporteure de la commission des lois constitutionnelles, de la législation et de l’administration générale de la République
Nous avons réfléchi à la façon de mieux protéger les données scolaires. Par le présent amendement, nous proposons que les établissements d’enseignement à caractère scolaire mettent à la disposition du public, dans un format ouvert et aisément réutilisable, la liste des traitements automatisés de données à caractère personnel effectués sous leur responsabilité. Ce dispositif répond à une demande particulière des parents d’élèves, qui voulaient savoir comment les données de leurs enfants étaient traitées par les établissements d’enseignement public.
Mme la présidente
La parole est à Mme la garde des sceaux, ministre de la justice, pour donner l’avis du Gouvernement.
Mme Nicole Belloubet, garde des sceaux, ministre de la justice
Madame la rapporteure, la question que vous soulevez nous préoccupe évidemment tous : comment est encadré le traitement des données dans le milieu scolaire ? Ces données sont soumises aux dispositions du règlement général sur la protection des données – RGPD –, qui apporte de nombreuses garanties.
Plus largement, nous pouvons évidemment comprendre les préoccupations des parents d’élèves et du monde enseignant. Le ministère de l’éducation nationale y est attentif et entend y répondre ; je peux vous assurer que le ministre lui-même y veille particulièrement. C’est d’ailleurs une priorité de ce ministère, qui travaille au développement d’un certain nombre d’outils, avec la Commission nationale de l’informatique et des libertés – CNIL. Une mission a été confiée en ce sens à l’Inspection générale de l’éducation nationale et à l’Inspection générale de l’administration de l’éducation nationale, le 13 novembre 2017 – il y a quelques mois. Nous attendons les conclusions prochaines de cette mission.
Le ministère de l’éducation nationale déploie, en ce moment même, des efforts considérables pour mettre en œuvre le RGPD. Celui-ci impose la tenue d’un registre par chaque responsable de traitement, c’est-à-dire pour l’essentiel par les chefs d’établissement. Comme il existe de très nombreux établissements, l’éducation nationale procède aujourd’hui à un énorme travail de recensement, sous l’autorité des différents recteurs d’académie. Ces registres seront une garantie fondamentale de la transparence des traitements.
Madame la rapporteure, c’est sans doute autour de ces registres que nous devons travailler, dans le sens que vous souhaitez. Le Gouvernement a des réserves sur la rédaction de votre amendement. Nous essayons de trouver une solution opérationnelle pour répondre aux préoccupations exprimées sur l’ensemble des bancs de cette assemblée. La rédaction que vous proposez conduirait plus de 53 000 établissements à mettre à disposition du public, sans délai, la liste des traitements. Or le ministère de l’éducation nationale considère, à juste titre, que rien ne permet de garantir que ces 53 000 établissements seront effectivement en mesure d’appliquer ces dispositions dans l’immédiat.
Le Gouvernement vous propose donc de continuer à creuser cette question d’ici à la fin de la navette, et ce n’est pas une formule toute faite : nous voulons bel et bien construire ensemble un dispositif plus opérationnel permettant d’articuler la tenue du registre prévue par le RGPD et les dispositions du code des relations entre le public et l’administration relatives à l’accès aux documents administratifs. J’espère ainsi que nous pourrons trouver une solution qui vous convienne. Dans cette attente, je vous demande de retirer votre amendement.
Mme la présidente
La parole est à Mme la rapporteure.
Mme Paula Forteza, rapporteure
Je suis prête à attendre les conclusions des travaux du ministère de l’éducation nationale et à continuer à travailler pour pouvoir proposer le dispositif adéquat. Je retire mon amendement.
(L’amendement no 134 est retiré.)
Mme la présidente
Je suis saisie de trois amendements identiques, nos 90 rectifié, 144 rectifié et 167 rectifié.
La parole est à Mme la rapporteure, pour soutenir l’amendement no 90 rectifié.
Mme Paula Forteza, rapporteure
Nous proposons de former les enseignants à la protection des données personnelles, pour qu’ils sensibilisent les élèves à ce sujet et puissent prendre les précautions nécessaires dans les classes.
Mme la présidente
La parole est à Mme Sarah El Haïry, pour soutenir l’amendement no 144 rectifié.
Mme Sarah El Haïry
Il est identique à celui de Mme Forteza. L’effort de pédagogie doit être poursuivi au sein de l’éducation nationale pour sensibiliser à la fois le corps enseignant et les élèves aux problématiques liées à la protection des données personnelles. Si les données personnelles récoltées dans le cadre scolaire ne sont pas des données sensibles, cette sensibilisation nous paraît essentielle, car les élèves doivent prendre conscience de la nécessité de protéger l’ensemble de leurs données personnelles. Il s’agit d’un investissement à très long terme.
Mme la présidente
La parole est à M. Rémy Rebeyrotte, pour soutenir l’amendement no 167 rectifié.
M. Rémy Rebeyrotte
Il est défendu.
(Les amendements identiques nos 90 rectifié, 144 rectifié et 167 rectifié, acceptés par le Gouvernement, sont adoptés.)
Mme la présidente
Je suis saisie de deux amendements, nos 62 et 75, pouvant être soumis à une discussion commune.
La parole est à M. Loïc Prud’homme, pour soutenir l’amendement no 62.
M. Loïc Prud’homme
Le Gouvernement ne semble pas décidé à utiliser tous les outils que lui procure la réglementation européenne, en particulier le règlement général de protection des données, qu’il s’agit pourtant ici de transposer dans le droit national. Se profile donc un risque important d’ouverture sauvage des données, sans même que la CNIL n’ait son mot à dire. Plusieurs angles morts perdurent, dont celui des énormes fichiers de l’Éducation nationale, qui répertorient des informations sur 12 millions d’élèves, mineurs pour l’écrasante majorité d’entre eux.
Nous reprenons donc la proposition de bon sens, voire salutaire, de la Commission nationale consultative des droits de l’homme – CNCDH –, qui est une institution publique indépendante. Elle s’appuie sur l’article 36 du RGPD, qui autorise les États à soumettre à l’approbation de l’autorité de contrôle – la CNIL, dans le cas de la France – tout traitement de données récoltées dans le cadre d’une mission d’intérêt public. Pour La France insoumise, ce droit est surtout un devoir.
Le précédent gouvernement a fait entrer le cheval de Troie « Microsoft » dans l’éducation nationale. Je vous adjure de vous abstenir d’aller plus loin en ouvrant à tous les vents des informations personnelles, voire intimes, qui concernent des millions d’enfants et de familles.
Mme la présidente
La parole est à Mme Sarah El Haïry, pour soutenir l’amendement no 75.
Mme Sarah El Haïry
Cet amendement vise à créer une nouvelle catégorie spécifique pour les traitements de données à caractère personnel dans le domaine scolaire. En effet, avec l’utilisation croissante des outils numériques dans un cadre éducatif, les données doivent être protégées. Or, nous nous interrogeons sur l’utilisation et le traitement des données collectées par les services souvent gratuits proposés par certaines entreprises.
Le règlement prévoit un régime protecteur encadrant le consentement des mineurs de moins de seize ans – quinze ans pour la France. Dès lors, il n’est pas normal que les données à caractère personnel dans le domaine scolaire, portant précisément sur des mineurs, ne bénéficient pas elles aussi d’un régime spécifique et protecteur.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
Nous avons tous exprimé nos inquiétudes à cet égard. Mme la ministre a indiqué la direction prise par les travaux du Gouvernement. Je propose de nous en tenir aux amendements qui ont été adoptés, dans l’attente de la co-construction, avec le Gouvernement, d’un dispositif qui sera présenté en nouvelle lecture. Avis défavorable aux deux amendements.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
Avis défavorable, pour les raisons exposées précédemment.
Mme la présidente
La parole est à Mme Sarah El Haïry.
Mme Sarah El Haïry
Pour éviter le rejet de cet amendement, et en cohérence avec les positions de mon collègue, M. Latombe, qui en est l’auteur, je le retire.
(L’amendement no 75 est retiré.)
(L’amendement no 62 n’est pas adopté.)
Avant l’article 14 A
Mme la présidente
Je suis saisie de quatre amendements, nos 86, 91, 92 et 184, pouvant être soumis à une discussion commune.
La parole est à M. Erwan Balanant, pour soutenir l’amendement no 86.
M. Erwan Balanant
Cet amendement vise à intégrer la définition du consentement donnée par la CNIL et le groupe de travail de l’article 29 sur la protection des données – G29. Il vise à définir les qualités essentielles que doit revêtir le consentement au traitement des données personnelles : la loyauté, le caractère volontaire, libre, spécifique et informé. Le consentement doit être délivré de manière libre et spécifique, comme le réaffirme la CNIL dans l’article 6 de la norme simplifiée NS-48.
Cet amendement vise également à renforcer l’information donnée aux consommateurs, en reprenant cette norme simplifiée. Pour cela, l’accent doit notamment être mis sur l’utilisation que le site internet fera des données personnelles, plus particulièrement lorsque le site a pour ambition de vendre les données récoltées. Il s’agit de mettre en place une information claire, compréhensible et visible pour l’utilisateur, grâce à laquelle il aura connaissance de la finalité du traitement. Par conséquent, ce message informatif devra être communiqué autrement que par des conditions générales ou un règlement.
Nous savons que le Gouvernement procédera, par ordonnance, à la mise en conformité de la législation relative à la protection des données personnelles, mais nous pensons que le consentement au traitement des données nécessite une attention particulière. Le sujet est suffisamment important pour qu’un dispositif de protection soit introduit dans le présent projet de loi.
Enfin, bien que le Conseil d’État considère que l’utilisateur d’un service ne peut se prévaloir d’un droit de propriété sur les données personnelles transférées via un site internet, nous estimons que celui-ci doit être pleinement informé de ce à quoi il consent s’agissant de la finalité du traitement de ses données.
Mme la présidente
Les amendements nos 91 et 92 peuvent faire l’objet d’une présentation groupée.
La parole est à M. Bruno Bonnell, pour les soutenir.
M. Bruno Bonnell
L’auteure de ces deux amendements est Mme Brocard.
Chers collègues, savez-vous combien de fois, chaque jour, vos données personnelles, votre géolocalisation, votre adresse IP, vos goûts, vos opinions, votre situation familiale sont traités, malaxés, enrichis, extraits, pour vous délivrer une publicité, vous cibler ou vous envoyer un courriel ? C’est fait en toute légalité, car, vous ne le savez pas, mais vous avez donné votre consentement. Avez-vous compté le nombre de messages non désirés, de spams, qui envahissent votre boîte de réception ? Vous ne le savez pas, mais vous avez donné votre consentement.
En effet, pour obtenir discrètement votre consentement, les opérateurs usent d’artifices toujours plus élaborés. On vous demande de cliquer sur de gros boutons – « valider », « je m’inscris », « j’achète » –, suivis de petites lignes illisibles et alambiquées indiquant : « en m’inscrivant, j’accepte… ». Beaucoup plus bas, sur la même page, figure une phrase encore plus illisible, qui vous propose de refuser le traitement de vos données. Mais vous ne la voyez jamais, puisqu’elle a disparu quand vous avez cliqué sur le gros bouton.
Par cet amendement, nous proposons que l’action permettant de recueillir le consentement volontaire prévue par le RGPD n’ait aucune autre finalité. Ce consentement ne doit pas être dilué dans d’autres considérations. Il doit être possible de lire le formulaire jusqu’au bout avant de passer à une autre page. Le consentement ne doit pas être extorqué par un artifice.
Au titre du RGPD, le consentement est donné par un acte positif clair. Nous souhaitons que celui-ci ne génère aucune autre action, et qu’une case cochée puisse être décochée avant de passer à autre chose.
J’en viens à l’amendement no 92. Le RGPD définit ainsi les bases d’obtention du consentement : « toute manifestation de volonté libre spécifique, éclairée et univoque par laquelle la personne concernée accepte, par une déclaration ou par un acte positif clair, que des données à caractère personnel la concernant fassent l’objet d’un traitement ». En 2004, la loi pour la confiance dans l’économie numérique donnait déjà une définition similaire : on entend par consentement « toute manifestation de volonté libre, spécifique et informée ».
Ces formulations ne sont que des bases de travail, tant pour les opérateurs que pour la CNIL. Il me semble nécessaire de préciser ce qu’il est possible de faire et ce qu’il convient de ne pas faire pour être en accord avec ces principes, afin de protéger non seulement les personnes concernées, puisque les opérateurs, comme c’est le cas depuis la loi pour la confiance dans l’économie numérique, n’ont de cesse de trouver des artifices pour contourner ces principes et obtenir les consentements, mais également les opérateurs eux-mêmes, qui ont besoin d’avoir la certitude que leur méthode de recueil de consentements ne sera pas sanctionnée, le RGPD les obligeant à conserver des traces de cette méthode pour un contrôle éventuel.
Nous proposons donc que la CNIL, en s’appuyant sur son travail au sein du G29 ainsi que sur l’observation des plaintes et sur l’expérience de ses nouveaux pouvoirs de contrôle et de sanction, établisse une norme qui définisse clairement les principes d’obtention du consentement, et que cette norme soit révisée afin de tenir compte de la jurisprudence, des nouvelles pratiques et des nouvelles technologies.
Mme la présidente
La parole est à Mme la rapporteure, pour soutenir l’amendement no 184 de la commission et donner l’avis de la commission sur les autres amendements en discussion commune.
Mme Paula Forteza, rapporteure
Cet amendement propose d’inscrire dans la loi de 1978 un renvoi à la définition du consentement figurant dans le RGPD. Le consentement est la préoccupation de tous, parce qu’il est la clé de voûte du texte. Tant que l’ordonnance n’est pas prise, il convient, pour tous les acteurs, de se référer à la loi de 1978. De manière exceptionnelle, nous nous sommes donc permis, du fait que nous n’avons pas pu nous pencher sur tous les grands dispositifs du texte, d’inscrire ce renvoi en attendant l’ordonnance qui sera prise par le Gouvernement.
En conséquence, avis défavorable à tous les autres amendements en discussion commune.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
Le Gouvernement émet un avis favorable à l’amendement no 184. En effet, par rapport à la directive de 1995, le RGPD apporte des éclaircissements et des précisions sur les exigences relatives à l’obtention et à la démonstration de l’existence d’un consentement valide, notion que nous avons déjà abordée en commission. L’article 4 du RGPD définit le consentement comme « toute manifestation de volonté, libre, spécifique, éclairée et univoque par laquelle la personne concernée accepte, par une déclaration ou par un acte positif clair, que des données à caractère personnel la concernant fassent l’objet d’un traitement ».
Ce consentement, au sein du règlement, est du reste une des six bases légales pour considérer qu’un traitement est licite. Il constitue une des clés de voûte de la protection des données à caractère personnel. La notion de consentement est également précisée à l’article 7 du RGPD, qui porte sur les conditions applicables au consentement, ainsi que dans plusieurs considérants, notamment les considérants 32 et 33.
Comme vous le savez, le droit des États membres ne peut pas se borner – je l’ai déjà souligné – à recopier les dispositions directement applicables issues des règlements de l’Union. Toutefois, afin de répondre à une attente légitime de clarification exprimée par plusieurs d’entre vous, il est possible que la loi renvoie à la définition de l’article 4 et aux conditions de l’article 7 applicables au consentement. Je suis donc favorable à l’amendement de la rapporteure ; c’est d’ailleurs ainsi que le Gouvernement procédera dans le cadre de l’ordonnance pour rappeler des droits contenus dans le règlement.
En conséquence, j’émets un avis défavorable aux autres amendements en discussion commune.
M. Erwan Balanant
Quelle tristesse !
Mme la présidente
La parole est à M. Bruno Bonnell.
M. Bruno Bonnell
N’étant pas un expert en ordonnances, je n’irai pas sur ce terrain. L’objectif de ces amendements est de bon sens. Pour avoir été moi-même spécialiste de ce domaine et pour savoir écrire en code HTML, je peux vous assurer qu’on peut, avec la meilleure bonne foi du monde, essayer de garantir la logique d’un consentement, l’apparition ou la disparition d’un bouton étant programmable de manière aléatoire. Il conviendra donc de trouver et d’inscrire dans la loi des systèmes de vérification technologiques permettant d’informer la personne.
Les abus sont nombreux en la matière : il ne faudrait pas qu’on nous reproche plus tard de nous être contentés d’une directive technique sans être entrés dans la technologie elle-même. Mes chers collègues, avant de voter, demandez-vous si nous protégeons efficacement des concitoyens qui ne sont pas nécessairement informés en les renvoyant à une loi qui est très éloignée de leur quotidien.
Mme la présidente
La parole est à Mme la rapporteure.
Mme Paula Forteza, rapporteure
La CNIL apportera des précisions sur l’application technique de la définition du consentement via des codes de bonne pratique, des référentiels et des outils de droit souple. En revanche, du fait que la technologie évolue rapidement, la loi doit rester technologiquement neutre, ce qui permet de donner plus de flexibilité aux acteurs et à l’autorité de régulation.
(Les amendements nos 86, 91 et 92, successivement mis aux voix, ne sont pas adoptés.)
(L’amendement no 184 est adopté.)
Article 14 A
Mme la présidente
Plusieurs orateurs sont inscrits sur l’article 14 A.
La parole est à M. Rémy Rebeyrotte.
M. Rémy Rebeyrotte
Le Gouvernement n’ayant pas souhaité utiliser la marge de manœuvre laissée par le règlement, le projet de loi ne comportait aucune disposition spécifique relative au consentement des mineurs, et c’est donc l’âge de seize ans, figurant dans le texte initial, qui devait s’appliquer.
Il faut remarquer que l’âge du consentement ne fait pas l’objet d’un consensus européen, puisqu’il existe différentes situations : l’Irlande, la République tchèque et le Royaume-Uni s’orienteraient vers l’âge de treize ans, l’Espagne vers celui de quatorze ans, la Croatie et la Grèce vers celui de quinze ans, l’Allemagne et le Luxembourg ayant maintenu l’âge initial de seize ans.
Je tiens à remercier le Gouvernement de ce que cette question ait été l’occasion d’un véritable débat de fond, mené, lors des auditions, entre l’ensemble des acteurs et la commission, en vue de fixer l’âge du consentement en France. Les acteurs que nous avons rencontrés, qu’il s’agisse des associations de défense de l’enfance ou des opérateurs du secteur, se sont progressivement rapprochés de notre proposition de fixer l’âge du consentement à quinze ans, car celui-ci a l’avantage de se situer à équidistance de douze et de dix-huit ans.
M. Bertrand Bouyx
Ce n’est pas un argument.
M. Rémy Rebeyrotte
En effet, douze ans est l’âge minimum d’accès. Quant à se rapprocher trop près de dix-huit ans, aux yeux des opérateurs, cela nous faisait entrer dans une autre logique. L’âge de quinze ans s’est également imposé parce que c’est celui de l’entrée au lycée. C’est un âge de maturité, qui permet le libre consentement, étant entendu que les mineurs qui n’ont pas quinze ans seront obligés d’obtenir le consentement de leurs parents pour accéder aux réseaux. Telle est la proposition sur laquelle nous avons travaillé et qui sera soumise à votre vote. (Applaudissements sur quelques bancs du groupe REM.)
Mme la présidente
La parole est à M. Jean Terlier.
M. Jean Terlier
C’est à travers l’article 14 A du texte que l’État français peut exercer sa marge de manœuvre pour l’application de l’article 8 du règlement européen, en fixant l’âge seuil à partir duquel un mineur pourra se dispenser du consentement de ses parents pour consentir au traitement des données le concernant. Il s’agit donc d’apprécier l’âge à partir duquel un mineur est suffisamment mature pour décider sans ses parents.
Si nous considérons qu’en France le seuil du consentement en matière de maturité sexuelle est fixé à quinze ans et que ce seuil est également celui qui donne droit à un mineur de s’opposer à l’accès de ses parents à ses données de santé, il est alors vraisemblable que l’âge de quinze ans soit plus encore celui auquel le mineur n’est plus un enfant, mais est devenu un jeune adulte susceptible de maîtriser plusieurs langages et particulièrement celui du numérique, puisque la loi lui reconnaît déjà cette maîtrise pour certains d’entre eux, et non des moindres.
Ce seuil n’a donc pas été arrêté par hasard. Il relève d’abord de la constatation qu’il n’existe, au niveau européen, ni de recommandation particulière, comme cela a déjà été souligné, ni de consensus entre les États membres, certains, comme l’Irlande ou le Royaume-Uni, ayant fixé ce seuil à treize ans, d’autres, comme l’Allemagne, à seize ans. Il est parfaitement envisageable et logique que le jeune adulte de quinze ans ait droit au respect d’une intimité naissante et d’une vie privée, laquelle suppose bien sûr de ne plus avoir à recourir systématiquement au double consentement qui préexistera toujours pour les mineurs de moins de quinze ans.
La position de la commission est donc parfaitement cohérente.
Mme la présidente
La parole est à M. Arnaud Viala.
M. Arnaud Viala
Il aurait été dommageable que l’âge légal du consentement des mineurs ne figure pas explicitement dans ce texte. Au-delà des arguments qui ont été développés par les deux précédents orateurs et auxquels je souscris, il convient de se fier également au principe de réalité. Les jeunes, dans un pays comme le nôtre, sont surexposés très tôt au numérique. Je parle en tant que parent d’adolescents et de préadolescents qui donnent du fil à retordre lorsqu’il s’agit de réguler leur accès au numérique. Différer trop longtemps leur responsabilisation devant les informations qu’ils mettent en ligne serait une erreur, voire une mesure contre-productive.
De plus, l’âge de quinze ans est celui d’autres consentements légaux et il correspond aussi à l’entrée au lycée. Cette position médiane étant logique, nous la soutiendrons via un amendement déposé par notre groupe.
Mme la présidente
La parole est à M. Raphaël Schellenberger.
M. Raphaël Schellenberger
Nous devons nous montrer cohérents et prendre en compte la situation de la jeunesse dans la société d’aujourd’hui. La réalité, qu’il nous est impossible de combattre, est que beaucoup de jeunes de quinze ans maîtrisent mieux les outils informatiques que leurs parents.
Nous devrons, en revanche, nous donner les moyens d’une vraie politique éducative et de sensibilisation des jeunes aux risques qu’ils encourent à livrer leurs données personnelles à des opérateurs publics ou privés.
Si tous les jeunes de quinze ans n’entrent pas au lycée, la sortie du collège permet de franchir un cap symbolique, qui se traduit par une rupture éducative et l’acquisition progressive de responsabilités sociales et sociétales. C’est un âge cohérent et responsable.
Mme la présidente
Je suis saisie d’un amendement, no 35, de suppression de l’article 14 A.
La parole est à Mme Emmanuelle Ménard, pour le soutenir.
Mme Emmanuelle Ménard
L’article 14 A doit être supprimé car il me semble dangereux pour nos enfants. Que ceux-ci maîtrisent mieux les outils informatiques que leurs parents, cela me semble certain : aucun doute n’est possible ! En revanche, maîtrisent-ils les risques ? Or, avec cet article, vous faites des mineurs de quinze à dix-huit ans les cibles privilégiées des GAFA, à savoir Google, Apple, Facebook et Amazon.
J’ignore si tous les députés présents dans cet hémicycle ont des enfants adolescents. Il se trouve que j’en ai à la maison : ils sont complètement inconscients des risques liés à la transmission de toutes leurs données personnelles via internet. (Exclamations sur les bancs du groupe FI.)
L’Europe, qui joue les gros bras face aux géants des big data, nous demande aujourd’hui de permettre aux adolescents français de livrer leurs informations personnelles sans en avertir leurs parents, ce qui me semble dommageable. S’il est vrai que bon nombre de jeunes s’inscrivent aujourd’hui sur les réseaux sociaux sans en demander la permission ou sans en avertir leurs parents, il est important de rappeler un vieux proverbe latin auquel cette assemblée devrait se référer plus souvent : le fait ne constitue pas de lui-même un droit.
Ne nous voilons pas la face. Nous devons rester extrêmement vigilants face à ce danger. Un certain nombre d’adolescents de quinze ans ou plus sont peut-être conscients des risques, mais à mon avis, la majorité d’entre eux ne le sont pas.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
Un consensus a déjà émergé en commission pour fixer à quinze ans l’âge de cette fameuse majorité numérique – c’est encore le cas ce soir en séance publique. Je me bornerai donc à exprimer mon soutien aux arguments précédemment exposés par mes collègues et à donner un avis défavorable à cet amendement.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
Madame Ménard, je ne reprendrai pas ici, devant vous, l’échange que nous avons déjà eu en commission. J’avais expliqué pourquoi le Gouvernement n’avait pas souhaité utiliser la marge de manœuvre : en réalité, dans le cadre des négociations européennes, nous avions défendu le seuil de seize ans. Je ne répéterai pas ma démonstration, si ce n’est pour redire devant vous que nous souhaitons tous défendre non seulement l’intérêt de l’enfant, mais aussi, peut-être, la responsabilisation des parents et le dialogue au sein des familles.
J’avais également dit en commission que je me remettais à la sagesse des parlementaires pour dialoguer sur ce sujet et trouver la solution qui leur semblerait la meilleure. Je crois qu’un accord a été trouvé autour d’une proposition à quinze ans. Par conséquent, fidèle à ma position, je m’en tiens à la disposition adoptée en commission et je ne peux que donner un avis défavorable à cet amendement de suppression.
Mme la présidente
La parole est à M. Rémy Rebeyrotte.
M. Rémy Rebeyrotte
Madame Ménard, je tiens à vous préciser que les GAFA, qui ont aussi été auditionnés, ne proposaient pas de fixer l’âge de la majorité numérique à quinze ans.
En outre, nous souhaitons renforcer véritablement l’information et la formation des mineurs ; dans ce cadre, la CNIL, l’éducation nationale, bien sûr, mais aussi les opérateurs eux-mêmes joueront un rôle important, sur lequel nous reviendrons dans quelques instants. Encore fallait-il fixer une règle pour que chacun connaisse les limites et l’âge à partir duquel nous pourrons nous en remettre à la maturité des adolescents. Nous avons donc fixé cet âge à quinze ans. Nous avions également pensé à trente-cinq ans, madame Ménard, mais on nous a dit que c’était quand même un peu excessif ! (Sourires.)
M. Raphaël Schellenberger
Certains députés n’auraient pas la majorité numérique !
(L’amendement no 35 n’est pas adopté.)
Mme la présidente
Je suis saisie de trois amendements, nos 69, 21 et 10, pouvant être soumis à une discussion commune.
La parole est à Mme Danièle Obono, pour soutenir l’amendement no 69.
Mme Danièle Obono
Dans la lignée des recommandations de la Commission nationale consultative des droits de l’homme, cet amendement vise à ramener l’âge de la majorité numérique de quinze ans à treize ans. Il part du constat, d’ailleurs étayé par de nombreuses études, que les jeunes sont actifs sur internet à partir de treize ans : le fait de fixer la majorité numérique à quinze ou seize ans ne correspond donc pas à la réalité. Une majorité numérique fixée à treize ans, assortie d’un certain nombre de protections, se justifierait par le fait que c’est à partir de cet âge que les jeunes s’impliquent de plus en plus sur les réseaux sociaux. Comme cela a été dit, d’autres pays ont déjà fixé la majorité numérique à treize ans en partant du même constat.
Par ailleurs, il convient de confier à la CNIL une mission d’information du public – nous en avons déjà discuté lors de l’examen d’autres amendements. Les responsables du traitement des données doivent se voir imposer l’obligation ferme d’informer le mineur concerné par une explication adaptée et d’utiliser à cet effet le support adéquat ; cette obligation doit être doublée de sanctions importantes qui constitueront des garde-fous et garantiront aux mineurs de treize ans un accès encadré et protégé à internet.
Ainsi, cet amendement pragmatique tient compte du fait que les adolescents et même les préadolescents accèdent très tôt à internet ; il tire toutes les conséquences de ce constat pour déterminer l’âge de la majorité numérique.
Mme la présidente
La parole est à Mme Christine Hennion, pour soutenir l’amendement no 21.
Mme Christine Hennion
J’aimerais commencer mon intervention par un petit clin d’œil. Cela fait de nombreuses années que l’Europe se préoccupe de l’éducation de nos jeunes à internet. Ainsi, il y a quelques années, la Commission européenne a créé le programme « Safer Internet », en français « Internet sans crainte », et institué le « Safer Internet day » – en 2018, cette journée tombait hier, alors même que nous entamions nos débats sur ce texte si important.
Pour ma part, je préconise également de fixer la majorité numérique à treize ans. J’ai déjà expliqué hier, lors de la présentation du projet de loi, les raisons de mon choix. Aujourd’hui, en effet, 75 % des enfants de onze à quatorze ans ont déjà accès à internet via un téléphone mobile : l’âge auquel cette question se pose correspond donc davantage à l’entrée en classe de sixième qu’à l’entrée au lycée. À partir du moment où les enfants sont en possession de leur téléphone mobile, il est très difficile, voire quasiment impossible de contrôler les réseaux sur lesquels ils s’inscrivent. Toutes les entreprises que nous avons auditionnées reconnaissent qu’il leur est impossible de vérifier l’âge effectif des personnes inscrites sur ces réseaux, sauf à mettre en œuvre des mesures de profilage ou à procéder à des vérifications d’identité qui seraient tout à fait contraires au règlement. Par conséquent, il sera quasi impossible de vérifier l’âge des enfants utilisant internet entre treize et seize ans.
Puisque j’ai étudié ce texte sous l’angle européen, j’ai essayé de comprendre comment cela se passait dans les autres pays.
Mme la présidente
Merci, madame la députée.
Mme Christine Hennion
J’aimerais aller jusqu’au bout de mon explication, madame la présidente. Je crois qu’il s’agit d’une question importante !
Mme la présidente
Vous vous exprimez déjà depuis deux minutes et vingt-cinq secondes.
M. Erwan Balanant
Madame la présidente, il faudrait afficher le chronomètre sur nos écrans !
Mme Christine Hennion
Laissez-moi terminer, s’il vous plaît, madame la présidente.
Mme la présidente
Encore une phrase, madame Hennion.
Mme Christine Hennion
Selon les études européennes, les enfants les plus contraints par leurs parents sont les Français et les Allemands, mais ce sont aussi ceux-là qui trichent le plus.
Mme la présidente
La parole est à M. Pierre Vatin, pour soutenir l’amendement no 10.
M. Pierre Vatin
Ma position est très différente : pour ma part, je pense surtout aux enfants qu’il convient de protéger car ils sont plus vulnérables. Pour eux, l’âge de dix-huit ans pourrait constituer un gage de sécurité. De toute façon, nous savons bien que certains enfants risquent de ne pas respecter l’interdiction, quel que soit leur âge…
Mme la présidente
Quel est l’avis de la commission sur ces trois amendements ?
Mme Paula Forteza, rapporteure
Je souhaite exprimer ma surprise au sujet de l’amendement no 69 présenté par le groupe La France insoumise, qui se veut parfois plus protecteur que le texte et parfois moins. Madame Obono, votre position manque d’homogénéité. Pour le reste, je maintiens ma position : l’âge de quinze ans résulte d’un consensus qui a émergé depuis quelques semaines. Avis défavorable.
Mme la présidente
Votre avis concerne-t-il aussi les amendements nos 21 et 10, madame la rapporteure ?
Mme Paula Forteza, rapporteure
Oui, madame la présidente : la commission est défavorable aux trois amendements.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
Même position.
Mme la présidente
La parole est à Mme Christine Hennion.
Mme Christine Hennion
Je veux répondre à l’argument tenant à la protection des jeunes. Le fait de fixer la majorité numérique à treize ans n’a pas du tout pour but d’être moins protecteur, mais de mieux regarder la réalité en face, de s’assurer que l’on prendra les bonnes mesures et que l’on commencera très tôt à éduquer les jeunes au numérique comme il se doit.
Mme la présidente
La parole est à M. Arnaud Viala.
M. Arnaud Viala
Je souhaite réagir aux derniers propos de Mme Hennion. Certes, j’ai rappelé le principe de réalité et j’ai invité nos collègues à tenir compte du fait que les jeunes sont de plus en plus amenés à utiliser les nouvelles technologies – davantage que nous – à des âges très précoces. En revanche, je ne souscris pas à l’idée de fixer l’âge de la majorité numérique à quinze ans par renoncement à notre capacité de réguler.
M. Erwan Balanant
Ça, c’est vrai !
M. Arnaud Viala
Madame Hennion, il faut tout de même que le législateur veille à ce que des organismes informent les jeunes afin que ces derniers soient suffisamment aguerris pour savoir ce qu’ils font précisément sur internet. Nous ne devons pas non plus oublier, dans les discussions que nous avons dans cet hémicycle, qu’il faut aussi sensibiliser les familles au fait qu’elles ne doivent pas baisser les bras. Elles ne doivent pas se dire que, lorsqu’un enfant atteint l’âge de quinze ans, elles peuvent ouvrir les vannes et advienne que pourra ! Au contraire, elles doivent donner suffisamment d’informations à leurs enfants pour qu’ils connaissent précisément les risques qu’ils prennent et l’utilisation qui pourra être faite des données qu’ils mettent à disposition de tout un chacun.
Je ne veux pas laisser penser que notre soutien à la proposition de fixer l’âge de la majorité numérique à quinze ans serait une position de renoncement consistant à instaurer une barrière complètement virtuelle, considérant que les jeunes fraudent en permanence, même avant cet âge, et qu’ils feront ce qu’ils voudront à treize ans, à douze ans, et probablement demain à onze ou dix ans. Méfions-nous des arguments que nous avançons !
Mme la présidente
La parole est à M. Éric Bothorel.
M. Éric Bothorel
Je souhaite revenir sur les arguments que Mme Hennion n’a pas eu le temps de développer tout à l’heure. J’ai failli déposer un amendement visant à ramener l’âge de la majorité numérique à quatorze ans, six mois, deux jours et trois heures. (Sourires.) Je ne dis pas qu’il ne s’agit pas d’un vrai sujet – je me rallierai probablement à la position autour de quinze ans –, mais ce sont des débats dont nous avons l’habitude quand il s’agit de fixer un âge. Cela dit, la question que posait Mme Hennion tout à l’heure sur notre capacité à vérifier la bonne mise en œuvre de ce que nous sommes en train de décider me paraît fondamentale, et j’aimerais savoir ce qu’en pensent Mme la rapporteure et Mme la garde des sceaux.
J’ai rencontré cet après-midi un éditeur de logiciels et d’applications qui ne stockent pas de données personnelles, qui n’utilisent pas de messagerie chiffrée, mais qui donnent accès à des systèmes d’information – nous sommes donc bien dans le périmètre du présent projet de loi – et s’adressent très massivement à des utilisateurs à partir de onze ou douze ans. La question est de savoir comment nous pouvons nous assurer qu’un utilisateur qui déclare avoir onze ans a bien onze ans et que celui qui déclare avoir seize ans a bien seize ans. Nous aurons probablement un travail à effectuer sur ce sujet ; j’aimerais donc avoir le feedback de Mme Forteza et peut-être de Mme la garde des sceaux.
M. Raphaël Schellenberger
Le feedback ? En français, s’il vous plaît !
Mme la présidente
La parole est à Mme Danièle Obono.
Mme Danièle Obono
J’aimerais éclairer Mme la rapporteure, qui nous a fait part de son incompréhension face à notre position.
Vous devriez relire attentivement notre amendement, car nous proposons justement la mise en place de protections spécifiques pour les jeunes. Dans notre amendement, il est très clair que nous demandons aux responsables du traitement des données, de manière très explicite – c’est peut-être la seule fois dans ce texte –, d’obtenir le consentement conscient, clair et explicite des internautes pour l’utilisation de leurs données.
Nous partons de la réalité telle que nous l’observons. Pour les préadolescents et les adolescents, le fait d’avoir la majorité numérique dès treize ans constituerait peut-être une forme d’apprentissage, une manière d’être plus responsables ; cela fait partie d’un processus pédagogique et, de manière générale, cela s’inscrit dans les positions que nous défendons en matière de droits et libertés, d’autonomie et d’éducation numérique. Dans un cadre déterminé par la CNIL, dont les moyens seraient renforcés, l’accès aux réseaux sociaux s’inscrirait dans un processus éducatif, pédagogique ; il favoriserait également l’autonomie des adolescents et préadolescents et leur donnerait les moyens de s’émanciper en utilisant internet.
Je pense donc qu’il s’agit d’une incompréhension dommageable de votre part, car ce sont, au contraire, des protections qui permettent l’émancipation numérique des plus jeunes et c’est la raison pour laquelle nous souhaitons que cela intervienne très tôt : à partir de l’âge de treize ans. On peut certes penser que cet âge est arbitraire – pourquoi pas treize ans et deux mois ou treize ans et trois mois ? –, mais il se trouve que c’est le point d’équilibre qui semble se dégager des études réalisées sur la présence des jeunes sur internet. C’est donc la réalité sur laquelle nous nous fondons pour donner les moyens à tous et à toutes d’être libres et protégés sur internet.
Mme la présidente
Mes chers collègues, je vous rappelle que nous devrons lever la séance à minuit. Je vous invite donc à limiter vos prises de parole à un orateur par groupe.
La parole est à M. Philippe Gosselin.
M. Philippe Gosselin
Rassurez-vous, madame la présidente : la question que nous abordons est sans doute l’un des points du débat qui focalisera le plus l’attention. Le reste du texte, comme ce qui précédait, est certes important, mais ce sujet est particulièrement sensible, comme nous l’avons vu en commission.
Comme nous le disions du reste hier dans la discussion générale, quel que soit le résultat de notre vote de ce soir – qui, sans que je veuille en présumer, pourrait bien être le maintien de l’âge de quinze ans –, le débat ne sera de toute façon pas clos, non seulement parce qu’il se poursuivra au Sénat, mais aussi parce que la question de l’âge du consentement traverse la société : si elle vaut pour le numérique, elle est également liée à l’évolution du statut des adolescents et des jeunes et à celui de la citoyenneté.
Instaurer un seuil est, nécessairement, toujours un peu arbitraire. Pourquoi, en effet, le fixer à quinze ans plutôt qu’à quatorze ou à dix-huit ? Choisir l’âge de dix-huit ans serait facile, car c’est celui de la majorité. À seize ans, on dispose, comme cela a été dit, de capacités contractuelles et bancaires. À treize, d’autres éléments entrent en ligne de compte. Il me semble toutefois que nous sommes parvenus, avec un seuil fixé à quinze ans, à un point d’équilibre, même si ce n’est pas tout à fait parfait. Cet âge renvoie en effet aussi à la « majorité sexuelle » – terme qui, je le sais, fait l’objet de différentes appréciations. La question fait aussi référence à d’autres textes que nous aurons l’occasion, madame la garde des sceaux, d’examiner d’ici à quelques semaines dans le cadre d’autres débats. Nous anticipons donc sur certains de ces débats et sur les âges qui pourraient être fixés alors.
Au-delà de l’âge que nous fixerons ce soir, ce qui importe est que le débat reste ouvert et, en quelque sorte, que l’alerte soit donnée quant aux besoins des utilisateurs en termes de protection et d’éducation. La CNIL a certes, et nous en convenons tous, un rôle important à jouer en la matière, mais cette mission d’éducation et d’intérêt général et collectif dépasse largement ses compétences et ses pouvoirs. Ce sont l’éducation nationale, les parents et les familles – en un mot : la société – qui doivent éduquer aux bonheurs – bien sûr – du numérique, mais aussi à ses risques. Là encore, les réseaux, le numérique et toute l’économie digitale sont à la fois la pire et la meilleure des choses : à nous de les apprivoiser dans le meilleur des mondes possibles.
Mme la présidente
La parole est à M. Rémy Rebeyrotte.
M. Rémy Rebeyrotte
Comme M. Gosselin, je considère que la CNIL aura un rôle particulier à jouer. Nous avons du reste renforcé l’article 1er pour bien insister sur l’importance du travail à accomplir à destination des mineurs. Nous souhaitons également que, pour ce qui est du consentement commun du jeune et des parents, on explicite vraiment les choses, ce qui n’est pas toujours le cas aujourd’hui pour l’ensemble des opérateurs. Un travail important est donc à mener avec les opérateurs, l’éducation nationale et, globalement, tout ce qui concerne la socialisation primaire et secondaire sur ces questions, et bien sûr avec la CNIL, dont le rôle particulier consistera à veiller au respect des règles qu’elle fixe, notamment pour ce qui est des mineurs et du consentement parental.
(Les amendements nos 69, 21 et 10, successivement mis aux voix, ne sont pas adoptés.)
Mme la présidente
Je suis saisie d’un amendement no 103 qui fait l’objet d’un sous-amendement no 182.
La parole est à Mme Paula Forteza, rapporteure, pour soutenir l’amendement.
Mme Paula Forteza, rapporteure
Il s’agit d’un amendement de clarification rédactionnelle, tendant à bien établir un double consentement des parents et des enfants avant l’âge de quinze ans, dans un souci de co-apprentissage des usages numériques et de responsabilisation croissante des mineurs.
Mme la présidente
La parole est à M. Erwan Balanant, pour soutenir le sous-amendement no 182.
M. Erwan Balanant
Ce sous-amendement tend à apporter une clarification à la clarification en substituant aux mots : « titulaire » les mots : « ou les titulaires ». Je rappelle en effet qu’un enfant peut avoir un papa et une maman, deux mamans ou deux papas.
M. Éric Diard
Ou quatre !
Mme la présidente
Quel est l’avis de la commission sur le sous-amendement ?
Mme Paula Forteza, rapporteure
Cette précision est bienvenue. Avis favorable.
Mme la présidente
Quel est l’avis du Gouvernement sur le sous-amendement et sur l’amendement ?
Mme Nicole Belloubet, garde des sceaux
Favorable.
(Le sous-amendement no 182
(L’amendement no 103, sous-amendé, est adopté et l’amendement no 9 tombe.)
M. Philippe Gosselin
Juridiquement, ça ne tient pas la route !
M. Laurent Furst
En effet !
Mme la présidente
La parole est à Mme Paula Forteza, rapporteure, pour soutenir l’amendement no 12.
Mme Paula Forteza, rapporteure
Il est rédactionnel.
(L’amendement no 12, accepté par le Gouvernement, est adopté.)
(L’article 14 A, amendé, est adopté.)
Après l’article 14 A
Mme la présidente
La parole est à Mme Marietta Karamanli, pour soutenir l’amendement no 19, portant article additionnel après l’article 14 A.
Sur cet amendement, je suis saisie par le groupe Nouvelle Gauche d’une demande de scrutin public.
Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.
Mme Marietta Karamanli
Cet amendement, que nous avons déjà évoqué en commission des lois, est important et je tiens à saluer la discussion que nous avons eue avec Mme la rapporteure et Mme la ministre sur ce texte très important, sur lequel nous avons beaucoup avancé dans le cadre des négociations au niveau européen.
L’amendement concerne l’utilisation des algorithmes. C’est un point sur lequel je tiens à insister car, si un peu plus de 80 % des Français ont déjà entendu ce terme, à peine un peu plus de la moitié d’entre eux savent ce dont il s’agit.
Selon un scientifique interrogé récemment dans la presse dans une perspective de vulgarisation, un algorithme est une séquence d’instructions utilisée pour résoudre un problème. L’arrivée et le développement des machines ont néanmoins changé la donne, comme cela a été rappelé ici à plusieurs reprises, car – et cela a un impact important – ces algorithmes décident au quotidien des informations qui nous parviennent et fondent des décisions prises par des tiers en fonction d’éléments et de combinaisons dont la plupart d’entre nous n’ont pas même conscience ni connaissance. Ce phénomène suscite des inquiétudes légitimes, car l’utilisation et la manipulation des algorithmes peuvent également avoir des répercussions sur la liberté de choix, voire sur l’égalité des personnes.
Cet amendement vise donc à faire connaître systématiquement cette utilisation dans le cadre d’une administration que nous voulons plus transparente et d’orientations que nous voulons plus équilibrées. Il répond au souci exprimé non seulement depuis hier, tout au long de ce débat, par la rapporteure et l’ensemble de l’hémicycle, mais également lors de la discussion du texte relatif à une société de confiance, où nous exprimions notre volonté de disposer d’une administration transparente et responsable, qui informe le citoyen. Nous serions donc ravis de pouvoir compter sur la mobilisation de tous autour de ce simple amendement qui exprime un principe fondamental qui doit figurer dans la loi.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
Je m’attarderai un peu sur ce sujet, qui m’intéresse tout particulièrement, pour rappeler le droit en vigueur dans ce domaine, instauré par la loi Lemaire.
Les administrations sont tout d’abord soumises à une obligation générale de publier en ligne des règles définissant les principaux traitements algorithmiques utilisés dans l’accomplissement de leurs missions lorsqu’ils fondent des décisions individuelles : c’est donc un premier niveau d’information a priori.
Il existe par ailleurs un droit d’information au niveau individuel : lorsque la décision est transmise, la personne concernée reçoit l’information sur la finalité poursuivie par cet algorithme et a le droit d’obtenir en outre une communication sur les règles et leur application dans son cas particulier, ainsi que sur les modalités d’exercice de son droit à la communication et à la saisine.
Lorsque la personne demande plus d’informations, ces informations, précisées au niveau réglementaire, sont au nombre de quatre : le degré et le mode de contribution du traitement algorithmique à la prise de décision, les données traitées et leurs sources, les paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé et, quatrièmement, les opérations effectuées par le traitement. De nombreuses informations sont donc déjà mises à disposition des usagers.
Par ailleurs, la loi Lemaire avait également fait du code source un document administratif, ce qui permet de l’inscrire dans la logique du droit relevant de la Commission d’accès aux documents administratifs – CADA. L’accès au code source de ces algorithmes permet de les rejouer et de les tester à nouveau dans un cas particulier afin de disposer d’une sorte d’audit réalisé par une personne neutre. Le droit existant me semble donc assez complet en la matière.
Je voudrais cependant demander au Gouvernement quelques précisions. En effet, si les informations fournies à la personne qui formule une demande pour son cas particulier font l’objet de détails très précis, nous ne savons pas encore sous quelle forme s’exprimera cette obligation générale de communication. Je souhaiterais donc savoir si le Gouvernement peut nous communiquer des détails en la matière, à propos par exemple des décrets d’application de la loi Lemaire ou des éléments relevant du niveau réglementaire, ce qui pourrait peut-être répondre aux préoccupations de Mme Karamanli.
Nous proposerons en outre d’autres amendements en ce sens, qui seront discutés par ailleurs.
Avis défavorable, donc, mais j’attends une réponse de M. le secrétaire d’État.
M. Philippe Gosselin
Je passe la patate chaude !
Mme la présidente
La parole est à M. le secrétaire d’État chargé du numérique, pour donner l’avis du Gouvernement.
M. Mounir Mahjoubi, secrétaire d’État chargé du numérique
Madame la présidente, madame la rapporteure, mesdames et messieurs les députés, je souhaite répondre à cette question, car il se trouve que les administrations placées sous mon autorité sont chargées de la mise en œuvre de ce dispositif et qu’il s’agit là d’un sujet sur lequel je me suis beaucoup engagé au cours des dernières années. Il me semble donc important de rappeler quelques engagements du Gouvernement.
Pour ce qui est d’abord de la maîtrise et de la transparence, que vous avez évoquées, nous partageons les mêmes objectifs. Le droit existant y répond du reste en partie, et cet article permettra d’aller encore plus loin.
Soyons précis. Madame la rapporteure, votre analyse a été très complète : vous avez rappelé les éléments existants, soulignant que le droit actuel satisfaisait déjà largement les demandes formulées. Je rappellerai néanmoins dans le détail, sur le plan opérationnel, comment les choses se passeront et comment elles se passent aujourd’hui, afin d’apporter à vos questions, sinon toutes les réponses, au moins quelques-unes.
L’article L. 312-1-3 du code des relations entre le public et l’administration, qui met à disposition en open data, comme vous l’avez rappelé, les règles des algorithmes, doit entrer en vigueur à partir d’octobre 2018 : il s’agit d’un article jeune, récent, auquel les administrations ont dû s’adapter et se préparer. Les services de la direction interministérielle du numérique et du système d’information et de communication de l’État – DINSIC –
Vous avez également rappelé que, pour les algorithmes qui ont des conséquences sociales, sanitaires ou économiques, les articles L. 300-2 et L. 312-1-2 prévoient une redevabilité complète de l’intégralité du code source, qui sera fourni afin que l’on puisse l’analyser en détail, voire rejouer des scénarios individuels, et vérifier que la procédure s’est déroulée correctement. Cela ne concernera cependant que des utilisateurs très avertis – dont vous faites et dont j’ai fait partie –, qui sont aussi ceux qui permettent d’éclairer le monde en disant qu’ils ont pu tester et pousser jusqu’au bout l’analyse de cette transparence.
Vous avez enfin rappelé quelles seront les informations qui seront systématiquement données au public. N’oublions pas qu’à partir de l’entrée en vigueur de ces dispositions, toutes les décisions algorithmiques signaleront que la décision comportait une composante algorithmique : vous saurez donc que le document que vous recevez aura fait l’objet d’un traitement algorithmique, et les droits qui y sont associés seront rappelés. Une information systématiquement fournie avec le document signalant un traitement par algorithme vous indiquera à chaque fois, sous la forme d’une mention bien visible dans la décision, les droits de communication dont vous disposez.
Vous avez rappelé, ensuite, quelles informations l’usager a le droit d’obtenir sur demande : il s’agit d’informations personnelles, délivrées sur demande, individualisées et détaillées. Elles doivent comprendre l’intégralité des données ayant servi à faire fonctionner l’algorithme. Toutes ces caractéristiques font l’intérêt du dispositif, mais en font aussi la limite : aujourd’hui, la seule façon de répondre à ces demandes individuelles, c’est de recourir à un traitement humain.
C’est pour cette raison d’organisation que l’on ne peut, comme vous le proposez, généraliser la transmission des données utilisées dans ces décisions administratives. Mais vous verrez qu’à l’usage, toutes les personnes concernées par des décisions impliquant un traitement automatique de données pourront demander ces informations – je fais tout à fait confiance à la société civile, aux utilisateurs avancés, à cet égard. Pour toutes ces raisons, il ne nous paraît pas nécessaire d’intervenir par décret : l’article de loi apportera lui-même les informations suffisantes.
Vous avez enfin demandé, de façon plus opérationnelle, quel serait le contenu de ces informations. Avant de vous répondre, je tiens à vous dire que nous travaillons sur ce décret, sur ces questions. Pour déterminer les informations qui seront transmises, il faut se demander lesquelles seront compréhensibles et utilisables par les usagers.
Nous travaillons actuellement à tirer toutes les conséquences de ces principes. Nous pourrons, lors de l’examen de ce texte en deuxième lecture, apporter plus de précisions, mais je rappelle encore une fois les deux enjeux : la transparence et la maîtrise. Les algorithmes ne font pas ce qu’ils veulent, mais ce qu’on leur dit de faire. L’État et le Gouvernement prennent leurs responsabilités sur ce sujet. Nous analyserons plus en détail, à l’occasion de l’examen d’un deuxième amendement, les dispositifs qui permettront de maintenir à la fois cette maîtrise et cette expertise au sujet des traitements algorithmiques.
Mme la présidente
La parole est à Mme Marietta Karamanli.
Mme Marietta Karamanli
Je vous remercie, madame la rapporteure, pour votre volonté de compléter le dispositif. Je vous remercie aussi, monsieur le secrétaire d’État, pour les éléments que vous avez évoqués. Cependant, un élément vous a manqué pour être vraiment complet : c’est que la majeure partie des personnes concernées par de telles décisions ne demandent pas ces informations, parce qu’elles ne connaissent pas ou comprennent mal les algorithmes.
Ce que nous proposons par cet amendement, finalement, c’est donc de faire œuvre de pédagogie : il est logique que les personnes à l’encontre desquelles une décision automatisée est prise aient systématiquement accès aux éléments de l’algorithme sur lequel cette décision se fonde afin de mieux la comprendre.
Vous avez dit, monsieur le secrétaire d’État, que nous reviendrions sur cette question en deuxième lecture. Mais rien ne nous empêche d’adopter cet amendement dès aujourd’hui ! Je m’adresse à tous les députés : les amendements que mes collègues du groupe Nouvelle Gauche et moi-même avons défendus sont plutôt raisonnables et réfléchis. Faisons un geste, adoptons cet amendement ; nous y reviendrons plus tard, au besoin, au cours des discussions dans notre assemblée.
Mme la présidente
La parole est à M. François Ruffin.
M. François Ruffin
Je ne sais pas si c’est un service que je rends à Mme Karamanli, mais je tiens à lui apporter tout mon soutien. Nous avons nous aussi déposé des amendements allant dans ce sens, afin d’être plus attentifs à ce qui se passe au niveau des algorithmes, en rendant publiques au maximum les informations qui fondent la décision. Nous appuyons donc cet amendement de Mme Karamanli.
Mme la présidente
Je mets aux voix l’amendement no 19.
(Il est procédé au scrutin.)
(L’amendement no 19 n’est pas adopté.)
Article 14
Mme la présidente
La parole est à Mme Emmanuelle Ménard.
Mme Emmanuelle Ménard
L’intelligence artificielle s’invite depuis quelques mois dans les débats, et pour cause : elle est révolutionnaire, car elle est aujourd’hui capable de simuler des décisions de justice. C’est ce qui s’appelle la justice prédictive. Pour y parvenir, des algorithmes permettent d’analyser une très importante quantité de données, qui sont croisées pour apporter des réponses juridiques. L’objectif affiché est simple : désengorger les tribunaux et soulager les magistrats débordés par un nombre d’affaires en constante augmentation, alors que le nombre de juges est insuffisant.
D’autres vont même jusqu’à dire que la justice artificielle permet de répondre aux inégalités liées à la nature humaine. Bref, la justice artificielle séduit, et il est vrai que par certains aspects on pourrait la considérer comme une avancée. Mais attention : aucune décision de justice impliquant une appréciation sur le comportement ou la personnalité ne peut avoir pour seul fondement un traitement automatisé des données à caractère personnel destiné à évaluer certains aspects de la personnalité d’un individu.
Cela peut être envisagé lorsque les enjeux sont minimes, dans certaines affaires civiles ou commerciales, mais en aucun cas le traitement automatisé de données ne peut être généralisé en matière familiale ou pénale, car dans ces domaines les affaires sont étroitement liées aux personnes et à l’étude de leur comportement.
Les risques liés à l’intelligence artificielle sont réels. C’est d’ailleurs ce qu’a révélé une étude de l’Institut des ingénieurs en électricité et électronique, concernant notamment le traitement des données personnelles ou le possible isolement des magistrats qui, pour remédier à une charge de travail trop importante, pourraient s’appuyer de façon excessive sur cette technologie, au point qu’elle pourrait prendre la place des juges eux-mêmes, ce qui – vous en conviendrez – n’est pas souhaitable.
Mme la présidente
Je suis saisie de deux amendements identiques, nos 53 et 119.
La parole est à M. Ugo Bernalicis, pour soutenir l’amendement no 53.
M. Ugo Bernalicis
Par cet article, le Gouvernement souhaite autoriser la définition du profil d’une personne comme aide à la prise de décision administrative. Rappelons qu’auparavant, définir un profil était interdit. Aux termes de ce projet de loi, c’est seulement « prévoir » un profil qui sera interdit. Mais vous conviendrez que la frontière juridique entre « définir » et « prévoir » est assez mince !
Il faut se méfier de cette possibilité, dont les conséquences sur notre société risquent d’être sans précédent. Souhaitez-vous réellement instaurer, par exemple, le recours à la justice prédictive, méthode très décriée – j’en veux pour preuve le logiciel américain Compas, logiciel commercial largement utilisé pour prédire la récidive dans certains États. Or ses prédictions ne sont ni plus pertinentes ni plus justes que celles de personnes n’ayant aucune expertise judiciaire, ou très peu.
Le profilage est-il envisagé pour la délivrance des titres de séjour aux étrangers ? Pour les demandes d’emploi formulées par des chômeurs ? Pour une demande de permis de construire déposée par un riverain de l’océan ? Les demandeurs seront-ils classés selon leur pays d’origine, leur âge, leur adresse, leur cursus scolaire ? Les algorithmes autorisés par cet article ne permettront-ils de présélectionner – c’est-à-dire de discriminer, ou de renforcer des discriminations ?
Attention à ne pas ouvrir la boîte de Pandore : les dossiers doivent être analysés de façon individuelle par des êtres humains. Rappelons qu’à l’heure actuelle, le défaut d’examen individuel et personnalisé est considéré par les juges comme une erreur de droit. Le groupe La France insoumise refuse donc les conséquences directes de cet article. Pour nous, il conduit à une quasi-automatisation, et donc à une déshumanisation, du fonctionnement de l’administration de l’État et des collectivités territoriales. Ce n’est pas acceptable.
Mme la présidente
La parole est à M. Jean-Paul Dufrègne, pour soutenir l’amendement no 119.
M. Jean-Paul Dufrègne
Nous demandons nous aussi la suppression de cet article qui ouvre plus largement la possibilité, pour l’administration, de recourir à des décisions automatisées prises sur le fondement d’un algorithme, dans le champ des décisions administratives individuelles. Les garanties offertes en contrepartie en matière d’information pleine et entière des personnes, de maîtrise des traitements, de droit au recours et de données traitées – à l’exception, dans ce cadre, des données dites « sensibles » – ne sont pas suffisantes au regard des risques qui pèsent sur les droits et libertés des personnes concernées.
L’étude d’impact du projet de loi justifie cette évolution en ces termes : « Le maintien de l’interdiction absolue ne permet pas de répondre aux évolutions de l’activité administrative qui a de plus en plus recours à des traitements algorithmiques, notamment pour les décisions de masse que la réglementation encadre précisément et dont l’édiction rapide permet la bonne délivrance du service public. »
L’objectif visé est clairement le développement d’une administration numérique, voire d’une administration totalement dématérialisée, qui ne requerra plus une intervention humaine. Or la CNIL regrette le manque de garanties précises lors de l’utilisation de traitements algorithmiques débouchant sur l’adoption de décisions administratives et appelle à l’approfondissement de la réflexion sur ces différents points. De son côté, le Conseil d’État estime qu’« alors même qu’il n’est plus nécessaire que l’action humaine s’interpose entre le traitement et la prise de décision », il est essentiel « de garantir à tout instant une maîtrise humaine complète des algorithmes, comportant notamment la capacité d’interrompre le fonctionnement du traitement, notamment lorsque ceux-ci sont dotés de capacités d’apprentissage leur permettant de modifier leur logique de fonctionnement sans une démarche humaine préalable de validation. »
Pour notre part, nous considérons qu’il convient de maintenir l’article 10 de la loi de 1978 dans sa version actuelle, qui interdit de prendre des décisions administratives individuelles sur le seul fondement d’un traitement automatisé de données. Nous considérons que les enjeux juridiques et éthiques fondamentaux de cette question méritent d’être analysés de façon plus approfondie avant tout élargissement du recours aux décisions administratives automatisées.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
Je rappelle tout d’abord qu’il est interdit de fonder des décisions de justice sur l’utilisation d’un algorithme ; cela était vrai avant le RGPD, cela sera toujours vrai après.
Il me semble que la suppression complète des décisions administratives individuelles automatisées serait un peu excessive. Nous devons aussi travailler sur la simplification et la modernisation de l’administration. Les citoyens ont de grandes attentes en la matière, ils sont de plus en plus exigeants : ils veulent des services publics rapides et de qualité.
M. Laurent Furst
Ils veulent des services publics humains !
Mme Paula Forteza, rapporteure
Or nous avons besoin pour cela de pouvoir utiliser des algorithmes.
Ceci dit, des garanties suffisantes sont mises en place. Nous avons déjà parlé des garanties d’information, de transparence, de communication ; le RGPD prévoit aussi des voies de recours. Enfin, il est prévu que les algorithmes doivent rester maîtrisables par des humains. Ces algorithmes ne seront pas des boîtes noires : ce n’est pas de l’intelligence artificielle. Nous saurons toujours comment fonctionnent ces algorithmes, nous pourrons toujours comprendre comment les décisions sont prises.
Je laisse M. le secrétaire d’État chargé du numérique compléter ces éléments. L’avis de la commission est défavorable.
M. Philippe Gosselin
C’est la deuxième fois que vous refilez la patate chaude au secrétaire d’État !
Mme la présidente
La parole est à M. le secrétaire d’État.
M. Mounir Mahjoubi, secrétaire d’État
Ces technologies algorithmiques sont de plus en plus utilisées dans notre monde, non seulement dans l’économie, mais aussi dans l’administration. Une décision algorithmique peut être plus juste qu’une mauvaise décision prise au terme d’un processus mal organisé. Il n’est pas envisageable que l’administration se prive de ces innovations. Cependant nous rappelons toujours une exigence, qui figure dans ce texte : la maîtrise. Aucun algorithme non explicable ne pourra être utilisé. Vous l’avez rappelé : les algorithmes de décisions judiciaires sont interdits et continueront de l’être.
Le RGPD prend en compte ces évolutions et autorise le recours aux algorithmes pour fonder des décisions individuelles, à condition de prévoir les mesures appropriées pour la sauvegarde des droits et des libertés : c’est l’objet de l’article 14.
Je voudrais à présent aller dans le détail, pour vous expliquer comment ces garanties seront mises en œuvre. La première, c’est l’information de l’usager, dont nous avons parlé tout à l’heure. Lorsqu’une décision le concernant a été prise sur la base d’un algorithme, il peut obtenir, sur simple demande, la communication des règles qui ont défini le traitement algorithmique et ses principales caractéristiques. Cela répond à l’objectif de transparence de l’action de l’administration, et crée un droit à l’explication pour l’usager. La commission des lois a clarifié le texte sur ce point, et je vous en remercie.
Je n’ai pas rappelé tout à l’heure qu’il existe une autre obligation, plus générale : le contenu et les règles de tous les algorithmes significatifs seront disponibles en open
La deuxième garantie, c’est le droit au recours, qui implique une intervention humaine a posteriori. Ce droit à une intervention humaine est maintenu, et il s’applique à tous. Il s’agit du droit à un recours hiérarchique ou gracieux contre toute décision administrative individuelle – qui est de droit commun. Ce droit historique, je le répète, est maintenu : lorsqu’une personne concernée par une décision reposant sur un traitement automatisé de données le voudra, ce traitement sera bien repris en main par un humain. Je le rappelle encore une fois : cette possibilité sera conservée.
L’autre élément essentiel est l’exclusion des données sensibles, que le Gouvernement a souhaitée bien qu’elle ne soit pas obligatoire aux termes du RGPD.
Enfin, vous l’avez rappelé, madame la rapporteure, il y a pour ce qui est des décisions administratives une obligation de maîtrise du traitement algorithmique par le responsable du traitement. Cela signifie que les algorithmes boîte noire, c’est-à-dire ceux qui apprennent d’eux-mêmes, qui au fur et à mesure de leur utilisation peuvent prendre une décision dans un sens plutôt qu’un autre sans que celui qui l’a créé soit capable de définir pourquoi l’algorithme est allé dans un sens ou un autre, sont interdits et continueront de l’être.
Pour le Gouvernement, ces garanties permettent de répondre à vos inquiétudes. Un cadre juridique trop figé risquerait de nous empêcher d’innover, ce qui est pourtant essentiel. La CNIL, dans son dernier rapport sur l’éthique de l’intelligence artificielle et des algorithmes, nous invite à d’autres futurs. Elle invite à s’interroger sur l’opportunité de l’intervention humaine autrement qu’à l’échelle de chaque décision individuelle. L’avenir est là, et mes équipes comme la CNIL travaillent beaucoup sur ces sujets.
Le gouvernement précédent avait saisi l’Institut national de recherche en informatique et en automatique, l’INRIA, du sujet de la transparence des algorithmes avec TransAlgo. J’avais moi-même travaillé sur ce sujet au sein du Conseil national du numérique. Ces sujets continuent d’être des sujets de réflexion ; il sera très important d’être capable de les maîtriser quand ces algorithmes seront partout dans l’administration et dans la société. Il faudra alors être capable de les analyser et d’en garantir la transparence.
C’est aussi un des enjeux du rapport que le Gouvernement a confié à M. Cédric Villani. Il abordera ce sujet dans ses conclusions et le Gouvernement aura à se prononcer sur la capacité technologique de l’État à développer des algorithmes plus justes, plus transparents, mais aussi à les contrôler pour apporter plus de valeur au citoyen.
Mme la présidente
La parole est à M. Ugo Bernalicis.
M. Ugo Bernalicis
Vous nous dites que la manière dont sont construits les algorithmes est publique et que la « société civile des experts » va pouvoir regarder cela de plus près, et pourquoi pas lancer l’alerte. Ce serait merveilleux s’il existait un statut du lanceur d’alerte – je vous renvoie ici aux amendements que La France insoumise a déposés et qui ont été rejetés. Ce n’est donc pas à l’ordre du jour.
Il faudrait aussi que les gens qui détecteraient un problème aient la capacité de se faire entendre. Je vous renvoie ici à l’amendement relatif au compteur Linky : je ne doute pas que vous allez l’adopter, puisqu’il vise à faire la lumière sur un problème qui reste sous les radars alors qu’il concerne le grand public.
Cela me fait penser à un reportage que le Journal de France 2 a consacré à la Chine, où la vidéosurveillance utilise des algorithmes de reconnaissance faciale. L’un des créateurs de ces algorithmes vante son produit en arguant qu’il ne se trompe qu’une fois sur cent mille quand un être humain se tromperait une fois sur mille et qu’il a déjà permis de procéder à plus de trois mille arrestations en 2017. C’est ça, la société que vous voulez ? Pour nous, il est hors de question de mettre le doigt dans cet engrenage !
L’être humain n’est pas réductible à un algorithme, et il doit rester au cœur de la décision. Votre algorithme va-t-il demander des pièces complémentaires ? Va-t-il, dans le cadre de votre loi pour une société de confiance, apporter du conseil ? Non, il va décider en fonction de données, d’une manière bête et méchante.
M. Loïc Prud’homme
Très bien !
Mme la présidente
La parole est à M. Laurent Furst.
M. Laurent Furst
Ma question est simplement le fruit d’une immense interrogation. Votre proposition semble parée de toutes les vertus de la modernité, sauf que j’ai beaucoup de mal à déterminer où commence et où finit l’application du dispositif. Ce flou, l’absence de lisibilité quant à son champ d’application, suscitent chez moi un certain nombre d’interrogations, même si je n’ai pas de religion particulière en la matière. On parle là de décisions individuelles qui peuvent changer la vie des gens, or on ne connaît ni l’ampleur ni la profondeur du dispositif. Vous dites qu’il y a des voies de recours, mais jusqu’où ? Quel est le champ d’application de cette mesure ? Vous ne l’avez pas indiqué avec précision, laissant ouvertes toute une série de questions.
Nous sommes face à un texte formidablement mal écrit et mal expliqué. Nous n’avons pas d’hostilité de principe à l’égard de ce dispositif, mais nous ne comprenons pas jusqu’où il est possible d’aller avec une telle rédaction. J’aimerais que vous nous expliquiez précisément quelle sera l’incidence de ce dispositif sur la vie quotidienne de nos concitoyens et qui sera concerné.
M. Jean-Paul Dufrègne
Vous avez raison : c’est essentiel.
M. Laurent Furst
Vos explications sont insuffisantes pour que nous prenions position. Pardonnez-moi, mais nous sommes dans le flou absolu. (Applaudissements sur quelques bancs du groupe LR et du groupe GDR.)
Mme la présidente
La parole est à M. Stéphane Peu.
M. Stéphane Peu
Apparemment, nous ne rencontrons pas tout à fait les mêmes personnes, madame la rapporteure. Ceux que je rencontre critiquent plus la numérisation de l’administration telle qu’elle a déjà commencé qu’ils n’expriment une aspiration à la voir se développer.
Aujourd’hui, l’administration a atteint un tel degré de numérisation qu’on ne peut plus traiter un dossier de Sécurité sociale, obtenir un permis de conduire ou une carte grise sans passer par une borne ; il n’y a plus d’agents dans les préfectures. Tous ceux que je rencontre demandent qu’on réintroduise de l’humain dans les relations entre les administrations et les administrés ; j’entends davantage cela qu’une aspiration à l’automatisation.
Il aurait été utile de suivre la recommandation de la CNIL, qui nous appelle à pousser plus loin la réflexion sur ce sujet avant de légiférer. Je pense à certain algorithme : j’ignore s’il s’agissait d’un algorithme boîte noire ou sous maîtrise humaine, mais ce que je sais, c’est qu’à cause de lui, des milliers de lycéens sont restés sans affectation à la rentrée universitaire. Il s’agit de l’algorithme qui a fait APB (« Ah ! » sur les bancs du groupe FI.). Cela mérite qu’on prenne le temps de la réflexion avant d’étendre ce type d’administration à de nombreux autres domaines. (Applaudissements sur les bancs des groupes GDR et FI.)
Mme la présidente
La parole est à M. le secrétaire d’État.
M. Mounir Mahjoubi, secrétaire d’État
Les 13 millions de Français, soit 20 % d’entre eux, qui ne savent pas utiliser une interface numérique sont une priorité de ce gouvernement, et ce depuis le premier jour – 45 % des Français disent qu’ils trouvent plus difficile de passer par une interface numérique.
Que doit-on faire pour ces 20 % de Français ? Tout faire pour qu’ils n’utilisent pas le numérique, qu’ils ne communiquent pas plus avec leur famille, ou bien les accompagner ? C’est tout l’enjeu du dispositif lancé dans le cadre de la Conférence nationale des territoires. Il s’agit de voir, dans chaque département, comment on peut les accompagner et les former en maintenant toujours l’accès à quelqu’un susceptible de les aider à traiter leurs problèmes administratifs.
M. Pierre Cordier
Ce n’est pas le cas !
M. Mounir Mahjoubi, secrétaire d’État
L’apport de la numérisation, c’est qu’elle libère du temps qui pourra être consacré par les agents à ceux qui en ont le plus besoin et au traitement des demandes les plus complexes.
M. Jean-Paul Dufrègne
C’est du pipeau, ça !
M. Mounir Mahjoubi, secrétaire d’État
APB est un algorithme qui a été mis en place avant l’ère de la transparence. Ce qui a été le plus demandé, c’est qu’on ouvre ce code, mais il l’a été de façon maladroite, puisqu’il n’y avait pas de règles indiquant comment cela devait être fait. Mais les incidents auxquels il a donné lieu nous ont permis de lancer ce débat national et de nous poser la question de la nécessité de la transparence – et ce texte en est le reflet.
Il y a aujourd’hui, comme vous l’avez rappelé, un enjeu de maîtrise, d’accessibilité et d’inclusion numérique. (Applaudissements sur les bancs du groupe REM.)
Mme la présidente
La parole est à Mme la rapporteure.
Mme Paula Forteza, rapporteure
Les citoyens se félicitent de la modernisation de l’administration quand ils peuvent s’acquitter de leurs impôts en un clic via leur portable ou quand ils peuvent savoir quels sont leurs droits en se rendant sur un site en ligne.
M. Pierre Cordier
Allez donc dire ça à des personnes de quatre-vingts ans !
Mme Paula Forteza, rapporteure
Par ailleurs, l’ouverture du code source du calculateur des impôts a été une expérience très positive, à laquelle la société civile a participé. Elle a vu dans le détail comment les impôts dus par chaque citoyen étaient calculés. Il est donc possible d’auditer ces algorithmes.
M. Jean-Paul Dufrègne
Il y a une grande naïveté sur ces choses !
Mme la présidente
La parole est à M. Philippe Gosselin.
M. Philippe Gosselin
Je n’ai pas de problème avec la « démat » : il est évident qu’on doit vivre avec son époque, mais je ne peux pas vous laisser dire, madame la rapporteure, que les gens sont contents de payer avec leur smartphone. Certains sont sans doute satisfaits de pouvoir le faire, mais je recevais il y a quelques jours encore des personnes de quatre-vingts ans qui ont dû payer 15 euros supplémentaires faute d’être capables de s’acquitter par voie dématérialisée de plus de 2000 euros d’impôts locaux. Ils sont donc sanctionnés parce qu’ils sont démunis de moyens numériques de paiement.
Voilà pourquoi je ne peux pas laisser dire que tout le monde est content : ce n’est pas vrai.
M. Loïc Prud’homme
Très bien !
M. Philippe Gosselin
Il y a des gens qui restent sur le bord de la route et ceux-là, il faut les accompagner. Il ne s’agit pas de revenir sur cette évolution, mais par pitié, prenons soin de celles et ceux, pas toujours de milieux défavorisés, qui sont laissés au bord du chemin par cette marche quelque peu forcée vers la numérisation, qui oublie parfois que les citoyens peuvent avoir besoin d’aide.
Mme la présidente
La parole est à Mme Marietta Karamanli.
Mme Marietta Karamanli
Ce débat montre bien à la fois l’inquiétude de certaines populations de nos territoires et la volonté d’aller plus loin de ceux qui se sentent à l’aise avec tout cela. Il faut arriver à concilier ces divers besoins. L’exemple de l’algorithme qui a été utilisé pour l’orientation des étudiants illustre le besoin de transparence, et celle-ci devrait être systématique, avant même qu’on demande quelque explication que ce soit. C’est ainsi qu’on accompagnera et qu’on éduquera la population.
Mme la présidente
La parole est à Mme la rapporteure.
Mme Paula Forteza, rapporteure
Je rejoins vos préoccupations, monsieur Gosselin : il ne faut pas qu’il y ait de dématérialisation sans médiation numérique, et c’est tout le travail que le Gouvernement est en train d’entreprendre. Tout un réseau d’associations y travaille également au niveau local et nous devons les accompagner en tant que législateurs – et chaque député dans sa circonscription.
M. Philippe Gosselin
Ah ! si nous avions encore la réserve parlementaire !
Mme Danièle Obono
Les associations n’ont pas les moyens de faire ce travail !
Mme la présidente
La parole est à M. Loïc Prud’homme.
M. Loïc Prud’homme
Je viens de comprendre que cette assemblée est un algorithme, puisque tous les amendements des groupes FI ou GDR ont automatiquement droit à un avis défavorable !
Puisque vous dites que les algorithmes vont libérer du temps, monsieur le secrétaire d’État, je propose qu’on vous remplace par un algorithme. Cela nous permettra de gagner du temps dans les débats et cela vous permettra de consacrer du temps à faire de la pédagogie auprès des personnes qui seraient tellement heureuses de pouvoir payer leurs impôts sur smartphone.
M. Ugo Bernalicis
Très bien !
Mme la présidente
La parole est à M. Éric Bothorel.
M. Éric Bothorel
Si certains amendements ont été rejetés en commission, ce n’est pas la faute d’un algorithme, mais c’est parce que ceux qui devaient les défendre étaient absents. (Applaudissements sur les bancs du groupe REM.)
M. Ugo Bernalicis
C’est scandaleux ! Je vais prendre note de toutes vos absences !
(Les amendements identiques nos 53 et 119 ne sont pas adoptés.)
Mme la présidente
La parole est à Mme la rapporteure, pour soutenir l’amendement no 127.
Mme Paula Forteza, rapporteure
L’amendement tend à élargir au secteur privé les garanties d’information et de transparence que la loi Lemaire pour une République numérique a établies pour le secteur public. Reste à savoir comment monter ce dispositif. Selon l’article 22 du RGPD, une personne a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, y compris le profilage, sauf dans trois cas : dans le cadre d’un consentement, d’un contrat ou d’une décision administrative individuelle automatisée, que nous venons d’évoquer.
Dans les deux premiers cas, je souhaite ouvrir la possibilité d’appliquer les règles de transparence qui définissent le traitement automatisé, ainsi que les principales caractéristiques de sa mise en œuvre. La décision s’appliquerait aux algorithmes traitant le taux de solvabilité quand on veut contracter une assurance ou un crédit, à ceux utilisés sur les plates-formes ou les réseaux sociaux afin de lutter contre les fake news, ou qui permettent de fermer les comptes diffusant des propos considérés comme déviants. Dans ce cas, les personnes pourraient demander aux plates-formes comment et selon quels critères les décisions ont été prises. Ce serait un premier pas vers une transparence des algorithmes dans le secteur privé.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
J’émets un avis favorable. L’amendement s’inscrit en effet dans la logique que nous avons adoptée, puisqu’il vise non à contester l’arrivée des algorithmes dans certaines décisions, mais l’assortir de garanties supplémentaires.
Les dispositions proposées renforceront le texte initial en apportant une meilleure information à l’utilisateur, y compris dans le champ privé, ce que la loi Lemaire n’avait pas prévu initialement.
Pour ce faire, il faut décliner la notion d’information permettant de connaître et de contester la logique qui sous-tend le traitement automatisé prévu par l’article 15 du règlement, à travers une obligation dont l’amendement définit le contenu de manière plus concrète.
(L’amendement no 127 est adopté.)
(L’article 14, amendé, est adopté.)
Après l’article 14
Mme la présidente
Je suis saisie de deux amendements tendant à introduire un article additionnel après l’article 14.
La parole est à M. François Ruffin, pour soutenir l’amendement no 61.
M. François Ruffin
Je me suis fait expliquer les enjeux de ces algorithmes, dont je ne suis pas spécialiste, et qui ne visent au fond qu’à renforcer des discriminations qui existent déjà. En effet, si l’on constate plus de fraudes auprès de la caisse d’allocations familiales parmi les gens qui habitent en banlieue, on peut craindre qu’un algorithme ne systématise les contrôles dans cette population. De même, si l’on observe plus de retards parmi les personnes qui habitent loin de leur lieu de travail, un algorithme pourra sélectionner les candidats à un poste en fonction de leur adresse.
C’est pourquoi nous soutenons toute mesure qui irait dans le sens d’une plus grande transparence de l’utilisation des algorithmes. Nous souhaitons donc que la CNIL puisse enquêter sur ceux-ci comme sur le reste, ce qui pourrait être fait avec la participation des citoyens et à titre expérimental.
Notre demande s’inspire des conclusions du rapport intitulé Modalité de régulation des algorithmes de traitement des contenus, remis à la secrétaire d’État chargée du numérique en mai 2016 – ce qui prouve son sérieux.
Mme Danièle Obono
Très bien !
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
Avis défavorable. Je suis d’accord avec l’esprit dans lequel a été rédigé l’amendement, mais le contrôle des algorithmes ne me semble pas devoir être confié à une entité particulière. Toutes les associations, tous les citoyens, toute la société civile doivent pouvoir y contribuer. C’est ce à quoi tendait l’amendement précédent, qui visait à accroître la transparence et l’accès aux ressources, et à permettre à la société civile de travailler sur ce contrôle.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
La mesure ne nous paraît pas nécessaire. La CNIL exerce déjà ce type de mission, puisque, dans le cadre de ses prérogatives de droit commun, elle peut contrôler le respect de l’article 10 de la loi qui l’a créée, lequel prohibe les décisions automatisées. Pour citer un exemple récent, auquel vous avez vous-même fait allusion, le 30 août 2017, cette instance a mis en demeure le ministère de l’enseignement supérieur, de la recherche et de l’innovation, et demandé à contrôler directement le traitement de la plateforme APB.
La mesure que vous demandez étant satisfaite, j’émets un avis défavorable.
Mme la présidente
La parole est à M. François Ruffin.
M. François Ruffin
Les deux réponses – celle de la rapporteure et de la ministre – ne coïncident pas.
Mme Nicole Belloubet, garde des sceaux
Rien n’oblige à ce qu’elles coïncident.
M. François Ruffin
En effet, mais j’ai le droit de le mentionner et d’en faire l’analyse.
Mme Forteza nous assure que la société civile exercera un contrôle. Cela m’inquiète beaucoup, car je souhaite qu’il y ait un véritable gendarme, qui ne se réduise pas à quelques vagues associations et à la société civile.
Selon Mme Belloubet, ce contrôle figure potentiellement dans les missions de la CNIL, pourvu que celle-ci en fasse la demande. Si tel est le cas, j’aimerais autant que le texte le mentionne explicitement. Pourquoi ne pas indiquer que la CNIL doit se préoccuper de manière active de ces algorithmes, qui posent quelques problèmes ? (Applaudissements sur les bancs du groupe FI.)
(L’amendement no 61 n’est pas adopté.)
Mme la présidente
La parole est à M. Philippe Gosselin, pour soutenir l’amendement no 154.
M. Philippe Gosselin
Lorsque les données sont collectées auprès de mineurs de moins de quinze ans – et non plus de seize –, il nous semble nécessaire que les responsables leur expliquent dans un langage clair et limpide les obligations qui pourraient peser sur eux. Tel est l’objet de l’amendement.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
La précision me paraît bienvenue.
(L’amendement no 154, accepté par le Gouvernement, est adopté.)
(Applaudissements sur les bancs du groupe LR.)
Article 15
Mme la présidente
La parole est à M. Laurent Furst, inscrit sur l’article 15.
M. Laurent Furst
J’ai l’impression que nous passons trop rapidement sur certaines questions que posent les algorithmes. Je l’ai dit tout à l’heure : nous ne réfléchissons pas en profondeur, nous ne savons pas jusqu’où l’on va, alors que nous ouvrons des champs de droit intéressants.
Nous venons de dire que les algorithmes rendront des décisions individuelles. Tout acte administratif peut faire l’objet d’un recours, à travers la saisine du tribunal administratif. Nous sommes donc dans un champ relativement clair et simple.
Cependant, lorsque la décision est dolosive et qu’elle crée un préjudice, contre qui le citoyen pourra-t-il se retourner ? Nous avons inventé la notion de mise en examen des collectivités. Auparavant, c’était leur représentant juridique qui portait la responsabilité juridique en cas de recours. Quand une décision provient d’un algorithme, qui en assume la responsabilité juridique ?
La question se pose également dans le cas de la conduite automatisée. Dans un flux de circulation, il existe des champs de responsabilité multiples. Contre qui pourra-t-on se retourner ? Chaque pays va créer son droit face à cette situation. Je ne suis pas sûr que le nôtre soit très clair sur la question ni même que nous l’ayons pleinement anticipée. En tout cas, cela méritait d’être dit.
M. Mounir Mahjoubi, secrétaire d’État
Et cela a été entendu.
Mme la présidente
Je suis saisie de trois amendements identiques, nos 74 rectifié, 149 rectifié et 160 rectifié.
La parole est à Mme Sarah El Haïry, pour soutenir l’amendement no 74 rectifié.
Mme Sarah El Haïry
Dans la continuité de l’intervention de M. Furst, l’amendement no 74 rectifié vise à anticiper certaines situations. Nous proposons en effet d’ouvrir la possibilité pour toute personne de recourir à une médiation, lorsque le responsable du traitement n’a pas fait droit à sa demande d’effacement de ses données à caractère personnel ou n’a pas répondu dans un délai de un mois à compter de la demande.
La médiation se déroulera suivant les dispositions de la section I du chapitre Ier du titre II de la loi no 95-125 du 8 février 1995 relative à l’organisation des juridictions et à la procédure civile, pénale et administrative. En cas d’échec de cette médiation, la personne concernée pourra toujours saisir la CNIL.
Nous insistons sur la lourdeur actuelle des démarches. Le recours à une médiation permettra de soulager les services de la CNIL et résoudra une réelle difficulté du quotidien.
Mme la présidente
La parole est à M. Philippe Gosselin, pour soutenir l’amendement no 149 rectifié.
M. Philippe Gosselin
Il arrive qu’on persévère, quand on est sûr d’avoir quelques bonnes idées. Avec George Pau-Langevin, qui a mal tourné, puisqu’elle est devenue ministre il y a quelque temps, j’avais écrit un rapport d’information en vue d’améliorer l’accès au droit et à la justice, ce qui est une nécessité pour la République. Ce rapport réservait une place importante à la médiation, qui permet d’accéder à certains éléments de manière plus apaisée que par des voies de recours classiques.
L’amendement tend à permettre le recours à la médiation, qui n’aurait rien d’obligatoire, lorsque le responsable du traitement n’a pas fait droit à une demande d’effacement de données à caractère personnel ou n’a pas répondu dans un délai de un mois à compter de la demande. Dans tous les cas, les intéressés pourraient saisir la CNIL, mais il est bon d’inscrire dans le texte la possibilité d’une médiation, qui aurait vocation à s’appliquer plus largement et dans d’autres secteurs que le numérique. Nous pourrions y revenir prochainement quand nous examinerons le projet de loi de programmation annoncé sur la justice.
Mme la présidente
La parole est à M. Pierre-Henri Dumont, pour soutenir l’amendement no 160 rectifié.
M. Pierre-Henri Dumont
M. Gosselin l’a rappelé : il s’agit d’un vieux débat. Dans un souci de fluidité, nous devons trouver la meilleure réponse à apporter à l’administré ou à l’usager. Dans certains cas, la médiation permettra de répondre à des inquiétudes, tout en désengorgeant la CNIL, qui, demain, pourrait faire face à de très nombreuses saisines.
L’amendement a une histoire ancienne et bénéficie d’un soutien multipartisan, puisqu’il est également déposé par le groupe du MODEM. Il devrait rassembler de nombreux députés autour d’une idée simple : la fluidification des rapports du citoyen et de l’administration en matière de protection des données personnelles et de la vie privée.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
Je reconnais que la médiation peut fluidifier ce type de contentieux, mais le droit commun permet déjà d’y recourir. La précision n’est donc pas utile. Avis défavorable.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
J’ajoute que, pour intéressants qu’ils soient, ces processus allongeraient les délais, ce qui ne me semble pas correspondre à l’objectif poursuivi par les auteurs des amendements. Avis défavorable.
(Les amendements nos 74 rectifié, 149 rectifié et 160 rectifié, successivement mis aux voix, ne sont pas adoptés.)
M. Fabien Di Filippo
La majorité est fracturée !
Mme la présidente
La parole est à Mme Danièle Obono, pour soutenir l’amendement no 55.
Mme Danièle Obono
L’interdiction de la collecte de certaines données personnelles sensibles, à des fins explicites d’identification d’une personne, doit souffrir une exception, lorsque cette collecte, faite par des organes étatiques, l’est pour des motifs de sécurité intérieure. Ces motifs sont évidemment compréhensibles et justifient une dérogation, qui doit cependant être autant encadrée que possible. C’est le sens de cet amendement, qui vise à la limiter au strict nécessaire sans empêcher la poursuite d’opérations indispensables à la sécurité de l’ensemble des citoyens et des citoyennes.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
Il me semble que la notion de « risque majeur » n’est pas très claire. On ne la rencontre pas dans d’autres dispositions législatives de ce type. Par ailleurs, l’encadrement existe, puisque le Conseil d’État fixera la liste des traitements autorisés à déroger au droit à la communication d’une violation de données en présence d’un tel risque. Il n’est donc pas nécessaire d’instituer des garanties supplémentaires. Avis défavorable.
(L’amendement no 55, repoussé par le Gouvernement, n’est pas adopté.)
Mme la présidente
La parole est à M. Ugo Bernalicis, pour soutenir l’amendement no 56.
M. Ugo Bernalicis
Le Conseil d’État fixera, en lien avec la CNIL, la liste des domaines dans lesquels on pourra se soustraire à l’obligation d’informer les intéressés en cas de violation des données personnelles. Cela peut se justifier par des raisons importantes liées à la défense ou à la sécurité nationale, ce que nous ne contestons pas. Néanmoins, nous ne voudrions pas que ces raisons justifient, par principe, l’absence de communication des données, quand bien même elles ne présenteraient pas de caractère sensible et déterminant.
Aussi vous proposons-nous de faire intervenir dans la procédure le juge des libertés et de la détention – JLD –, seul garant des libertés individuelles, conformément à l’article 66 de la Constitution, pour valider cette absence de communication. En effet, il est important que le juge puisse vérifier le caractère sensible des données lors de la survenue des faits, et que l’on ne se contente pas d’une décision de la CNIL qui affirmerait qu’en ce domaine, en tout état de cause, les données ne seront jamais communiquées. À défaut, « la porte serait ouverte à toutes les fenêtres ».
Mme la présidente
Sur l’amendement no 71 rectifié, portant article additionnel après l’article 15, je suis saisie par le groupe La France insoumise d’une demande de scrutin public.
Le scrutin est annoncé dans l’enceinte de l’Assemblée nationale.
Quel est l’avis de la commission sur l’amendement no 56 ?
Mme Paula Forteza, rapporteure
Il serait compliqué de faire intervenir le JLD dans un cadre administratif. Avis défavorable.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
Avis également défavorable sur ce nouvel appel au JLD.
Mme la présidente
La parole est à M. Ugo Bernalicis.
M. Ugo Bernalicis
Ainsi, on ne pourrait pas faire appel au JLD dans un cadre administratif ? Voilà une méthode de défense très intéressante ! J’ai souvenir de nos débats sur le projet de loi renforçant la sécurité intérieure et la lutte contre le terrorisme – cela vous dit peut-être quelque chose, madame la ministre, même si c’était votre collègue de l’intérieur qui l’avait défendu. Cette loi institue une procédure administrative de visites domiciliaires, encadrée – je vous le donne en mille – par le juge des libertés et de la détention.
Ne trouvez-vous pas étrange que ce magistrat puisse intervenir dans le cadre d’une procédure administrative ? Comment est-ce possible ? Tout simplement parce que nous l’avons écrit dans la loi. Nous avons décidé que le juge des libertés et de la détention, en tant que juge garant des libertés individuelles, conformément à l’article 66 de la Constitution, délivrerait une autorisation préalable à ces visites.
Je considère donc que votre argument, selon lequel le JLD n’a rien à faire dans une procédure administrative, n’est absolument pas valable : nous sommes au contraire nombreux à penser qu’il est le plus à même d’agir en la matière. Que vous ne vouliez pas qu’un juge intervienne dans la procédure, pour la valider, au moment où les faits surviennent, cela vous regarde. Nous estimons, pour notre part, que cela offrirait à nos concitoyens une meilleure garantie pour l’exercice de leurs libertés individuelles.
Mme la présidente
La parole est à Mme la garde des sceaux.
Mme Nicole Belloubet, garde des sceaux
Je n’ai pas dit que le JLD ne devrait pas intervenir dans cette occurrence en raison de la nature administrative de la mesure. J’ai affirmé – de manière très elliptique, j’en conviens, et c’est pourquoi je vous apporte cette précision – que faire intervenir le JLD dans ce type de dispositif serait contraire à la philosophie qui l’anime, à savoir la promotion de l’auto-responsabilisation. Je ne vois pas ce qu’apporterait ici l’intervention d’un juge. On peut également se demander comment il pourrait exercer son contrôle. En effet, il ne pourrait apprécier la réalité du risque que s’il disposait d’une habilitation à connaître d’une question liée à la sécurité ou à la défense nationale.
Mme la présidente
La parole est à M. Ugo Bernalicis.
M. Ugo Bernalicis
Je reviens sur la loi renforçant la sécurité intérieure et la lutte contre le terrorisme. Ce texte n’accorde pas d’habilitation au JLD pour se prononcer, et nous lui avons pourtant reconnu cette compétence.
Mme Nicole Belloubet, garde des sceaux
Ça n’a rien à voir !
M. Ugo Bernalicis
Bien sûr que si, ça a à voir ! Le parquet de Paris, qui est compétent en matière antiterroriste, a une habilitation au titre du secret-défense, qui lui permet d’avoir accès à l’ensemble du dossier…
M. Erwan Balanant
Ce n’est pas le sujet !
M. Ugo Bernalicis
…mais cela n’empêche pas le JLD de se prononcer. Nous affirmons que la procédure d’autorisation par la CNIL et le Conseil d’État va se traduire par le fait que, dans un domaine donné, on ne communiquera pas les données, quelle que soit leur sensibilité et quelles que soient les circonstances. Aussi estimons-nous qu’il serait opportun qu’une personne indépendante, garante des libertés individuelles, intervienne en la matière : le JLD nous semble tout indiqué.
(L’amendement no 56 n’est pas adopté.)
(L’article 15 est adopté.)
Après l’article 15
Mme la présidente
La parole est à M. Loïc Prud’homme, pour soutenir l’amendement no 71 rectifié, portant article additionnel après l’article 15.
M. Loïc Prud’homme
Cet amendement a trait aux compteurs « intelligents » Gazpar et Linky, qui n’ont d’intelligent que le nom et devraient plutôt être nommés des « capteurs de données ».
M. Philippe Bolo
Mais non !
M. Loïc Prud’homme
De fait, les compteurs Gazpar et Linky collectent, quasiment en temps réel, votre consommation de gaz naturel ou d’électricité. Les données collectées peuvent être envoyées à votre opérateur énergétique afin de constituer votre courbe de charge, c’est-à-dire la courbe de votre consommation au cours d’une journée. Si vous acceptez cela, vos données sont enregistrées par votre opérateur énergétique. D’ailleurs, dans le cas de Linky, ENEDIS ne cache pas que ce qui l’intéresse, ce sont les données personnelles. Son président, Philippe Monloubou, n’a-t-il pas déclaré, en février 2017 : « L’entreprise doit anticiper pour faire évoluer son « business model » car nous sommes désormais également un opérateur de big data. » Nous sommes là au cœur du sujet.
Par cet amendement, nous souhaitons mettre fin à une atteinte majeure aux droits et libertés fondamentales numériques – plus particulièrement, en l’occurrence, au droit au consentement. L’objectif affirmé de l’efficacité énergétique semble louable – bien qu’illusoire, comme l’a souligné la Cour des comptes dans son rapport public annuel. Il apparaît toutefois que la méthode de collecte centralisée, qui relève clairement d’une volonté de monétiser, à terme, du big data, n’est absolument pas la meilleure des méthodes pour concilier la poursuite de l’objectif d’efficacité énergétique et le respect du droit au consentement.
Nous estimons que la transposition du règlement RGPD doit rendre obligatoire – je dis bien obligatoire – l’obtention du consentement des personnes chez qui l’on souhaite implanter ces compteurs, qui sont, je le répète, des capteurs de données.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
Le rapport de la Cour des comptes évoque plus le business model du déploiement de ces compteurs dans les foyers que le mode de traitement des données par les entreprises. Je peux toutefois apporter quelques précisions à ce sujet. Le gestionnaire du réseau de distribution ne collecte par défaut que des données de consommation globale des foyers sur une journée ; il ne s’agit donc pas, à proprement parler, de données personnelles. La collecte des données de consommation fine, par tranche horaire ou par demi-heure, est, pour sa part, soumise à l’accord de l’usager : son consentement est donc requis. Quant à la transmission des données de consommation détaillée à des sociétés tierces, notamment à des fins commerciales, elle ne peut intervenir qu’avec l’accord de l’abonné. En tout état de cause, quand le RGPD entrera en application, ces sociétés devront offrir toutes les garanties nécessaires en ce qui concerne le consentement du client. La commission émet donc un avis défavorable à l’inscription de cette précision dans la loi.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
Monsieur le député, je suis tout à fait disposée à parler avec vous des compteurs Linky, de la délibération de la CNIL y afférente et de la prise en compte de ladite délibération par un décret de 2017 sur ces mêmes compteurs, mais, très sincèrement, ce n’est pas l’objet du présent texte. C’est la raison pour laquelle j’émets un avis défavorable sur votre amendement.
Mme la présidente
La parole est à M. Gilles Lurton.
M. Gilles Lurton
Madame la ministre, on peut soutenir, en effet, que ces compteurs ne sont pas l’objet du présent texte, mais ils n’en constituent pas moins un problème. Dans les mois qui ont suivi l’entrée en vigueur de la loi sur la transition énergétique, les abonnés n’étaient pas en mesure de refuser l’installation d’un compteur Linky. Ils le peuvent depuis quelque temps, mais ces dispositifs continuent à créer de nombreuses difficultés dans nos communes. Les mouvements dits « anti-Linky » se font aujourd’hui, de mon point de vue, de plus en plus pressants. Pourquoi ? Quand une personne s’oppose à l’installation d’un compteur Linky, ENEDIS, je l’ai dit, respecte leur volonté. En revanche, dans une copropriété, le compteur est automatiquement installé, même si les copropriétaires ne le souhaitent pas, ce qui entraîne, à l’heure actuelle, de nombreux litiges dans les communes – dont, j’imagine, nous sommes tous, ici, saisis régulièrement.
Sur le plan scientifique, je ne suis pas capable de me prononcer sur les effets éventuels du compteur Linky. On m’apporte une multitude de démonstrations et de renseignements, qui me donnent le sentiment que tout cela est extrêmement compliqué. L’ANSES – Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail – avait été saisie de ce dossier et avait conclu à l’absence de danger pour la santé. Il n’est d’autre solution que de s’appuyer sur ce type d’expertises scientifiques pour se forger un jugement. Il n’en reste pas moins qu’un véritable problème se pose dans notre pays, qui est presque de nature démocratique.
Mme la présidente
La parole est à M. Loïc Prud’homme.
M. Loïc Prud’homme
Monsieur Lurton, même lorsqu’on s’oppose à l’installation du compteur, il est souvent posé de force.
M. Gilles Lurton
Plus maintenant !
M. Loïc Prud’homme
Ma question porte surtout sur le traitement des données. Madame la ministre, vous ne pouvez pas dire que ce sujet ne relève pas de ce texte : il s’agit de capteurs de données. On en a installé à ce jour 8 millions et le chiffre doit atteindre 35 millions : c’est donc bien de la collecte massive de données. Ne nous dites pas que ce n’est pas aujourd’hui qu’il faut en parler : c’est un véritable problème et votre argument reposant sur le consentement de l’intéressé ne tient pas une seconde, puisqu’il s’agit de pose forcée. Demain, les données seront collectées foyer par foyer : si vous ne cochez pas la bonne case, elles seront transmises, et nous n’avons aucune garantie quant à l’avenir. Il faut donc que l’on puisse refuser la pose de ces appareils. C’est en effet un principe démocratique de base.
Mme la présidente
Monsieur Ruffin, je ne peux vous donner la parole, M. Prud’homme s’étant déjà exprimé.
Je mets aux voix l’amendement no 71 rectifié.
(Il est procédé au scrutin.)
(L’amendement no 71 rectifié n’est pas adopté.)
Article 16 A
Mme la présidente
La parole est à M. Jean Terlier, inscrit sur l’article 16 A.
M. Jean Terlier
Largement inspirée des voies d’action américaines sans pour autant en être une traduction littérale, l’action de groupe a été introduite dans le droit de la consommation et le droit de la concurrence par la loi du 17 mars 2014, dite « loi Hamon ». Le législateur français n’entendait pas alors seulement se conformer à l’obligation d’harmonisation des pratiques à l’échelle européenne, mais voulait donner aux internautes des outils puissants destinés à contrôler et à sanctionner les e-commerçants.
Le développement de la e-consommation – ou plus exactement les nouvelles modalités de consommation, de communication, d’information et de recherche – justifie que l’action collective ne soit pas circonscrite au domaine particulier du droit de la consommation. C’est pourquoi elle figure également dans la loi du 26 janvier 2016 de modernisation de notre système de santé – et donc dans le droit de la santé.
Il n’est pas davantage surprenant qu’elle ait été définie par la suite dans un cadre juridique et procédural commun à toutes les matières du droit, sur le fondement duquel un tel recours est désormais possible. Par ailleurs, son champ d’application a été élargi dès 2016 à la lutte contre les discriminations et à la protection de l’environnement, avant de l’être aujourd’hui à la protection des données à caractère personnel par l’insertion d’un nouvel article 43 bis dans la loi Informatique et libertés promulguée en 1978.
L’action de groupe prévoit un recours en réparation d’un préjudice matériel. Elle autorise plusieurs personnes s’estimant victime d’un même préjudice provoqué par un même professionnel à se regrouper et à agir en justice d’une seule et même voix. En matière de traitement des données à caractère personnel, elle procède d’une finalité exceptionnellement distincte. Elle vise ici non plus la réparation matérielle du préjudice subi, mais la seule cessation des manquements à la loi par leur auteur. Elle perd donc sa vocation initiale, pourtant confirmée en 2016 par le législateur.
Il semble en effet opportun de lier la finalité de l’action de groupe à son essence en étendant son champ d’application à la constatation d’un manquement du responsable du traitement des données ouvrant la possibilité d’engager une action de groupe, avec ou sans mandat, afin d’obtenir réparation des préjudices matériels et moraux subis. Tel est l’objectif visé par l’article 16 A : permettre l’action en réparation matérielle, y compris en matière de données à caractère personnel, auparavant exclues du champ de l’action de groupe, et rendre à celle-ci toute son efficacité et son fondement.
Mme la présidente
La parole est à M. Thibault Bazin, pour soutenir l’amendement no 82, tendant à supprimer l’article 16 A.
M. Thibault Bazin
Même si l’on peut en comprendre l’intérêt, le dispositif s’apparente à une surenchère législative par rapport aux normes européennes. C’est pourquoi Jean-Louis Masson et moi-même proposons de circonscrire l’action de groupe à la seule cessation du manquement, comme le prévoit la loi Informatique et libertés, et non de l’étendre à la réparation du préjudice, comme le suggère l’étude d’impact.
Mme la présidente
Quel est l’avis de la commission ?
Mme Paula Forteza, rapporteure
L’article 16 A, qui est issu d’un consensus, représente l’une des grandes avancées obtenues par la commission, car il permet de mettre en œuvre efficacement les dispositions du RGPD. Pour garantir les équilibres du texte, il est indispensable de prévoir une voie de recours à travers les associations : celles-ci pourront déposer des plaintes individuelles qui, sans elles, ne verraient pas le jour, car ce sujet est complexe et technique. La commission est donc défavorable à l’amendement.
Mme la présidente
Quel est l’avis du Gouvernement ?
Mme Nicole Belloubet, garde des sceaux
Lors de l’examen du texte en commission des lois, le Gouvernement s’en est remis à la sagesse de l’Assemblée en ce qui concerne l’extension du champ d’application de l’action de groupe, que permet la marge de manœuvre du RGPD. Nous ne souhaitons pas revenir sur la position adoptée en commission. L’avis du Gouvernement est donc défavorable.
(L’amendement no 82 n’est pas adopté.)
Mme la présidente