—  1  —

N° 1674

______

ASSEMBLÉE   NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

SEIZIÈME LÉGISLATURE

 

Enregistré à la Présidence de l'Assemblée nationale le 21 septembre 2023.

RAPPORT

FAIT

AU NOM DE LA COMMISSION SPÉCIALE ([1])  CHARGÉE D’EXAMINER
LE PROJET DE LOI, ADOPTÉ PAR LE SÉNAT APRÈS ENGAGEMENT DE LA PROCÉDURE ACCÉLÉRÉE,

 

 

visant à sécuriser et réguler l’espace numérique

M. Paul MIDY,

Rapporteur général,

 

et

 

Mmes Mireille CLAPOT, Anne LE HÉNANFF,
M. Denis MASSÉGLIA, Mme Louise MOREL,
Rapporteurs thématiques

——

 

 

 Voir les numéros :

Sénat :  593, 777, 778 et T.A. 156 (20222023).

 Assemblée nationale :  1514 rect.

La commission spéciale est composée de :

M. Luc Lamirault, président ;

M. Mounir Belhamiti, M. Laurent Esquenet-Goxes, M. Victor Habert-Dassault, Mme Estelle Youssouffa, viceprésidents ;

Mme Céline Calvez, M. Alexandre Portier, M. Robin Reda, M. Hervé Saulignac, secrétaires ;

M. Paul Midy, rapporteur général ;

Mme Mireille Clapot, Mme Anne Le Hénanff, M. Denis Masséglia, Mme Louise Morel, rapporteurs thématiques ;

Mme Ségolène Amiot, Mme Bénédicte Auzanot, M. Erwan Balanant, M. Philippe Ballard, Mme Lisa Belluco, M. Éric Bothorel, M. Ian Boucard, M. Idir Boumertit, Mme Soumya Bourouaha, Mme Agnès Carel, M. Pierre Cazeneuve, Mme Émilie Chandler, M. André Chassaigne, Mme Clara Chassaniol, Mme Sophia Chikirou, Mme Fabienne Colboc, M. Jean-François Coulomme, M. Laurent Croizier, Mme Christelle D'Intorni, M. Arthur Delaporte, Mme Virginie Duby-Muller, Mme Christine Engrand, M. Frédéric Falcon, Mme Estelle Folest, M. Jean-Jacques Gaultier, M. Philippe Gosselin, M. Guillaume Gouffier Valente, Mme Géraldine Grangier, Mme Marie Guévenoux, M. Jordan Guitton, Mme Emeline K/Bidi, Mme Marietta Karamanli, M. Andy Kerbrat, M. Philippe Latombe, Mme Constance Le Grip, M. Antoine Léaument, Mme Christine Loir, M. Aurélien Lopez-Liguori, Mme Élisa Martin, M. Maxime Minot, M. Christophe Naegelen, Mme Caroline Parmentier, M. Emmanuel Pellerin, M. René Pilato, M. Jean-Claude Raux, M. Rémy Rebeyrotte, M. Alexandre Sabatou, M. Aurélien Saintoul, Mme Isabelle Santiago, Mme Violette Spillebout, M. Bruno Studer, M. Aurélien Taché, M. Antoine Villedieu, M. Stéphane Vojetta, M. Christopher Weissberg, Mme Caroline Yadan.

 


—  1  —

SOMMAIRE

___

Pages

AVANT-PROPOS DU RAPPORTEUR GÉNÉRAL

Principaux apports de la commission spéciale

COMMENTAIRES DES ARTICLES

Titre Ier PROTECTION DES MINEURS EN LIGNE

Section 1 Renforcement des pouvoirs de l’autorité de régulation de la communication audiovisuelle et numérique en matière de protection en ligne des mineurs

Article 1er Nouvelles missions confiées à l’Arcom en matière de contrôle de l’inaccessibilité aux mineurs des contenus pornographiques en ligne et d’établissement d’un référentiel obligatoire s’agissant des systèmes de vérification d’âge pour l’accès à ces contenus

Article 2 Renforcement des pouvoirs de contrôle et de sanction de l’Arcom en matière de restriction d’accès des mineurs aux sites pornographiques

Article 2 bis Obligations portant sur les boutiques d’applications logicielles en matière de restrictions d’accès des mineurs aux sites pornographiques et aux réseaux sociaux

Section 2 Pénalisation du défaut d’exécution en vingt-quatre heures d’une demande de l’autorité administrative de retrait de contenu pédopornographique

Article 3 Pénalisation du défaut d’exécution d’une demande de retrait de contenu pédopornographique par un hébergeur

Article 3 bis (nouveau) Remise d’un rapport du Gouvernement sur l’extension des compétences de l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication en matière de retraits de contenus

Titre II PROTECTION DES citoyens dans l’environnement numÉrique

Article 4 AA (nouveau) Extension du contenu de l’attestation scolaire de bon usage des outils numériques à l’intelligence artificielle et information annuelle des représentants légaux des élèves

Article 4 AB (nouveau) Remise d’un rapport du Gouvernement au Parlement sur les actions de prévention et de sensibilisation au harcèlement et au cyberharcèlement mises en place dans les établissements scolaires

Article 4 AC (nouveau) Généralisation de l’offre d’une identité numérique pour les Français

Article 4 A Avertissement sur le caractère illégal des comportements simulés dans des vidéos pornographiques

Article 4 B (supprimé) Obligation de retrait de contenus pornographiques diffusés en violation d’un accord de cession de droit

Article 4 Protection des citoyens contre les vecteurs de propagande étrangère manifestement destinés à la désinformation et à l’ingérence

Article 4 bis Pénalisation de l’hypertrucage publié sans consentement

Article 5 Peine complémentaire de suspension de l’accès à un service de plateforme en ligne

Article 5 bis Création d’un délit général d’outrage en ligne pouvant faire l’objet d’une amende forfaitaire délictuelle

Article 5 ter A (nouveau) Ajout dans le code pénal d’un stage de sensibilisation au respect des personnes dans l’espace numérique et à la prévention des infractions en ligne dont le cyber-harcèlement

Article 5 ter Création d’un délit de publication d’hypertrucage (deepfake) à caractère sexuel

Article 5 quater (nouveau) Ajout d’une circonstance aggravante à l’outrage sexiste et sexuel lorsqu’il est commis en ligne

Article 6 Déploiement d’un filtre national de cybersécurité grand public

TITRE III rENFORCER LA CONFIANCE ET LA CONCURRENCE DANS L’ÉCONOMIE DE LA DONNÉE

Chapitre Ier Pratiques commerciales déloyales entre entreprises sur le marché de l’informatique en nuage

Article 7 Encadrement des crédits d’informatique en nuage et des frais de transfert

Article 7 bis (nouveau) Encadrement des frais de transfert

Chapitre II Interopérabilité des services d’informatique en nuage

Article 8 Obligations d’interopérabilité et de portabilité à la charge des fournisseurs de services d’informatique en nuage

Article 9 Obligations d’interopérabilité et de portabilité à la charge des services d’informatique en nuage

Article 10 Compétence de l’Arcep pour constater et sanctionner les manquements aux obligations nouvelles supportées par les fournisseurs de services d’informatique en nuage

Chapitre II bis A Protection des données stratégiques et sensibles sur le marché de l’informatique en nuage

Article 10 bis A (supprimé) Renforcement de la protection des données sensibles dans le cadre des offres d’informatique en nuage souscrites par les autorités publiques

Article 10 bis B (nouveau) Renforcement des exigences de sécurité relatives à l'hébergement des données de santé

Chapitre II bis Transparence sur le marché de l’informatique en nuage

Article 10 bis Obligations renforcées de transparence et de sécurisation des données à destination des fournisseurs de services d’informatique en nuage

Chapitre III Régulation des services d’intermédiation des données

Article 11 Compétence de l’Arcep en matière de régulation des services d’intermédiation de données

Article 12 Compétence de l’Arcep en matière de régulation des services d’intermédiation de données

Article 13 Articulation de la compétence de la Cnil et de l’Arcep s’agissant des données à caractère personnel, dans le cadre de la mission de régulation des services d’intermédiation de données par l’Arcep

Article 14 Coordinations juridiques au sein du code des postes et des communications électroniques

titre iv assurer le développement en France de l’ Économie des objets de jeux numériques monétisables dans un cadre protecteur

Article 15 Encadrement des jeux à objet numérique monétisable (Jonum)

Article 15 bis (nouveau) Cadre de régulation de l’expérimentation des jeux à objets numériques monétisables (Jonum)

titre V Permettre à l’État d’analyser plus efficacement l’évolution des marchés numériques

Article 16 Élargissement des pouvoirs de collecte des données par le Pôle d’expertise de la régulation numérique (PEReN) pour des activités de recherche publique

Article 17 Centralisation des données devant être transmises par les opérateurs numériques aux communes en matière de location de meublés de tourisme

titre VI Renforcer la gouvernance de la régulation du numérique

Article 18 Coopération du coordinateur pour les services numériques avec le Pôle d’expertise de la régulation numérique

titre VII CONTRÔLE DES OPÉRATIONS DE TRAITEMENT DE DONNÉES À CARACTÈRE PERSONNEL EFFECTUÉES PAR LES JURIDICTIONS DANS L’EXERCICE DE LEUR FONCTION JURIDICTIONNELLE

Article 19 Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par le tribunal des conflits et les juridictions de l’ordre administratif

Article 20 Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions de l’ordre judiciaire et le Conseil supérieur de la magistrature

Article 21 Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions financières

titre viii adaptations du droit national

Chapitre Ier Mesures d’adaptation de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique

Article 22 Adaptation de la loi pour la confiance dans l’économie numérique (LCEN)

Article 23 Dispositions relatives au retrait des contenus terroristes et pédopornographiques

Article 24 Dispositions relatives au retrait judiciaire des contenus illicites et aux obligations des opérateurs de plateforme en ligne

Article 25 Adaptation de la loi du 21 juin 2004 pour la confiance dans l’économie numérique et désignation de l’Arcom en tant que coordinateur national pour les services numériques pour la France

Chapitre II Modification du code de la consommation

Article 26 Mise en cohérence du code de la consommation avec le règlement européen sur les services numériques (RSN)

Chapitre III Modification du code du commerce

Article 27 Adaptation du Code de commerce au règlement européen sur les marchés numériques

Chapitre IV Mesures d’adaptation de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication

Article 28 Adaptations de la loi du 30 septembre 1986 relative à la liberté de communication au règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques

Chapitre V Mesures d’adaptation de la loi relative à la lutte contre la manipulation de l’information

Article 29 Abrogation de trois dispositifs de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information

Chapitre VI Mesures d’adaptation du code électoral

Article 30 Rehaussement du seuil de connexions à partir duquel s’applique l’obligation, en période électorale, de tenue par les opérateurs de plateforme en ligne d’un registre public assurant la transparence sur les commanditaires de la publicité en ligne

Chapitre VII Mesures d'adaptation de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés

Article 31 Adaptations de la loi « informatique et libertés » au règlement européen portant sur la gouvernance européenne des données

Article 32 Adaptations de la loi « informatique et libertés » au règlement européen sur les services numériques

Chapitre VIII Mesures d’adaptation de la loi n° 47-585 du 2 avril 1947 relative au statut des entreprises du groupage et de distribution des journaux et publications périodiques

Article 33 Adaptations de la loi du 2 avril 1947 relative au statut des entreprises du groupage et de distribution des journaux et publications périodiques

Chapitre IX Mesures d’adaptation de la loi n° 2017-261 du 1er mars 2017 visant à préserver l’éthique du sport, à renforcer la régulation et la transparence du sport professionnel et à améliorer la compétitivité des clubs, du code de la propriété intellectuelle, de la loi  2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique et du code pénal

Article 34 Adaptations de la loi du 1er mars 2017 visant à préserver l’éthique du sport, du code de la propriété intellectuelle, de la loi du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles et du code pénal

Chapitre X Dispositions transitoires et finales

Article 35 Habilitation à légiférer par ordonnance pour l’application dans les territoires ultramarins du projet de loi et de plusieurs règlements européens

Article 36 Dispositions d’entrée en vigueur

TRAVAUX DE LA COMMISSION SPéciale

I. Audition de M. Jean-noël barrot, ministre délégUé auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique, ET discussion générale

1. Première réunion du mardi 19 septembre 2023, 15 heures

II. Examen DES ARTICLES

1. Deuxième réunion du mardi 19 septembre 2023 à 21 heures 30

2. Première réunion du mercredi 20 septembre 2023 à 9 heures 30

3. Deuxième réunion du mercredi 20 septembre 2023 à 15 heures

4. Troisième réunion du mercredi 20 septembre 2023 à 21 heures 30

5. Première réunion du jeudi 21 septembre 2023 à 9 heures 30

6. Deuxième réunion du jeudi 21 septembre 2023 à 15 heures

LISTE DES Personnes AUDITIONNÉES PAR LES RAPPORTEURS DE LA COMMISSION SPÉCIALE

Annexe : textes susceptibles d’être abrogés ou modifiés à l’occasion de l’examen du projet de loi visant à sécuriser et réguler l’espace numérique

 


—  1  —

 

   AVANT-PROPOS DU RAPPORTEUR GÉNÉRAL

Au premier semestre 2022, sous Présidence française de l’Union européenne, étaient adoptés les règlements européens sur les services numériques et les marchés numériques. Le premier doit rendre illégal en ligne ce qui est illégal dans le monde physique là où le second vise à lutter contre les quasi-monopoles des géants du numérique.

Ce besoin de régulation est à la fois une demande de nos concitoyens et de nos entreprises qui ont trop souvent le sentiment d’évoluer dans un « Far West » lorsqu’ils sont dans l’espace numérique : 50 % des arnaques ont maintenant lieu en ligne, 50 % de nos jeunes ont déjà été harcelés en ligne, 80 % de nos enfants ont été exposés à la pornographie en ligne, et on ne compte plus les injures misogynes, racistes, homophobes, antisémites, islamophobes qui envahissent les réseaux sociaux.

C’est pourquoi le présent projet de loi s’attache à assurer la mise en conformité de notre droit avec les règlements européens Data Government Act (DGA), Digital Services Act (DSA), Digital Markets Act (DMA), tout en portant l’ambition du Gouvernement français d’apporter plus de sécurité à nos concitoyens dans l’espace numérique.

Le présent projet de loi de loi marque une étape majeure pour rendre l’espace numérique au moins aussi sûr et civilisé que l’espace physique : il n’a pas vocation à changer les équilibres définis dans la vie physique mais à les traduire dans l’espace numérique avec ses spécificités.

Le projet de loi prévoit un ensemble de mesures pour améliorer le quotidien des Français sur internet. Cette loi doit nous permettre notamment de mettre en place des mesures très concrètes comme le filtre anti-arnaque, promis par le Président de la République, de lutter contre le cyberharcèlement et la violence sur les réseaux sociaux ou encore de protéger nos enfants de l’accès aux sites pornographiques.

Pour nos entreprises, la régulation n’est pas un manque d’ambition. Au contraire elle doit soutenir l’innovation. Une régulation souple, adaptée et bien calibrée sera favorable au développement de notre écosystème d’innovation. Elle doit à la fois permettre de lutter contre le monopole des géants du numérique, tout en inspirant l’Europe et le monde entier sur les règles à mettre en œuvre, permettant à nos champions français de prendre de l’avance comme nous avons su le faire par exemple pour le secteur des crypto-actifs.

Un principe fondamental a guidé les travaux sur ce texte, de sa conception à son examen au Parlement : la conformité des nouvelles normes proposées à la Constitution et au droit européen, et nous serons vigilants à maintenir les équilibres qui ont été trouvés dans le respect du droit fondamental.

Bien sûr, comme pour tout texte sur le numérique, les débats ont fait ressortir des sujets d’importance (les infrastructures, les casinos en ligne, etc.) mais qui n’ont pas toute leur place dans le présent projet de loi. Nous avons eu à cœur de rester fidèles à l’esprit du texte, à savoir la sécurisation et la régulation de l'espace numérique. À ce titre, il y a un sujet sur lequel nous avons fait le choix d’ouvrir le débat : celui de l’anonymat dans l’espace numérique, au cœur de notre capacité à rendre l’espace numérique vivable.

Enfin, je tiens à remercier le président de la commission spéciale Luc Lamirault pour sa conduite efficace des débats, les rapporteurs thématiques Louise Morel, Anne Le Hénanff, Denis Masséglia et Mireille Clapot pour leurs contributions exceptionnelles, l’ensemble des experts qui ont contribué à nos travaux préparatoires, ainsi bien sûr que l’ensemble de mes collègues qui ont montré, tout au long de l’examen du projet de loi en commission, un fort intérêt pour un texte ambitieux qui doit continuer à faire de la France une grande nation numérique.

 

 

 

 


—  1  —

   Principaux apports de la commission spéciale

● Le projet de loi visant à sécuriser et réguler l’espace numérique comprenait initialement trente-six articles dans sa version adoptée en conseil des ministres le 10 mai 2023.

Le Sénat en ajouté huit (2 bis, 4 A, 4 B, 4 bis, 5 bis, 5 ter, 10 bis A et 10 bis). Le projet qu’il a adopté en première lecture, le 5 juillet 2023, comprenait ainsi quarante-quatre articles.

● La commission a supprimé deux articles (4 B et 10 bis A). Sur les quarante-deux articles restants, elle en a adopté trente-six avec modifications (1, 2, 2 bis, 3, 4 A, 4, 5, 5 bis, 5 ter, 6, 7, 8, 9, 10, 10 bis, 11, 12, 13, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 28, 29, 31, 32, 33, 34 et 36) et six sans modification (4 bis, 14, 26, 27, 30 et 35).

La commission a également ajouté neuf articles (3 bis, 4 AA, 4 AB, 4 AC, 5 ter A, 5 quater, 7 bis, 10 bis B et15 bis). Elle a donc adopté au total cinquante-et-un articles.

1.   Modalités de contrôle de l’inaccessibilité aux mineurs des contenus pornographiques en ligne et sanctions encourues (articles 1 et 2)

La commission spéciale a ajouté la possibilité, pour l’L'Autorité de régulation de la communication audiovisuelle et numérique (Arcom), d’exiger des services de communication au public en ligne qu’ils conduisent un audit des systèmes de vérification de l’âge qu’ils mettent en œuvre. Elle devra rendre compte chaque année au Parlement de ces exigences. Le référentiel qu’elle établira et publiera sera actualisé en tant que de besoin dans le futur.

Par ailleurs, la commission spéciale a considérablement renforcé les sanctions encourues par les éditeurs, les fournisseurs de services d’accès à internet, les fournisseurs de systèmes de résolution de noms de domaine, les moteurs de recherche et les annuaires. Parallèlement, elle a raccourci de cinq jours à quarante-huit heures le délai laissé à ces quatre derniers acteurs pour bloquer ou déréférencer les services en cause.

2.   Extension du contenu de l’attestation scolaire de bon usage des outils numériques à l’intelligence artificielle et information annuelle des représentants légaux des élèves (article 4 AA)

La commission spéciale a complété l’article L. 312-9 du code de l’éducation afin :

– d’étendre le contenu de l’attestation scolaire délivrée à l’issue de l’école primaire et du collège et certifiant que les élèves ont bénéficié d’une sensibilisation au bon usage des outils numériques et des réseaux sociaux ainsi qu’aux risques liés à ces outils. Le contenu de cette attestation est étendu au bon usage des outils de l’intelligence artificielle, aux risques liés à l’ensemble de ces outils et aux contenus générés par l’intelligence artificielle ;

– de dispenser une information annuelle sur l’apprentissage de la citoyenneté́ numérique aux représentants légaux des élèves par un membre de l’équipe pédagogique.

3.   Généralisation de l’offre d’une identité numérique pour les Français (article 4 AC)

La commission spéciale a adopté un article qui fixe à l’État un objectif relatif au développement de l’identité numérique en prévoyant que 80 % des Français disposent d’une telle identité au 1er janvier 2027, et près de 100 % d’entre eux au 1er janvier 2030. En complément, il prévoit la remise d’un rapport du Gouvernement au Parlement, « sur sa capacité à généraliser l’identité numérique pour les Français et les actions et modifications législatives nécessaires pour mettre en œuvre cette généralisation ».

4.   Suppression de l’obligation pour les plateformes de retirer promptement tout contenu signalé comme étant diffusé en violation de l’accord de cession de droits (article 4 A)

La commission spéciale a supprimé l’article 4 A introduit par le Sénat, considérant qu’il ne constituait pas une solution satisfaisante au problème posé par les contrats de cession de droit à l’image dans le cadre de tournages pornographiques.

5.   Encadrement du dispositif de peine complémentaire de bannissement des réseaux sociaux (article 5)

● La commission a modifié la liste des délits pour lesquels une peine complémentaire de suspension de compte peut être prononcée, en ajoutant notamment le délit d’entrave à l’avortement. Elle a retiré plusieurs délits ajoutés par le Sénat, considérant que ces délits ne présentaient pas un rapport direct avec la liberté d’expression et les réseaux sociaux.

● Dans le même souci de conserver un dispositif équilibré, la commission a supprimé la possibilité pour le juge de prononcer une interdiction d’accès à des comptes dans le cadre d’un sursis probatoire. Elle a également encadré le recours à l’interdiction d’utiliser les comptes dans le cadre d’une alternative à la peine et d’une composition pénale.

6.   Application de l’amende forfaitaire délictuelle (AFD) pour certaines infractions commises dans l’espace numérique (articles 5 bis et 5 quater)

● La commission a réécrit, par l’adoption d’amendements identiques de rédaction globale, l’article 5 bis, introduit par le Sénat.

Elle a conservé le principe d’une amende forfaitaire délictuelle (AFD) de 300 euros pour certains faits commis en ligne, mais a recentré le dispositif sur les infractions existantes suivantes :

– les injures et diffamations publiques racistes, c’est à dire à raison de l’origine ou de l’appartenance ou de la non-appartenance à une ethnie, une nation, une race ou une religion déterminée ;

– et les injures et diffamations publiques sexistes, homophobes, handiphobes et transphobes, c’est-à-dire à raison du sexe, de l’orientation sexuelle, de l’identité de genre ou du handicap.

● Dans le même esprit, la commission a inséré un nouvel article (5 quater) qui crée une nouvelle circonstance aggravante pour l’outrage sexiste et sexuel lorsqu’il est commis en ligne, ce qui permet, dans ce cas, une qualification délictuelle et la délivrance d’une AFD de 300 euros.

7.   Création d’un stage de sensibilisation au respect des personnes dans l’espace numérique (article 5 ter A)

La commission a inséré un nouvel article (5 ter A) créant un nouveau type de stage dans le code pénal dédié à la sensibilisation au respect des personnes dans l’espace numérique.

Cette peine de stage pourra être prononcée à l’encontre des auteurs des délits punis d’une peine d’emprisonnement.

8.   Adaptations du filtre « anti-arnaque » : inclusion des faux sites de vente, affirmation du principe d’un filtrage pour les navigateurs, suppression de l’avis conforme de la personnalité qualifiée pour la prolongation de la mesure (article 6)

La commission a procédé à plusieurs adaptations du filtre « anti-arnaque » dont les principales ont consisté à :

 – inclure les faux sites de vente dans le champ du filtre « anti-arnaque » en visant les techniques de hameçonnage qui incitent l’utilisateur, à son préjudice ou au préjudice d’un tiers, à fournir des données personnelles ou à verser une somme d’argent ;

– limiter au filtrage, à l’exclusion du blocage, le type de mesures pouvant être demandées aux fournisseurs de navigateurs ;

– et supprimer l’avis conforme de la personnalité qualifiée pour la prolongation de la mesure.

9.   Encadrement des frais de transfert (article 7 bis)

La commission a renforcé l’encadrement des frais de transfert en fixant un cadre complet de régulation au sein d’un nouvel article 7 bis.

Cet article interdit aux fournisseurs de services d’informatique en nuage de facturer à un client souhaitant migrer vers un fournisseur tiers des frais de transfert de données et des frais de changement de fournisseur supérieurs aux coûts réels supportés par le fournisseur initial, et confie à l’Arcep le soin d’édicter des lignes directrices portant sur les coûts susceptibles d’être pris en compte dans la détermination des frais de changement de fournisseur de services d’informatique en nuage.

10.   Suppression de l’obligation pour les fournisseurs de service d’informatique en nuage d’être certifiés SecNumCloud pour pouvoir héberger des données sensibles (article 10 bis A)

La commission a supprimé l’article 10 bis A qui prévoyait que l’hébergement des données sensibles des administrations publiques devait impérativement se faire par le biais d’une solution d’informatique en nuage certifiée SecNumCloud.

La commission a en effet estimé qu’il n’était pas opportun d’inscrire, dans la loi, le contenu de la circulaire du 31 mai 2023, qui prévoit d’ores et déjà une telle obligation. Elle a en outre estimé qu’il existait un risque élevé d’effets contreproductifs compte tenu de l’offre insuffisante de services d’informatique en nuage certifiés SecNumCloud.

11.   Obligation pour les hébergeurs de données de santé d’être certifiés SecNumCloud (article 10 bis B) à compter du 1er juillet 2024

La commission a renforcé les contraintes de sécurisation des données de santé, en prévoyant qu’à compter du 1er juillet 2024, pour être autorisés à héberger des données de santé, les hébergeurs de données devront satisfaire aux exigences fixées par le référentiel de sécurité SecNumCloud publié par l’Agence nationale de sécurité des systèmes d’information (Anssi).

12.   Définition d’un cadre de régulation rigoureux pour l’expérimentation des jeux à objets numériques monétisables (article 15 bis)

La commission a adopté un cadre robuste de régulation afin d’encadrer l’expérimentation des jeux à objets numériques monétisables (Jonum) prévue par l’article 15 du projet de loi.

Dans cette perspective, l’Autorité nationale des jeux (ANJ) se voit doter de pouvoirs renforcés pour contrôler les obligations que devront respecter les entreprises de Jonum, en termes de respect des procédures de vérification d’âge et d’identité, de protection des joueurs contre le jeu excessif, et enfin de lutte contre le blanchiment de capitaux et contre le financement du terrorisme, et pour sanctionner tout manquement éventuel constaté.

13.   Ouverture aux avocats généraux de la fonction d’autorité de contrôle des traitements de données à caractère personnel effectués par les juridictions de l’ordre judicaire et leurs ministères publics (article 20)

La commission a ouvert la composition de l’autorité instituée par l’article 20 aux magistrats hors hiérarchie du parquet général de la Cour de cassation. La commission a en effet considéré qu’aucune raison objective, au regard des objectifs poursuivis, n’imposait que seul un magistrat du siège de la Cour de cassation pouvait être élu pour exercer les fonctions d’autorité de contrôle.

14.   Abrogation de trois dispositifs de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information (article 29)

La commission spéciale a rétabli l’article 29 dans sa version résultant du projet de loi initialement déposé par le Gouvernement.

15.   Renforcement des sanctions pouvant être prononcées par la Cnil dans le cadre de sa mission de surveillance des fournisseurs de plateformes en ligne au titre de leurs obligations issues du RSN (article 32)

L’article 32 permet au président de la Commission nationale de l’informatique et des libertés (Cnil) d’adopter des injonctions à caractère provisoire, assortie d’une astreinte, en cas de manquement aux règles issues du règlement sur les services numériques (RSN) susceptibles de « créer un dommage grave ».

La commission a réintroduit la possibilité, supprimée par le Sénat, de calculer le montant de l’astreinte journalière que peut imposer la Cnil à un fournisseur de plateforme en ligne en fonction de ses revenus.

Elle a également porté le montant maximal de l’astreinte encourue au montant maximal de l’amende encoure, soit 5 % du chiffre d’affaires mondial hors taxes journalier moyen réalisé par le mis en cause au cours du dernier exercice clos, à compter de la date figurant dans l’injonction.

 

 

 


—  1  —

   COMMENTAIRES DES ARTICLES

Titre Ier
PROTECTION DES MINEURS EN LIGNE

Section 1
Renforcement des pouvoirs de l’autorité de régulation de la communication audiovisuelle et numérique en matière de protection en ligne des mineurs

Article 1er
Nouvelles missions confiées à l’Arcom en matière de contrôle de l’inaccessibilité aux mineurs des contenus pornographiques en ligne et d’établissement d’un référentiel obligatoire s’agissant des systèmes de vérification d’âge pour l’accès à ces contenus

Adopté par la commission avec modifications

Le présent article confie à l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) la compétence de veiller à ce que les contenus pornographiques mis en ligne ne puissent être accessibles aux mineurs, en s’assurant que les éditeurs de tels services vérifient préalablement l’âge de leurs utilisateurs.

L’Arcom est chargée d’établir et de publier, après consultation de la Commission nationale de l’informatique et des libertés (Cnil), un référentiel déterminant les exigences techniques auxquelles devraient répondre les systèmes de vérification d’âge tout en respectant la vie privée des utilisateurs.

Le présent article a été adopté par le Sénat avec plusieurs modifications, en lien avec les modifications apportées à l’article 2, afin de distinguer le rôle de l’Arcom s’agissant de l’établissement du référentiel, et son rôle d’autorité administrative dotée de pouvoirs de sanction.

Le présent article a été adopté par la commission modifié par plusieurs amendements de la rapporteure qui prévoient notamment l’actualisation du référentiel en tant que de besoin et la possibilité pour l’Arcom d’exiger des services de communication au public en ligne qu’ils conduisent un audit des systèmes de vérification de l’âge qu’ils mettent en œuvre. L’Arcom devra rendre compte chaque année au Parlement de ces exigences.

II.   Le droit en vigueur

La description du droit en vigueur concerne les articles 1er et 2 du présent projet de loi, dont les dispositifs sont liés.

A.   La multiplication des dispositions de vérification de l’âge des internautes

1.   La protection des jeunes internautes

La diversité des offres de services sur internet et le caractère inapproprié voire dangereux de certains contenus accessibles dans cet espace numérique a entraîné, dans une volonté de protection de la jeunesse en ligne, la mise en place d’obligations légales de vérification de l’âge des utilisateurs. La combinaison des législations européenne et française a contraint les sites proposant certaines prestations de services en ligne ou la vente en ligne de certains biens spécifiques à mettre en place des dispositifs de contrôle et de justification d’identité ou d’âge pour accéder à ceux-ci. Sont par exemple concernées les activités relatives aux jeux d’argent et de hasard, aux paris, la vente d’alcool ou, plus classiquement, les services bancaires.

La massification et l’autonomisation des pratiques numériques des jeunes publics les exposent à un flot de contenus dont le contrôle échappe largement aux parents, en particulier sur les réseaux sociaux. Ainsi, deux récentes lois sont venues renforcer les mesures de contrôle des utilisateurs mineurs, en exigeant des solutions techniques robustes.

La loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet impose aux fabricants d’installer sur les appareils connectés à internet vendus en France des dispositifs de contrôle par les parents facilement accessibles et compréhensibles. Les fabricants doivent ainsi s’assurer que les systèmes d’exploitation installés sur leurs appareils incluent bien un tel logiciel de contrôle. Les importateurs, les distributeurs et les commerçants vendant des appareils d’occasion doivent vérifier que les produits sont certifiés par les fabricants. Le décret n° 2023-588 du 11 juillet 2023 pris pour l’application de l’article 1er de la loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet précise les exigences techniques du dispositif et prévoit son entrée en vigueur en juillet 2024.

La loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne instaure une majorité numérique à 15 ans, âge à partir duquel un mineur n’aurait plus besoin du consentement de ses parents pour s’inscrire sur un réseau social. Ce dispositif suppose la mise en place, par les fournisseurs de services de réseaux sociaux, d’une solution technique conforme à un référentiel élaboré par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), après consultation de la Commission nationale de l’informatique et des libertés (Cnil). Cette loi entrera en vigueur au plus tard trois mois après la date de réception par le Gouvernement de la réponse de la Commission européenne permettant de considérer le dispositif notifié comme conforme au droit de l’Union européenne. Les fournisseurs de réseaux sociaux en ligne pourront être sanctionnés par le président du tribunal judiciaire de Paris, saisi par l’Arcom, s’ils n’ont pas mis en place ladite solution technique un an après l’entrée en vigueur de la loi.

La robustesse des solutions techniques de vérification d’âge doit permettre d’assurer, d’une part, l’effectivité de la loi en évitant le contournement des dispositifs par les mineurs et, d’autre part, sa compatibilité avec les exigences de protection de la vie privée de l’ensemble des utilisateurs et en particulier avec le règlement général sur la protection des données (RGPD) ([2]).

2.   Un motif de préoccupation grandissant s’agissant de l’accès aux contenus pornographiques

L’enjeu est particulièrement grave et sensible s’agissant du contrôle de l’inaccessibilité des mineurs aux sites pornographiques.

Le rapport de la délégation aux droits des femmes du Sénat intitulé Porno : l’enfer du décor ([3]) a décrit la massification de l’accès à la pornographie en ligne. Les rapporteures ont fait état de 19 millions de visiteurs uniques de sites pornographiques par mois en France (dont 1,2 million d’enfants de moins de 15 ans). Plus précisément, 95 % des garçons mineurs ont déjà vu des contenus pornographiques, dont 36 % avant 13 ans et 11 % avant 11 ans.

Les risques psychologiques et psychopathologiques induits par le visionnage précoce et massif de ces contenus pourtant interdits aux mineurs sont tels qu’il est devenu urgent d’assurer l’effectivité de la loi par un système de vérification d’âge fiable et utilisé par tous les éditeurs de sites pornographiques.

B.   La difficile mise en œuvre de l’article 227-24 du code pénal

L’article 227-24 du code pénal punit de trois ans d’emprisonnement et de 75 000 euros d’amende le fait « soit de fabriquer, de transporter, de diffuser par quelque moyen que ce soit et quel qu’en soit le support un message à caractère violent, incitant au terrorisme, pornographique, y compris des images pornographiques impliquant un ou plusieurs animaux, ou de nature à porter gravement atteinte à la dignité humaine ou à inciter des mineurs à se livrer à des jeux les mettant physiquement en danger, soit de faire commerce d’un tel message […] lorsque ce message est susceptible d’être vu ou perçu par un mineur ».

Il résulte de cet article que l’accès des mineurs aux sites pornographiques est interdit.

L’article 22 de la loi n° 2020-936 du 30 juillet 2020 visant à protéger les victimes de violences conjugales a complété le dispositif de l’article 227-24 du code pénal afin de prévoir qu’un éditeur de contenu pornographique en ligne ne puisse s’exonérer de sa responsabilité pénale en se contentant de demander à l’internaute de déclarer qu’il est âgé de plus de dix-huit ans. Cet article a codifié la jurisprudence de la Cour de cassation précisant que le délit peut être constitué lorsque l’auteur des faits a manqué de toute prudence ([4]) mais aussi si les précautions prises sont insuffisantes, par exemple lorsqu’elles consistent en une simple déclaration d’un âge supérieur à dix-huit ans ([5]).

Ce dispositif ne crée pas d’obligation de moyens pour les éditeurs qui restent libres du choix de la solution technique à mettre en œuvre pour assurer le contrôle de l’âge de l’utilisateur.

L’article 23 de la loi du 30 juillet 2020 précitée a créé une nouvelle procédure permettant au président de l’Arcom d’enjoindre à l’éditeur d’un site qui ne respecterait pas l’article 227-24 du code pénal de prendre toute mesure pour bloquer l’accès aux contenus pornographiques pour les utilisateurs mineurs, y compris sur les sites « miroirs » c’est-à-dire des sites identiques accessibles par d’autres adresses URL ([6]).

En cas d’inexécution de l’injonction dans un délai de quinze jours et si le contenu reste accessible aux mineurs, le président de l’Arcom peut saisir le président du tribunal judiciaire de Paris afin qu’il ordonne aux fournisseurs de services d’accès à internet (FAI), selon la procédure accélérée au fond, de mettre fin à l’accès à ces services, c’est-à-dire de mettre en œuvre une mesure de blocage ([7]). Selon la même procédure, le président du tribunal judiciaire de Paris peut ordonner le déréférencement du service par un moteur de recherche ou un annuaire. Le président de l’Arcom peut agir d’office ou sur saisine du ministère public ou de toute personne physique ou morale ayant intérêt à agir, telles que des associations de protection de l’enfance, par exemple.

Ce dispositif s’inspire de celui mis en place pour lutter contre les cercles de jeu en ligne illégaux, qui repose sur le contrôle exercé par l’Autorité de régulation des jeux en ligne (Arjel).

L’article 3 du décret n° 2021-1306 du 7 octobre 2021 relatif aux modalités de mise œuvre des mesures visant à protéger les mineurs contre l’accès à des sites diffusant un contenu pornographique précise que le président de l’Arcom « tient compte du niveau de fiabilité du procédé technique mis en place par [l’éditeur du service] afin de s’assurer que les utilisateurs souhaitant accéder au service sont majeurs. » Il précise par ailleurs que l’Arcom peut adopter des lignes directrices concernant la fiabilité de ces procédés techniques, après consultation éventuelle de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) et de la Cnil. Ces lignes directrices n’ont pas été adoptées et la pratique d’un contrôle de l’âge des internautes via une simple question sur le modèle : « Avez-vous 18 ans ? » reste majoritaire ([8]). 

Les travaux de mise en place d’un référentiel

La Cnil a publié en juillet 2022 sa position sur les dispositifs de contrôle de l’âge sur internet et notamment sur les sites à caractère pornographique. En février 2023 a été lancée une expérimentation d’une solution conforme à ses recommandations, développée avec le Pôle d’expertise de la régulation numérique de l’État (PEReN) et permettant de concilier la protection de l’enfance et le respect de la vie privée. Le mécanisme repose sur deux principes combinés, le double anonymat : « celui qui certifie que vous avez l’âge requis sait qui vous êtes mais ne sait pas quel site vous visitez ; le site visité reçoit la preuve que vous avez l’âge requis mais ne sait pas qui vous êtes » (1). La Cnil préconise le recours à un tiers de confiance indépendant pour assurer cette certification.

Vérification de l’âge via un tiers de confiance. Schéma du fonctionnement de la solution, du point de vue de l’utilisateur ou de l’utilisatrice (Cnil)

(1)    Contrôle de l’âge pour l’accès aux sites pornographiques, 21 février 2023, Cnil.

C.   Dans l’attente de plusieurs décisions de justice, un dispositif ineffectif

1.   Plusieurs procédures judiciaires et administratives en cours

● Saisie par trois associations ([9]) , l’Arcom, a, le 13 décembre 2021, mis en œuvre l’article 23 de la loi du 30 juillet 2020 précitée en mettant en demeure les sociétés éditrices des sites Pornhub ([10]), Tukif ([11]), Xhamster ([12]), Xnxx ([13]) et Xvideos ([14]) de se conformer à l’obligation légale d’empêcher l’accès des mineurs à leurs contenus en application de l’article 227-24 du code pénal. Ces mises en demeure n’ayant pas été suivies d’effet, le président de l’Arcom a, le 8 mars 2022, saisi le président du tribunal judiciaire de Paris pour qu’il ordonne aux principaux FAI le blocage des services en cause.

● Postérieurement, l’Arcom a également mis en demeure plusieurs autres sociétés d’empêcher l’accès des mineurs aux sites pornographiques qu’elles éditent.

● Trois mises en demeure ont été contestées devant le juge administratif.

● Le décret n° 2021-1306 du 7 octobre 2021 relatif aux modalités de mise œuvre des mesures visant à protéger les mineurs contre l’accès à des sites diffusant un contenu pornographique fait actuellement l’objet d’un recours en annulation devant le Conseil d’État ([15]). Le 7 juillet 2023, alors que plusieurs décisions judiciaires étaient attendues s’agissant des cinq sites mis en cause par l’Arcom depuis 2021, le tribunal judiciaire de Paris a décidé de surseoir à statuer dans l’attente de l’issue des recours contre ledit décret.

2.   Le rejet d’une question prioritaire de constitutionnalité par la Cour de cassation

Par ailleurs, la loi n’ayant pas prescrit d’exigences techniques relatives aux systèmes de vérification d’âge, plusieurs éditeurs de sites pornographiques mis en demeure par l’Arcom ont contesté la conformité de l’article 23 de la loi du 30 juillet 2020 précitée et de l’article 227-24 du code pénal aux principes de légalité des délits et des peines et de la liberté d’expression et de communication, par la voie d’une question prioritaire de constitutionnalité (QPC).

Dans sa décision du 5 janvier 2023 ([16]), la Cour de cassation a jugé qu’il n’y avait pas lieu de transmettre la QPC au Conseil constitutionnel pour deux motifs :

– en premier lieu, les dispositifs législatifs en cause sont « suffisamment clairs et précis pour exclure tout risque d’arbitraire » ;

– en second lieu, « l’atteinte portée à la liberté d’expression, en imposant de recourir à un dispositif de vérification de l’âge de la personne accédant à un contenu pornographique, autre qu’une simple déclaration de majorité, est nécessaire, adaptée et proportionnée à l’objectif de protection des mineurs ».

III.   Le dispositif proposé

Le faible nombre de condamnations sur le fondement du dispositif ci-avant présenté démontre qu’imposer une simple obligation de résultat aux éditeurs de sites pornographiques est inopérant. Le prétexte des obstacles techniques qu’ils mettent en avant doit être surmonté. Dans sa rédaction initiale, commentée ci-après, l’article 1er du projet de loi confie à l’Arcom un nouveau pouvoir de contrôle, assorti de la possibilité de prononcer, le cas échéant, des sanctions pécuniaires (amende administrative).

Dans sa version initiale, l’article 1er propose ainsi une nouvelle rédaction de l’article 10 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN ») ([17]), afin de confier à l’Arcom la responsabilité de veiller à ce que les contenus pornographiques mis en ligne ne puissent pas être accessibles aux mineurs (I).

Pour ce faire, l’Arcom devra élaborer, après avis de la Cnil, un référentiel général déterminant les exigences techniques auxquelles devront répondre les systèmes de vérification de l’âge mis en place pour l’accès aux sites internet comportant des contenus pornographiques. Ces exigences porteront sur la fiabilité du contrôle de l’âge des utilisateurs et le respect de leur vie privée (I).

Dès que ce référentiel aura été élaboré, l’Arcom pourra mettre en demeure tout éditeur de site comportant des contenus pornographiques de s’y conformer et ce sous un délai d’un mois. Ce dispositif est assorti de la possibilité, pour le régulateur, de prononcer une sanction pécuniaire dans les conditions prévues à l’article 42-7 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication, c’est-à-dire sous la responsabilité d’un rapporteur nommé par le vice-président du Conseil d’État, après avis de l’Arcom. Ce rapporteur assure l’engagement des poursuites et l’instruction préalable au prononcé des sanctions (II).

La sanction ne pourra excéder 75 000 euros ou 1 % du chiffre d’affaires mondial hors taxes réalisé au cours de l’exercice précédent, le plus élevé des deux montants étant retenu (150 000 euros ou 2 % du chiffre d’affaires mondial hors taxes en cas de réitération du manquement dans un délai de cinq ans après une première sanction). Le montant de la sanction prendra en compte la nature, la gravité et la durée du manquement ainsi que, le cas échéant, les avantages tirés de ce manquement et les manquements commis précédemment (II).

Le dispositif de l’article 23 de la loi du 30 juillet 2020 précitée est réécrit par l’article 2 du présent projet de loi.

IV.   Les modifications apportées par le Sénat

L’article 1er du projet de loi a été adopté par le Sénat, tout comme l’article 2, après une réorganisation de leur articulation afin de distinguer le rôle de l’Arcom s’agissant de l’établissement du référentiel, et son rôle d’autorité administrative dotée de pouvoirs de sanction.

Le Sénat a choisi de cantonner l’article 1er à la description de la responsabilité de l’Arcom s’agissant de l’inaccessibilité des contenus pornographiques en ligne aux mineurs et de l’élaboration et la publication du référentiel. L’article 2 aurait dès lors trait à la description de l’ensemble des pouvoirs de l’Arcom pour lutter contre l’accessibilité de ces mêmes contenus, à savoir une procédure administrative de mise en demeure de retirer les contenus en cause avec sanction pécuniaire et, le cas échéant, mesure administrative de blocage et de déréférencement du site.

À l’initiative de son rapporteur, la commission spéciale a donc adopté un amendement ([18]) supprimant le II (le déplaçant par ailleurs à l’article 2 du présent projet de loi ([19])) et précisant le reste du dispositif :

– l’obligation de vérifier l’âge des utilisateurs repose sur les éditeurs ;

– l’Arcom « établit et publie » le référentiel.

En séance publique ([20]), le Sénat a complété l’article afin de prévoir que l’Arcom établisse et publie le référentiel dans un délai de six mois après la promulgation de la loi, réécrivant de ce fait un amendement adopté par la commission spéciale ([21]).

V.   Les modifications apportÉes par la commission

Outre un amendement rédactionnel, la commission spéciale a adopté quatre amendements de la rapporteure et un amendement identique de M. Bataillon (RE) qui précisent l’objectif et les conditions de mise en place du référentiel que l’Arcom devra établir et publier.

● Répondant à une préoccupation partagée par plusieurs membres de la commission spéciale, l’amendement CS887 de la rapporteure rappelle que c’est dans le cadre de l’article 227-24 du code pénal que le renforcement des pouvoirs de l’Arcom s’inscrit. La mention de cet article permet de réaffirmer que se cumuleront, pour les éditeurs, l’obligation de résultat prévue au code pénal et l’obligation de moyens prévue au présent article.

● Les amendements identiques CS735 de la rapporteure et CS710 de M.  Bataillon ont été adoptés afin de répondre aux besoins futurs d’actualisation du référentiel. Ils prévoient, d’une part, l’actualisation du référentiel en tant que de besoin et, d’autre part, la possibilité pour l’Arcom d’exiger des éditeurs qu’ils conduisent un audit des systèmes de vérification de l’âge qu’ils mettent en œuvre afin d’en attester la conformité avec les caractéristiques techniques définies par le référentiel. Le référentiel devra préciser les modalités de réalisation et de publicité de cet audit, qui, en tout état de cause, devra être confié à un organisme indépendant disposant d’une expérience avérée.

L’objectif de ce dispositif est de faciliter le contrôle et la redevabilité des systèmes de vérification d’âge en mettant à disposition du public et du régulateur des informations sur la performance des solutions mises en œuvre. Les audits devraient également permettre aux éditeurs de sites de s’appuyer sur une expertise objective, afin d’améliorer leurs systèmes de vérification d’âge.

● L’adoption de l’amendement CS878 de la rapporteure complète les obligations des éditeurs : ceux-ci devront prévoir l’affichage d’un écran noir ne comportant aucun contenu à caractère pornographique tant que l’âge de l’utilisateur n’aura pas été vérifié. Ce complément reprend, en l’explicitant, la recommandation n° 13 ([22]) du rapport du Sénat n° 900 (2021‑2022) « Porno : l’enfer du décor ».

● Enfin, l’amendement CS741 de la rapporteure prévoit que l’Arcom rende compte chaque année au Parlement des actualisations du référentiel et des audits des systèmes de vérification de l’âge mis en œuvre par les éditeurs.

 

Article 2
Renforcement des pouvoirs de contrôle et de sanction de l’Arcom en matière de restriction d’accès des mineurs aux sites pornographiques

Adopté par la commission avec modifications

Le présent article s’articule avec l’article 1er du présent projet de loi.

Il transforme la procédure judiciaire de blocage et de déréférencement des sites ne respectant pas la restriction d’accès aux mineurs conformément au référentiel mentionné audit article 1er en procédure administrative de mise en demeure et de sanction pécuniaire, confiée également à l’Arcom et sous le contrôle a posteriori du juge administratif, après une phase contradictoire préalable auprès de l’éditeur.

Le présent article a été adopté par le Sénat avec plusieurs modifications qui déplacent le dispositif au sein de la LCEN et prévoient la mise en place d’un système de sanction pécuniaire modulée selon le degré de coopération de l’éditeur et la simultanéité des procédures de mise en demeure des éditeurs et d’injonction de blocage et de déréférencement de leurs adresses électroniques auprès des FAI, moteurs de recherche ou annuaires.

La commission spéciale a adopté plusieurs amendements qui renforcent les sanctions encourues par les éditeurs de services de communication au public en ligne mettant à la disposition du public des contenus pornographiques : doublement des sanctions qu’ils encourent ; doublement, à dix ans, du délai de réitération du manquement par un même éditeur, fournisseur de services d’accès à internet, fournisseur de systèmes de résolution de noms de domaine, moteur de recherche ou annuaire ; et retenue du plus élevé des deux montants de sanctions s’agissant des amendes encourues entre le montant mentionné en valeur absolue et celui qui résulte d’une fraction du chiffre d’affaires réalisé par l’éditeur en cause.

Par ailleurs, le délai laissé aux moteurs de recherche et annuaires pour effectuer le déréférencement des services a été aligné sur celui des fournisseurs d’accès à internet et des fournisseurs de systèmes de résolution de noms de domaine (quarante-huit heures).

Enfin, le rapport d’activité que devra publier l’Arcom mentionnera les éventuelles décisions de justice prises sur les recours engagés contre les décisions d’injonction qu’elle aura prononcées.

  1.   Le droit en vigueur

Voir le commentaire de l’article 1er.

II.   Le dispositif proposé

Le présent article 2 propose une nouvelle rédaction de l’article 23 de la loi du 30 juillet 2020 visant à protéger les victimes de violences conjugales afin de substituer à la procédure judiciaire de blocage et de déréférencement des sites permettant à des mineurs d’avoir accès à un contenu pornographique en violation de l’article 227-24 du code pénal une procédure administrative, relevant de la responsabilité exclusive de l’Arcom.

A.   Une procédure administrative de blocage et de déréférencement des services

Premièrement, alors que la procédure administrative en vigueur débute par une mise en demeure de l’éditeur d’un site par le président de l’Arcom, le nouveau I de l’article 23 précité crée une première étape au cours de laquelle l’éditeur est avisé par une lettre d’observations motivée du président de l’Arcom. Le destinataire de la lettre dispose d’un délai de quinze jours pour présenter ses observations.

Deuxièmement, si le président de l’autorité de régulation estime, à l’issue de ce délai de quinze jours, que les faits sont caractérisés, alors seulement peut-il mettre en demeure la personne concernée de prendre toute mesure de nature à empêcher l’accès des mineurs au contenu incriminé. Le délai d’exécution de cette injonction – dont une copie est adressée aux FAI – ne peut être inférieur à quinze jours.

Troisièmement, alors qu’en application des dispositions actuellement en vigueur le président de l’Arcom peut saisir le président du tribunal judiciaire de Paris afin qu’il ordonne aux FAI, moteurs de recherche et annuaires, selon la procédure accélérée au fond mais sans délai d’exécution, de mettre en œuvre une mesure de blocage et de déréférencement du service, le nouveau II de l’article 23 précité donne directement pouvoir à l’Arcom (et non seulement à son président) de notifier aux FAI les adresses électroniques des services ayant fait l’objet d’une injonction, ainsi que celles des services qui reprennent le même contenu et qui présentent les mêmes modalités d’accès (c’est-à-dire les sites miroirs). Les FAI doivent alors empêcher l’accès à ces adresses dans un délai de quarante-huit heures. Toutefois, si l’éditeur n’a pas mis à disposition sur son site ses coordonnées, l’Arcom peut directement notifier les adresses électroniques sans procéder à l’envoi de la lettre d’observations et à la mise en demeure prévues au I. L’Arcom procède de même avec les moteurs de recherche et les annuaires, qui disposent quant à eux d’un délai de cinq jours pour procéder au déréférencement du service.

Quatrièmement, les procédures administratives de blocage et de déréférencement sont prononcées pour une durée maximale de vingt-quatre mois avec réévaluation – d’office ou sur demande – tous les douze mois, sauf si les faits ne sont plus constitués (les mesures sont alors levées).

Par ailleurs, l’Arcom est tenue de publier annuellement un rapport d’activité sur la mise en œuvre de ce dispositif renseignant notamment le nombre de décisions d’injonction et les suites qui y sont données, ainsi que le nombre d’adresses électroniques ayant fait l’objet d’une mesure de blocage d’accès ou de déréférencement. Ce rapport est transmis au Gouvernement et au Parlement.

B.   Un droit au recours pour les personnes mises en demeure ou destinataires d’une injonction

Le nouveau III de l’article 23 précité prévoit la possibilité pour les éditeurs, les FAI, les moteurs de recherche et les annuaires de demander au président du tribunal administratif (ou au magistrat délégué par celui-ci) l’annulation des mesures prononcées par l’Arcom dans un délai de cinq jours à compter de leur réception. La procédure de référé prévue aux articles L. 521-1 et L. 521 2 du code de justice administrative est applicable. Le tribunal statue dans un délai d’un mois à l’issue d’une audience publique et sans conclusions du rapporteur public. Une procédure d’appel est possible dans un délai de dix jours. Le délai octroyé à la juridiction d’appel est alors de trois mois.

C.   Une sanction pécuniaire prévue à chaque étape de la procédure administrative

Le nouveau IV de l’article 23 précité prévoit la possibilité pour l’Arcom de prononcer une sanction pécuniaire « pour tout manquement aux obligations prévues [à ce même article] » dans les conditions fixées à l’article 42-7 de la loi du 30 septembre 1986 précitée c’est-à-dire sous la responsabilité d’un rapporteur nommé par le vice-président du Conseil d’État, après avis de l’Arcom. Ce rapporteur assure l’engagement des poursuites et l’instruction préalable au prononcé des sanctions.

Toutefois, aucune sanction ne peut être prononcée lorsqu’en raison de motifs de force majeure ou d’impossibilité de fait qui ne lui sont pas imputables, la personne concernée est placée dans l’impossibilité de respecter l’obligation qui lui a été faite, ou lorsqu’un recours est engagé, tant qu’elle n’a pas fait l’objet d’une décision devenue définitive.

Pour les manquements aux obligations prévues au I de l’article 23 précité, c’est-à-dire les manquements éventuels des éditeurs, la sanction ne peut excéder 250 000 euros ou 4 % du chiffre d’affaires mondial hors taxes réalisé au cours de l’exercice précédent, le plus élevé des deux montants étant retenu (500 000 euros ou 6 % du chiffre d’affaires mondial hors taxes en cas de réitération du manquement dans un délai de cinq ans après une première sanction).

Pour les manquements aux obligations prévues au II c’est-à-dire les manquements éventuels des FAI, moteurs de recherche ou annuaires, la sanction ne peut excéder 75 000 euros ou 1 % du chiffre d’affaires mondial hors taxes réalisé au cours de l’exercice précédent, le plus élevé des deux montants étant retenu (150 000 euros ou 2 % du chiffre d’affaires mondial hors taxes en cas de réitération du manquement dans un délai de cinq ans après une première sanction).

Dans les deux cas, le montant de la sanction prend en compte la nature, la gravité et la durée du manquement ainsi que, le cas échéant, les avantages tirés de ce manquement et les manquements commis précédemment.

Lorsque sont prononcées, à l’encontre de la même personne, une amende administrative en application du présent article et une amende pénale à raison des mêmes faits (sur le fondement de l’article 227-24 du code pénal), le montant global des amendes prononcées ne peut pas dépasser le maximum légal le plus élevé des sanctions encourues.

D.   L’assermentation des agents de l’Arcom

Le nouveau V de l’article 23 précité prévoit la possibilité pour l’Arcom d’assermenter ses agents, dans des conditions fixées par décret en Conseil d’État, afin qu’ils puissent constater par procès-verbal qu’un service de communication au public en ligne permet à des mineurs d’avoir accès à un contenu pornographique.

Actuellement, ce sont des huissiers de justice qui établissent de tels constats.

E.   Des conditions d’application de l’article prévues par décret en Conseil d’État

Le nouveau VI de l’article 23 précité prévoit qu’un décret en Conseil d’État précise les conditions d’application de ce même article.

Selon les dispositions en vigueur, c’est un décret simple qui est prévu au dernier alinéa de l’article 23. Il s’agit en l’espèce du décret n° 2021-1306 du 7 octobre 2021 précité, qui fait actuellement l’objet d’un recours devant le Conseil d’État.

III.   Les modifications apportées par le Sénat

Le présent article 2 a été adopté par le Sénat après une réécriture partielle par deux amendements en commission spéciale et deux amendements en séance publique.

En commission spéciale, le rapporteur a choisi ([23]) de déplacer le dispositif au sein d’un nouvel article 10-1 de la LCEN (I) tout en abrogeant l’article 23 de la loi n° 2020-936 du 30 juillet 2020 précitée (II).

Ce nouvel article 10-1 de la LCEN fait le lien avec l’article 10 de cette même loi, dans sa rédaction résultant de l’article 1er du présent projet de loi, c’est-à-dire que c’est l’absence de mise en œuvre ou la non-conformité du système de vérification de l’âge par rapport aux caractéristiques techniques du référentiel qui sera l’élément déclencheur de la procédure administrative.

Le dispositif adopté ajoute également la possibilité pour le président de la Cnil d’émettre un avis avant la mise en demeure de l’éditeur et ajoute l’obligation, pour l’Arcom, de rendre publique cette mise en demeure (en lieu et place de l’information obligatoire du FAI). Le délai de quinze jours pour la mise en conformité de l’éditeur devient un maximum. Les mises en demeure relèvent de l’Arcom et non de son seul président.

Les principaux apports de la commission spéciale sont la mise en place d’un système de sanction pécuniaire modulée selon le degré de coopération de l’éditeur et la simultanéité des procédures de mise en demeure des éditeurs et d’injonction de blocage et de déréférencement de leurs adresses électroniques auprès des FAI, moteurs de recherche ou annuaires.

 Si l’éditeur n’a pas mis en place de système conforme au référentiel ou s’il s’est contenté d’une déclaration de majorité, il encourt une amende maximale de 250 000 euros ou 4 % du chiffre d’affaires mondial hors taxes réalisé au cours de l’exercice précédent, le plus élevé des deux montants étant retenu (500 000 euros ou 6 % du chiffre d’affaires mondial hors taxes en cas de réitération du manquement dans un délai de cinq ans après une première sanction).

 Si cet éditeur met en œuvre un système de vérification de l’âge qui n’est pas conforme au référentiel, il encourt une amende de 75 000 euros ou 1 % du chiffre d’affaires mondial hors taxes réalisé au cours de l’exercice précédent, le plus élevé des deux montants étant retenu (150 000 euros ou 2 % du chiffre d’affaires mondial hors taxes en cas de réitération du manquement dans un délai de cinq ans après une première sanction).

Par ailleurs :

 le président de la Cnil est également consulté pour évaluer la sanction ;

 les utilisateurs des services auxquels l’accès est empêché sont dirigés vers une page d’information de l’Arcom indiquant les motifs de la mesure de blocage ;

 une copie des notifications adressées aux FAI et aux moteurs de recherche ou aux annuaires est adressée simultanément à l’éditeur ;

 lors de l’audience devant le tribunal administratif, les conclusions du rapporteur public sont rétablies ;

 l’assermentation des agents de l’Arcom est faite dans les conditions prévues au 2° du I de l’article 19 de la loi du 30 septembre 1986 précitée (relatif aux conditions des enquêtes).

La commission spéciale a adopté un deuxième amendement ([24]) supprimant les termes « le cas échéant » à l’alinéa 13 au sujet des avantages tirés par un éditeur à ne pas se conformer à la décision de l’autorité publique. Selon l’auteur de l’amendement, ces termes pourraient laisser penser qu’un éditeur pourrait ne pas voir la mise en demeure ou qu’il ne gagnerait rien à laisser un contenu à caractère pornographique accessible à des mineurs.

En séance publique, outre un amendement rédactionnel ([25]), le Sénat a ajouté ([26]) à la liste des acteurs susceptibles de contribuer au blocage des sites les navigateurs et les systèmes d’exploitation fournissant des systèmes de résolution de nom de domaine (c’est-à-dire les personnes mettant à disposition un service permettant la traduction d’un nom de domaine en un numéro unique identifiant un appareil connecté à internet, soit l’adresse IP).

IV.   Les modifications apportÉes par la commission

Outre un amendement rédactionnel CS400 de M. Saulignac (SOC), la commission spéciale a adopté vingt amendements rédactionnels de la rapporteure.

● Elle a également adopté trois amendements identiques CS897 du rapporteur général, CS174 de Mme Loir (RN) et CS335 de Mme K/Bidi (GDR-NUPES) qui doublent le plafond des sanctions pouvant être prononcées à l’encontre des éditeurs de services de communication au public en ligne mettant à la disposition du public des contenus pornographiques qui mettraient en place un système de contrôle de l’âge non conforme au référentiel mentionné à l’article 1er du projet de loi. Le plafond des sanctions est également doublé en cas de réitération du manquement par un même éditeur. Ce même délai de réitération a été porté à dix ans au lieu de cinq ans par l’amendement du rapporteur général CS886 : ce délai concerne les manquements des éditeurs, des fournisseurs de services d’accès à internet, des fournisseurs de systèmes de résolution de noms de domaine, de moteurs de recherche et des annuaires.

● La commission spéciale a adopté deux amendements de M. Saulignac (SOC) qui prévoient qu’en cas de récidive des éditeurs pour non-conformité au référentiel (CS368) ou pour absence de mise en place de tout référentiel (CS399), le plus haut des deux montants proposés est retenu à titre de sanction.

● Trois amendements identiques CS841 de la rapporteure, CS121 de Mme Spillebout (RE) et CS178 de Mme Loir (RN) ont permis d’aligner le délai laissé aux moteurs de recherche et annuaires pour effectuer le déréférencement des services (cinq jours) sur celui des fournisseurs d’accès à internet et des fournisseurs de systèmes de résolution de noms de domaine (quarante-huit heures).

● La rapporteure est à l’origine de l’adoption d’un amendement CS888 qui complète le rapport d’activité que devra publier l’Arcom afin qu’il mentionne également les éventuelles décisions de justice prises sur les recours engagés contre les décisions d’injonction prononcées.

Article 2 bis
Obligations portant sur les boutiques d’applications logicielles en matière de restrictions d’accès des mineurs aux sites pornographiques et aux réseaux sociaux

Adopté par la commission avec modifications

Le présent article, introduit par le Sénat en séance, vise à responsabiliser les boutiques d’applications logicielles en prévoyant la possibilité pour l’Arcom de demander aux gestionnaires de ces boutiques d’empêcher le téléchargement des applications logicielles ne respectant pas les obligations de vérification d’âge (applications à caractère pornographique ou diffusant ce type de contenus et réseaux sociaux en ligne).

La commission spéciale a adopté l’article 2 bis avec modifications de portée rédactionnelle. Une réflexion sera engagée, d’ici la séance publique, sur la proportionnalité de la mesure de blocage des applications des fournisseurs de réseaux sociaux en ligne qui ne mettent pas en place la solution technique certifiée de vérification de l’âge de leurs utilisateurs après la mise en demeure de l’Arcom.

  1.   Le droit en vigueur

A.   Les dispositifs de contrôle de l’âge des utilisateurs sur internet

Pour rappel ([27]), la loi du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet, la loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne ainsi que les articles 1er et 2 du présent projet de loi instaurent des dispositifs de contrôle parental et de contrôle de l’âge des utilisateurs des services des réseaux sociaux en ligne (interdiction aux mineurs de quinze ans, sauf si le titulaire de l’autorité parentale en donne son accord) et des sites internet présentant des contenus à caractère pornographique (interdiction aux mineurs en application de l’article 227-24 du code pénal).

Le contrôle de l’âge des utilisateurs mineurs (âgés de moins de quinze ans ou de moins de dix-huit ans selon les hypothèses), reposera dans les deux cas sur la mise en place, par les fournisseurs de services de réseaux sociaux et par les éditeurs de sites pornographiques d’une solution technique conforme à un référentiel élaboré et publié par l’Arcom, après consultation de la Cnil.

Les articles 1er et 2 du présent projet de loi responsabilisent :

– les fournisseurs de services d’accès à internet (FAI) et les fournisseurs de systèmes de résolution de noms de domaine, auxquels l’Arcom peut enjoindre de bloquer l’accès aux sites des éditeurs ;

– les moteurs de recherche et les annuaires, auxquels la même autorité peut enjoindre de déréférencer ces mêmes sites.

En revanche, en dehors d’une sanction judiciaire, la loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne ne prévoit pas de sanction de blocage ou de déréférencement des services de réseaux sociaux. Un tel dispositif aurait été jugé disproportionné, compte tenu du nombre d’utilisateurs de tels sites.

L’accès aux contenus et sites interdits aux mineurs doit être contrôlé de la manière la plus large possible et couvrir toutes les modalités d’accès technique qui s’offrent à eux. Or la plupart des mineurs accèdent à internet via un smartphone. Selon une étude ([28]) conduite par l’association e-Enfance, 46 % des enfants de 6‑10 ans possèdent déjà un smartphone ; à 12 ans, ce taux passe à 89 % ([29]). 87 % des enfants de 11-12 ans utilisent régulièrement au moins un réseau social en France. L’entrée en vigueur de la loi du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet en juillet 2024 devrait permettre de mieux contrôler les usages des plus jeunes, sous la responsabilité des titulaires de l’autorité parentale.

B.   La terminologie dans les récents règlements européens

● Le règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE (règlement sur les services numériques) fait mention des applications mobiles. Son article 3 consacré aux définitions indique que la notion d’ « interface en ligne » désigne « tout logiciel, y compris un site internet ou une section de site internet, et des applications, notamment des applications mobiles ».

● Le considérant 41 du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques) utilise les termes d’« application logicielle » et de « boutique d’applications logicielles » ainsi que d’« assistant virtuel » dans un contexte d’achat de contenu en ligne.

II.   Le dispositif adopté par le Sénat

Le présent article 2 bis est issu de l’adoption, en séance publique, d’un amendement de Mme Catherine Morin-Desailly ([30]). Cet amendement a reçu un avis favorable de la commission spéciale et du Gouvernement.

Le dispositif complète :

– celui prévu à l’article 6-7 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN »), issu de la loi du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne s’agissant du contrôle de l’accès des mineurs de quinze ans aux réseaux sociaux ;

– celui prévu aux articles 1er et 2 du présent projet de loi s’agissant du contrôle de l’accès des mineurs aux sites (« services de communication au public en ligne ») à caractère pornographique ou diffusant des contenus à caractère pornographique.

Il insère un nouvel article 6-8 à la LCEN afin de donner à l’Arcom la capacité d’intervenir sur le blocage des applications en empêchant leur téléchargement via les boutiques d’applications logicielles. Il s’agit encore une fois de rendre inaccessible le contenu des sites des éditeurs qui ne mettront pas en place des dispositifs de contrôle de l’âge conforme au référentiel élaboré par l’Arcom.

Le dispositif responsabilise les boutiques d’applications logicielles parmi lesquelles deux dominent le marché : Google Play et Apple Store, appartenant à deux « très grandes plateformes en ligne » au sens du règlement sur les services numériques précité.

Le I de l’article 6-8 prévoit que si les fournisseurs de réseaux sociaux en ligne ne mettent pas en place la solution technique certifiée de vérification de l’âge de leurs utilisateurs après la mise en demeure de l’Arcom prévue au II de l’article 6‑7 de la LCEN et sous le délai de quinze jours prévu par ce même dispositif, la même autorité pourra demander aux boutiques d’applications logicielles d’empêcher le téléchargement de l’application logicielle en cause. Ces boutiques disposeront alors d’un délai de quarante‑huit heures pour satisfaire cette demande.

Le II prévoit le même dispositif, relevant de la responsabilité de l’Arcom, s’agissant de la mise en demeure prévue au I de l’article 10-1 de la LCEN dans sa rédaction résultant de l’article 2 du présent projet de loi et pour les éditeurs d’applications donnant accès à des contenus à caractère pornographique.

Le III prévoit que les procédures administratives de blocage du téléchargement des applications en cause seraient prononcées pour une durée maximale de vingt-quatre mois avec réévaluation – d’office ou sur demande – tous les douze mois, sauf si les faits ne sont plus constitués (les mesures sont alors levées).

Le IV prévoit une sanction pécuniaire pouvant atteindre 1 % du chiffre d’affaires mondial de l’exercice précédent réalisé par la boutique d’applications logicielles.

Un décret en Conseil d’État, pris après l’avis de l’Arcom, déterminant les conditions d’application de l’article 6-8 précité est prévu en son V.

III.   Les modifications apportÉes par la commission

La commission spéciale a adopté l’article 2 bis modifié de quatre amendements rédactionnels de la rapporteure.

L’entrée en vigueur du I est différée (amendement CS838 du rapporteur général à l’article 36, voir infra) en attendant l’issue de la réflexion des rapporteurs, d’ici la séance publique, sur la proportionnalité de la mesure de blocage des applications des fournisseurs de réseaux sociaux en ligne qui ne mettent pas en place la solution technique certifiée de vérification de l’âge de leurs utilisateurs après la mise en demeure de l’Arcom.

Section 2
Pénalisation du défaut d’exécution en vingt-quatre heures d’une demande de l’autorité administrative de retrait de contenu pédopornographique

Article 3
Pénalisation du défaut d’exécution d’une demande de retrait de contenu pédopornographique par un hébergeur

Adopté par la commission avec modifications

Le présent article instaure une sanction pénale applicable aux hébergeurs qui ne satisfont pas à la demande émise par l’autorité compétente (l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication) de procéder au retrait dans un délai de vingt-quatre heures d’un contenu en ligne d’images ou de représentations de mineurs présentant un caractère pédopornographique relevant de l’article 227-3 du code pénal.

Ce faisant, le dispositif proposé aligne le régime de responsabilité pénale des hébergeurs en matière de demandes de retrait de contenus pédopornographiques sur celui qui existe en matière de terrorisme.

Le présent article a été adopté par le Sénat avec plusieurs modifications.

La commission spéciale a adopté cet article avec une modification qui offre une marge d’appréciation à l’autorité administrative s’agissant des motifs tenant à la force majeure ou à une impossibilité de fait – avancés par le fournisseur de services d’hébergement – de se conformer à la demande de retrait.

  1.   Le droit en vigueur

La loi du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN »), transposant la directive dite « e-commerce » ([31]) instaure un régime général de responsabilité allégée pour les hébergeurs, dont la responsabilité civile et pénale ne peut être engagée que si, après avoir été informés de son caractère illicite, ils n’ont pas agi promptement pour retirer le contenu concerné ou en rendre l’accès impossible.

Elle crée néanmoins un régime de responsabilité renforcée pour certaines infractions portant gravement atteinte à l’ordre public, constitutives de la haine en ligne, en posant un principe de coopération de ces prestataires à la lutte contre les contenus les plus gravement réprimés ([32]). Les hébergeurs doivent ainsi disposer d’un mécanisme de signalement de ces contenus, en informer les autorités publiques et rendre publics les moyens consacrés à la prévention de leur diffusion.

Dès l’origine, la LCEN a prévu un dispositif de blocage judiciaire de certains sites et de retrait des contenus litigieux, permettant à l’autorité judiciaire de prescrire, « à toute personne susceptible d’y contribuer toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne » ([33]). Le juge judiciaire peut ainsi enjoindre au fournisseur d’accès à internet (FAI) ou à l’hébergeur de retirer le contenu litigieux, voire de bloquer l’accès au site internet sur lequel ce contenu est diffusé. L’article 24 du présent projet de loi procède à une réécriture de ce dispositif.

C’est avec l’adoption de la loi n° 2014-1353 du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme créant l’article 6-1 de la LCEN qu’est mise en place une procédure de blocage administratif unique des contenus faisant l’apologie ou appelant à commettre un acte terroriste, ainsi que des contenus à caractère pédopornographique.

A.   La procédure administrative de retrait des contenus terroristes et pédopornographiques

L’article 6-1 de la LCEN impose des obligations renforcées à l’égard :

– des éditeurs et des hébergeurs, consistant au retrait d’un contenu litigieux dans un premier temps ;

– des FAI, moteurs de recherche et annuaires dans un second temps, si éditeurs et hébergeurs ne s’exécutent pas ou ne peuvent être identifiés, obligation qui prend la forme d’un blocage de l’accès au site internet ou d’un déréférencement dudit contenu.

1.   Les contenus couverts par l’article 6-1 de la LCEN

L’article 6-1 de la LCEN couvre la lutte contre deux types d’actes :

– la provocation à des actes terroristes ou l’apologie de tels actes relevant de l’article 421-2-5 du code pénal ;

– la diffusion des images ou des représentations de mineurs relevant de l’article 227-23 du code pénal.

Article 421-2-5 du code pénal

« Le fait de provoquer directement à des actes de terrorisme ou de faire publiquement l’apologie de ces actes est puni de cinq ans d’emprisonnement et de 75 000 € d’amende.

Les peines sont portées à sept ans d’emprisonnement et à 100 000 € d’amende lorsque les faits ont été commis en utilisant un service de communication au public en ligne.

Lorsque les faits sont commis par la voie de la presse écrite ou audiovisuelle ou de la communication au public en ligne, les dispositions particulières des lois qui régissent ces matières sont applicables en ce qui concerne la détermination des personnes responsables. »

Article 227-23 du code pénal

« Le fait, en vue de sa diffusion, de fixer, d’enregistrer ou de transmettre l’image ou la représentation d’un mineur lorsque cette image ou cette représentation présente un caractère pornographique est puni de cinq ans d’emprisonnement et de 75 000 euros d’amende. Lorsque l’image ou la représentation concerne un mineur de quinze ans, ces faits sont punis même s’ils n’ont pas été commis en vue de la diffusion de cette image ou représentation.

Le fait d’offrir, de rendre disponible ou de diffuser une telle image ou représentation, par quelque moyen que ce soit, de l’importer ou de l’exporter, de la faire importer ou de la faire exporter, est puni des mêmes peines.

Les peines sont portées à sept ans d’emprisonnement et à 100 000 euros d’amende lorsqu’il a été utilisé, pour la diffusion de l’image ou de la représentation du mineur à destination d’un public non déterminé, un réseau de communications électroniques.

Le fait de consulter habituellement ou en contrepartie d’un paiement un service de communication au public en ligne mettant à disposition une telle image ou représentation, d’acquérir ou de détenir une telle image ou représentation par quelque moyen que ce soit est puni de cinq ans d’emprisonnement et de 75 000 euros d’amende.

Les infractions prévues au présent article sont punies de dix ans d’emprisonnement et de 500 000 euros d’amende lorsqu’elles sont commises en bande organisée.

La tentative des délits prévus au présent article est punie des mêmes peines.

Les dispositions du présent article sont également applicables aux images pornographiques d’une personne dont l’aspect physique est celui d’un mineur, sauf s’il est établi que cette personne était âgée de dix-huit ans au jour de la fixation ou de l’enregistrement de son image. »

2.   Un dispositif de blocage administratif

L’autorité administrative – en l’espèce, l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC) de la direction générale de la police nationale ([34]) – peut demander aux éditeurs de services (mentionnés au III de l’article 6 de la LCEN) ou aux hébergeurs (mentionnés au 2 du I du même article 6) le retrait du contenu faisant l’apologie du terrorisme ou provoquant à de tels actes, ou du contenu à caractère pédopornographique. Simultanément, les fournisseurs d’accès à internet (FAI) sont informés de cette demande.

L’OCLCTIC opère sur les signalements effectués via la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos) ([35]).

Dans un second temps, en l’absence de retrait de ces contenus dans un délai de vingt-quatre heures, l’OCLCTIC peut notifier aux FAI, aux moteurs de recherche et aux annuaires la liste des adresses électroniques des services de communication au public en ligne contrevenants. Les FAI « doivent alors empêcher sans délai l’accès à ces adresses », c’est-à-dire procéder au blocage des services. Les moteurs de recherche et les annuaires « prennent [également] toute mesure utile destinée à faire cesser le référencement du service ».

Si le service contrevenant ne contient pas d’informations permettant d’identifier la personne qui en exerce le contrôle, l’autorité administrative peut saisir sans délai le FAI concerné.

3.   Un contrôle de régularité des demandes de retrait opéré par une autorité indépendante

L’article 6-1 prévoit qu’une personnalité qualifiée désignée en son sein par l’Arcom ([36]) est destinataire des demandes de blocage et de la liste des adresses électroniques concernées par un déréférencement. Elle est chargée de s’assurer de la régularité des demandes de retrait de contenus terroristes et pédopornographiques effectuées et des conditions d’établissement, de mise à jour, de communication et d’utilisation de la liste.

Si la personnalité qualifiée constate une irrégularité, elle peut recommander à l’OCLCTIC d’y mettre fin ([37]). Si l’Office ne suit pas cette recommandation, la personnalité qualifiée peut saisir le juge administratif en référé ou sur requête afin de la faire appliquer.

La personnalité qualifiée rend compte de son activité dans un rapport annuel remis au Gouvernement et au Parlement.

En application de l’article 6-1-2 de la LCEN créé par la loi n° 2022-1159 du 16 août 2022 portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne, la personnalité qualifiée dispose d’un suppléant, également désigné en son sein par l’Arcom.

Depuis le 7 juin 2022 c’est Mme Laurence Pécaut-Rivolier, conseillère à la Cour de cassation, qui assure ces fonctions. En cas d’indisponibilité, M. Denis Rapone, conseiller d’État, la supplée.

En 2022, la vérification par le visionnage des contenus à caractère pédopornographique a constitué 82 % de l’activité de la personnalité qualifiée ([38]), 18 % de son activité étant consacrée aux contenus à caractère terroriste. Cela représente l’examen de 82 754 demandes de retraits de contenus (dont 73 685 ont été effectivement retirés), 2 951 demandes de déréférencement et 392 demandes de blocage.

Évolution des demandes de retrait

 

Source : Rapport annuel 2022 de la personnalité qualifiée de l’Arcom

B.   Un cadre procédural renforcé s’agissant des contenus à caractère terroriste

1.   S’agissant des contenus à caractère pédopornographique, seule la non‑exécution des injonctions de blocage et de déréférencement est pénalement sanctionnée

S’agissant des contenus à caractère pédopornographique, le fait pour un éditeur ou un hébergeur de ne pas donner suite à une demande de retrait des contenus dans les vingt-quatre heures n’entraîne aucune sanction pénale. Il existe seulement la possibilité, pour l’OCLCTIC, de faire procéder « sans délai » au blocage administratif ou au déréférencement du site mettant à la disposition du public ces contenus illicites ([39]).

En revanche, la méconnaissance de l’injonction de blocage ou de déréférencement entraîne les mêmes sanctions pénales que celles prévues au 1 du VI de l’article 6 de la LCEN (dernier alinéa de l’article 6-1 précité) :

– 250 000 euros d’amende et un an de prison ;

– pour une personne morale, l’amende encourue est égale au quintuple, soit 1 250 000 euros au plus. Celle-ci peut également être condamnée à une interdiction d’exercer une activité professionnelle ou sociale et à une interdiction de percevoir des aides financières publiques.

2.   S’agissant des contenus à caractère terroriste, des délais plus contraints et des sanctions pénales pour tous les opérateurs

Un dispositif bien plus contraignant a récemment été mis en place s’agissant des contenus à caractère terroriste par le règlement (UE) 2021/784 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne (dit « TCO » pour Terrorist Content Online), applicable depuis le 7 juin 2022.

Ce dispositif spécifique aux contenus à caractère terroriste a été introduit aux articles 6-1-1 à 6-1-5 de la LCEN par la loi n° 2022-1159 du 16 août 2022 précitée. Il permet à l’autorité administrative compétente (l’OCLCTIC) de délivrer une injonction de retrait, cette fois dans un délai d’une heure, de certains contenus à caractère terroriste à l’encontre des « fournisseurs de services d’hébergement au public en ligne » ([40]) (article 3 du règlement (UE) 2021/784 « TCO »), ci-après « hébergeurs ». La personnalité qualifiée au sein de l’Arcom est également compétente pour procéder à l’examen approfondi des injonctions de retrait et pour saisir le juge administratif aux fins, le cas échéant, d’en obtenir le retrait.

La méconnaissance des injonctions de retrait, de blocage ou de déréférencement est pénalement sanctionnée par 250 000 euros d’amende et un an d’emprisonnement, le quintuple de ce montant (1 250 000 euros) pour une personne morale ([41]). En cas d’infraction commise de manière habituelle par une personne morale, le montant de l’amende peut être porté à 4 % de son chiffre d’affaires mondial pour l’exercice précédent.

La personne morale peut également être condamnée à une interdiction d’exercer pendant cinq ans au plus une activité professionnelle ou sociale en lien avec l’infraction ([42]). La décision peut être affichée ou diffusée ([43]).

Les mêmes peines sont encourues contre les hébergeurs qui n’informeraient pas les autorités d’un contenu terroriste « présentant une menace imminente pour la vie » ([44]), par exemple un projet d’attentat.

Afin de garantir le droit au recours effectif, l’article 6-1-5 de la LCEN prévoit que les hébergeurs et les fournisseurs de contenus ([45]) (les éditeurs) peuvent saisir le tribunal administratif pour solliciter l’annulation de l’injonction de retrait prononcée par l’autorité administrative ou la réformation de la décision motivée de la personnalité qualifiée de l’Arcom prise dans le cadre d’un examen approfondi de l’injonction de retrait. Cette demande doit être formulée dans un délai de quarante‑huit heures à compter de la réception de l’injonction. Le tribunal administratif statue sous soixante-douze heures après la saisine. Un appel peut être formé dans les dix jours. La cour administrative d’appel dispose alors d’un mois pour se prononcer.

Le règlement (UE) 2021/784 « TCO » offre plusieurs garanties aux hébergeurs, précisées en son article 3 :

– l’information préalable douze heures avant toute première demande de retrait (point 2) ;

– la non-exécution de la demande de retrait en cas de force majeure, d’une impossibilité de fait non imputable au service ou d’une erreur matérielle (point 7) ;

– l’information dans les meilleurs délais des motifs du retrait et des voies de recours ouvertes à l’hébergeur et au fournisseur de contenus pour contester la demande (point 4).

En résumé, l’injonction de retrait d’un contenu à caractère terroriste peut donc être prononcée avec un délai d’exécution de vingt-quatre heures sur le fondement de l’article 6-1 de la LCEN, ou avec un délai d’une heure sur le fondement de l’article 6-1-1 de la même loi, ce dernier dispositif étant accompagné de garanties procédurales renforcées.

II.   Le dispositif proposé

A.   Une harmonisation du droit national

L’article 3 aligne le régime de responsabilité des hébergeurs en matière de retrait des contenus à caractère pédopornographiques sur leur régime de responsabilité en matière de contenus à caractère terroriste, exception faite du délai de mise en œuvre de l’injonction de retrait, maintenue à vingtquatre heures.

Ainsi l’article 6-1 de la LCEN n’est pas modifié par le présent article 3. C’est l’article 23 du présent projet de loi qui procède, notamment, aux modifications terminologiques rendues nécessaires par coordination avec les règlements européens.

Les articles 6-2, 6-2-1 et 6-2-2 qui seraient introduits dans la LCEN reprennent les garanties, les peines et des voies de recours accélérées prévues à l’article 3 du règlement (UE) 2021/784 « TCO » et aux articles 6-1-3 et 6-1-5 de ladite loi.

Le nouvel article 6-2 de la LCEN reprend une partie des garanties offertes par l’article 3 du règlement (UE) 2021/784 « TCO » au fournisseur de services d’hébergement, ci-après « l’hébergeur ». Si ce dernier n’a jamais fait l’objet d’une demande de retrait d’un contenu pédopornographique sur le fondement de l’article 6-1 de la même loi, l’autorité administrative (l’OCLCTIC) communique à ladite personne des informations sur les procédures et les délais applicables, et ce au moins douze heures avant d’émettre la demande de retrait (I).

L’article 6-2 prévoit également (II) :

– les cas de force majeure et d’impossibilité de fait non imputable à l’hébergeur. Dans ces cas, le délai de vingt-quatre heures accordé pour procéder au retrait du contenu commence à courir dès que ces motifs ont cessé d’exister ;

– l’impossibilité pour un hébergeur de se conformer à la demande de retrait prévue en cas d’erreur manifeste ou de défaut d’informations suffisantes pour l’exécution de ladite demande. Dans ces cas, le délai de vingt-quatre heures commence à courir dès que l’hébergeur a reçu les éclaircissements nécessaires.

Quels que soient les motifs faisant obstacle à l’exécution de la demande, l’hébergeur en informe l’autorité administrative à l’origine de la demande « sans retard indu ».

Lorsque l’hébergeur procède au retrait d’un contenu pédopornographique il en informe « dans les meilleurs délais » le fournisseur de contenus en précisant les motifs du retrait et des droits dont il dispose pour contester la demande de retrait devant la juridiction administrative compétente (III). Une copie de la demande de retrait est transmise par l’hébergeur au fournisseur de contenus.

L’article 6-2-1 de la LCEN prévoit la pénalisation du défaut d’exécution d’une demande de retrait de contenus à caractère pédopornographique selon le même quantum de peines que celui applicable en matière de contenus à caractère terroriste et prévu à l’article 6-1-3 de la même loi soit un an d’emprisonnement et 250 000 euros d’amende (I).

Une personne morale s’expose à une amende égale au quintuple de ce montant, soit 1 250 000 euros, et, en cas d’infraction commise à titre habituel, le montant de l’amende peut être porté à 4 % de son chiffre d’affaires mondial hors taxes de l’exercice précédent (I). La personne morale peut également être condamnée à une interdiction d’exercer pendant cinq ans au plus une activité professionnelle ou sociale en lien avec l’infraction. La décision peut être affichée ou diffusée (II).

L’article 6-2-2 de la même loi – introduit en réponse aux observations du Conseil d’État – reproduit les garanties procédurales prévues à l’article 6-1-5, à savoir l’ouverture d’un recours au fond au bénéfice des hébergeurs, des fournisseurs de contenus, ainsi que de la personnalité qualifiée de l’Arcom, dans un délai de quarante-huit heures suivant la réception de la demande de retrait ou, s’agissant du fournisseur de contenus, du moment où il est informé du retrait (I). La procédure de référé prévue aux articles L. 521-1 et L. 521‑2 du code de justice administrative reste applicable.

Le tribunal administratif dispose de soixante-douze heures pour statuer. L’audience est publique et se déroule sans conclusions du rapporteur public, compte tenu des délais de la procédure (II).

Une procédure d’appel est possible dans un délai de dix jours à compter de la notification du jugement. Dans ce cas, la juridiction d’appel statue dans un délai d’un mois à compter de sa saisine (III).

Un décret en Conseil d’État devra préciser les modalités d’application de cet article 6-2-2 (IV).

B.   Une anticipation de l’adoption de la proposition de règlement européen établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants

Le 11 mai 2023, la Commission européenne a présenté une proposition de règlement visant à prévenir et combattre les abus sexuels sur les enfants en ligne ([46]). Ce règlement vise à instaurer la possibilité, pour les autorités nationales compétentes, d’émettre des injonctions de détection de contenus pédopornographiques et de signalement et de retrait de ces contenus auprès des fournisseurs de services d’hébergement, de services de communications interpersonnelles et d’autres services opérant dans l’Union européenne. Il instituerait en outre un « centre de l’Union européenne » autonome, placé auprès d’Europol, chargé de soutenir les États membres et les fournisseurs de services en ligne dans leur lutte contre ces contenus.

À l’Assemblée nationale, une résolution européenne de Mme Perrine Goulet adoptée le 21 juin 2023 (n° 165) est venue appuyer cette initiative. Son rapport ([47]) rappelle que la réglementation de l’Union européenne en matière de lutte contre les abus sexuels sur les enfants en ligne est demeurée limitée puisqu’elle repose un règlement provisoire et une directive :

– la directive 2011/92/UE du 13 décembre 2011 relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants ainsi que la pédopornographie ([48]), qui définit les infractions liées aux abus sexuels sur mineurs et impose aux États membres de mettre en place des dispositifs permettant le retrait rapide des contenus pédopornographiques hébergés sur leur territoire ;

– le règlement provisoire 2021/1232 du 14 juillet 2021 ([49]) permettant aux fournisseurs de services de communications interpersonnelles non fondées sur la numérotation ([50]), de déroger aux obligations relatives au respect de la vie privée et à la confidentialité des communications imposées par la directive dite « e-privacy » ([51]). Leurs activités dérogatoires portent sur la détection volontaire des contenus diffusés sur leur service par le traitement de données personnelles des utilisateurs.

L’application du règlement provisoire prendra fin le 3 août 2024, nécessitant l’adoption d’une nouvelle base juridique afin de permettre la poursuite de politiques de détection des contenus pédopornographiques.

Le présent article 3 anticipe l’adoption de la proposition de règlement du 11 mai 2023 qui instaurerait des règles uniformes et contraignantes dans l’espace numérique et notamment une obligation de détection des contenus relatifs à des abus sexuels sur des enfants diffusés sur les plateformes.

III.   Les modifications apportées par le Sénat

L’article 3 du projet de loi a été adopté avec modifications par le Sénat.

● À l’initiative de son rapporteur Loïc Hervé, la commission spéciale a apporté des modifications d’ordre rédactionnel ([52]). Le rapporteur est également à l’origine de l’introduction des conclusions du rapporteur public, laissant ainsi au pouvoir réglementaire la possibilité de permettre au magistrat de dispenser le rapporteur public de prononcer des conclusions à l’audience ([53]). Il convient de préciser que l’article 23 du présent projet de loi prévoit que l’audience prévue à l’article 6-1-5 soit également publique, la mention de l’absence de conclusions du rapporteur public ayant également été supprimée en commission spéciale ([54]).

● En séance publique, le rapporteur est à l’origine d’un amendement ([55]) de coordination qui prévoit que l’article 6-2 de la LCEN devienne l’article 6-5. Ce dispositif est déjà mentionné au dernier alinéa de l’article 23 du présent projet de loi : il conviendra donc de supprimer l’une des deux occurrences.

Le Sénat a également adopté un amendement du Gouvernement qui prévoit que la communication obligatoire de la copie de la demande de retrait par l’hébergeur à l’éditeur ne soit obligatoire que lorsque ce dernier lui en fait la demande, sauf si l’autorité administrative, l’OCLTIC, estime qu’une telle divulgation entraverait le bon déroulement d’actions de prévention, de détection, de recherche et de poursuite des auteurs des contenus pédopornographiques en cause. Le dispositif adopté prévoit une période de six semaines, reconductible une fois, au cours de laquelle il sera possible, pour les raisons précitées, de déroger à l’obligation d’informer l’éditeur du retrait du contenu à caractère pédopornographique ; à l’issue de ce délai, cette obligation d’information s’appliquera à nouveau.

IV.   Les modifications apportÉes par la commission

La commission spéciale a adopté l’article 3 modifié de quatre amendements rédactionnels de la rapporteure.

Elle a également adopté un amendement CS403 de Mme Pasquini (Écolo-NUPES) qui offre une voie d’appréciation à l’autorité administrative des motifs tenant à la force majeure ou à une impossibilité de fait – qui ne sont pas imputables au fournisseur de services d’hébergement, y compris pour des raisons techniques ou opérationnelles objectivement justifiables – de se conformer à la demande de retrait. Après examen de ces motifs, l’autorité administrative pourra dès lors enjoindre à ce même fournisseur de se conformer à la demande de retrait.

 

Article 3 bis (nouveau)
Remise d’un rapport du Gouvernement sur l’extension des compétences de l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication en matière de retraits de contenus

Introduit par la commission

 

Résultant d’un amendement adopté par la commission avec un avis favorable de la rapporteure et du Gouvernement, cet article prévoit la remise d’un rapport du Gouvernement au Parlement sur l’extension des compétences de l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), au retrait des contenus présentant des actes de torture et de barbarie, des traitements inhumains et dégradants, des viols et des situations d’inceste.

 

I.   L’état du droit

Voir le commentaire de l’article 3.

II.   Le dispositif introduit par la commission

Le présent article résulte de l’adoption de l’amendement CS929 du rapporteur général, qui a reçu un avis de sagesse du Gouvernement.

L’article 3 du présent projet de loi instaure une sanction pénale applicable aux hébergeurs qui ne satisfont pas à la demande émise par l’autorité compétente, l’OCLCTIC, de procéder au retrait dans un délai de 24 heures d’un contenu en ligne d’images ou de représentations de mineurs présentant un caractère pédopornographique relevant de l’article 227‑3 du code pénal.
L’OCLCTIC opère sur les signalements effectués via la plateforme Pharos.

Le Haut conseil à l’égalité (HCE) entre les femmes et les hommes a publié des recommandations pour faire face à la violence contre les femmes en ligne, notamment dans le domaine de la pornographie. Parmi ces recommandations figure un sujet de préoccupation majeure : l’absence de retrait, par l’OCLCTIC, des contenus présentant des actes de torture et de barbarie, des traitements inhumains et dégradants, et des viols.

Le présent article prévoit que le Gouvernement remette au Parlement, dans un délai de six mois à compter de la promulgation de la présente loi, un rapport sur ce sujet. Le rapporteur général estime que le Gouvernement devrait pouvoir consulter la personnalité qualifiée au sein de l’Arcom et les magistrats saisis de plaintes sur le fondement des articles du code pénal qui concernent ces infractions. Le rapport fera notamment état de la capacité des services à constater le bien-fondé de la demande de retrait.

Titre II
PROTECTION DES citoyens dans l’environnement numÉrique

Article 4 AA (nouveau)
Extension du contenu de l’attestation scolaire de bon usage des outils numériques à l’intelligence artificielle et information annuelle des représentants légaux des élèves

Introduit par la commission

 

Résultant d’un amendement adopté par la commission avec un avis favorable de la rapporteure et du Gouvernement, le présent article modifie l’article L. 312-9 du code de l’éducation.

D’une part, il complète le contenu de l’attestation scolaire délivrée à l’issue de l’école primaire et du collège et certifiant que les élèves ont bénéficié d’une sensibilisation au bon usage des outils numériques et des réseaux sociaux ainsi qu’aux risques liés à ces outils. Le contenu de cette attestation est étendu au bon usage des outils de l’intelligence artificielle, aux risques liés à l’ensemble de ces outils et aux contenus générés par l’intelligence artificielle.

D’autre part, il prévoit qu’une information annuelle sur l’apprentissage de la citoyenneté numérique soit dispensée à chaque début d’année scolaire aux représentants légaux des élèves par un membre de l’équipe pédagogique. Le détail de la formation figure à ce même article.

  1.   L’état du droit

L’article L. 312-9 du code de l’éducation prévoit la dispense d’une formation à l’utilisation responsable des outils et des ressources numériques dans les écoles et les établissements d’enseignement, y compris agricoles, ainsi que dans les unités d’enseignement des établissements et services médico-sociaux et des établissements de santé. Le contenu de cette formation n’a cessé d’évoluer ces dernières années ([56])

Cette formation comporte une éducation aux droits et aux devoirs liés à l’usage d’internet et des réseaux, dont la protection de la vie privée et le respect de la propriété intellectuelle, de la liberté d’opinion et de la dignité de la personne humaine et à l’image des femmes ([57]) , ainsi qu’aux règles applicables aux traitements de données à caractère personnel. Elle contribue au développement de l’esprit critique, à la lutte contre la diffusion des contenus haineux en ligne, à la sensibilisation contre la manipulation d’ordre commercial et les risques d’escroquerie en ligne ([58]) et à l’apprentissage de la citoyenneté numérique.

La loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux a complété le contenu de cette formation qui comporte désormais une sensibilisation à l’usage des dispositifs de signalement des contenus illicites mis à disposition par les plateformes.

Une attestation scolaire certifie que les élèves de primaire et du collège ont bénéficié d’une sensibilisation au bon usage des outils numériques et des réseaux sociaux ainsi qu’aux dérives et aux risques liés à ces outils. Cette attestation prend aujourd’hui la forme de l’outil Pix qui certifie les compétences numériques obligatoires pour les élèves de 3e au collège et de terminale au lycée général, technologique et professionnel. Le ministère de l’éducation nationale et de la jeunesse a annoncé ([59]) en janvier 2023, l’extension de cette certification pour les élèves de 6e.

II.   Le dispositif introduit par la commission

La commission a adopté deux amendements portant article additionnel avant l’article 4 A et qui complètent l’article L. 312-9 du code de l’éducation. Ces amendements ont reçu un avis favorable de la rapporteure et du Gouvernement

 La commission a d’abord adopté l’amendement CS103 de Mme Violette Spillebout (RE).

Le dispositif adopté complète le contenu de l’attestation scolaire délivrée à l’issue de l’école primaire et du collège et certifiant que les élèves ont bénéficié d’une sensibilisation au bon usage des outils numériques et des réseaux sociaux ainsi qu’aux risques liés à ces outils. Le contenu de cette attestation est étendu au bon usage des outils de l’intelligence artificielle, aux risques liés à l’ensemble de ces outils et aux contenus générés par l’intelligence artificielle.

Selon l’auteure de l’amendement, le développement de l’intelligence artificielle peut être source de création et de diffusion de nombreuses fake news (fausses informations). À ce titre, il convient que les jeunes soient bien informés à l’école des possibilités de l’intelligence artificielle, mais aussi des risques qu’elle induit. Le présent dispositif devrait contribuer à développer l’esprit critique des élèves.

 La commission a ensuite adopté deux amendements identiques CS669 de Mme Marie Guévenoux (RE) et CS788 de Mme Agnès Carel (HOR) qui prévoient une information annuelle sur l’apprentissage de la citoyenneté numérique, dispensée à chaque début d’année scolaire aux représentants légaux des élèves par un membre de l’équipe pédagogique.

Cette formation comprendra notamment des messages d’information relatifs au temps d’utilisation des écrans par les élèves ; une sensibilisation à l’exposition des mineurs aux contenus illicites, à la lutte contre la diffusion des contenus haineux en ligne ; une sensibilisation contre la manipulation d’ordre commercial et les risques d’escroquerie en ligne ; une sensibilisation à l’usage des dispositifs de signalement des contenus illicites mis à disposition par les plateformes et une sensibilisation sur l’interdiction du harcèlement commis dans l’espace numérique ainsi qu’un renvoi aux différentes plateformes et services publics susceptibles de les accompagner.

Article 4 AB (nouveau)
Remise d’un rapport du Gouvernement au Parlement sur les actions de prévention et de sensibilisation au harcèlement et au cyberharcèlement mises en place dans les établissements scolaires

Introduit par la commission

 

Résultant d’un amendement adopté par la commission avec un avis défavorable de la rapporteure et du Gouvernement, cet article prévoit la remise d’un rapport du Gouvernement au Parlement sur les actions de prévention et de sensibilisation au harcèlement et au cyberharcèlement mises en place dans les établissements scolaires.

I.   L’état du droit

Le dernier alinéa de l’article L. 111-6 du code de l’éducation créé par la loi n° 2022-299 du 2 mars 2022 visant à combattre le harcèlement scolaire prévoit qu’« [u]ne information sur les risques liés au harcèlement scolaire, notamment au cyberharcèlement, [soit] délivrée chaque année aux élèves et parents d’élèves. » Le programme de prévention et de lutte contre le harcèlement en milieu scolaire (Phare) prévoit ainsi un volume de 10 heures annuelles par an pour chaque élève sur cette thématique.

La formation des professeurs est également obligatoire, en application de l’article 5 de la même loi n° 2022-299 du 2 mars 2022 : « […] les personnels de l’éducation nationale […] reçoivent, dans le cadre de leur formation initiale, une formation à la prévention des faits de harcèlement au sens de l’article 222-33-2-3 du code pénal ainsi qu’à l’identification et à la prise en charge des victimes, des témoins et des auteurs de ces faits. Une formation continue relative à la prévention, à la détection et à la prise en charge du harcèlement scolaire et universitaire est proposée à l’ensemble de ces personnes ainsi qu’à toutes celles intervenant à titre professionnel dans les établissements d’enseignement. »

II.   Le dispositif introduit par la commission

Le présent article résulte de l’adoption, par la commission, d’un amendement CS676 de M. Croizier (DEM). Le Gouvernement et la rapporteure y ont donné un avis défavorable au motif que le Gouvernement est pleinement mobilisé sur les enjeux relevés par l’amendement. Un plan interministériel de lutte contre le harcèlement a d’ailleurs été présenté le 27 septembre 2023.

Le présent article prévoit la remise d’un rapport du Gouvernement au Parlement, dans un délai de douze mois à compter de la promulgation de la présente loi. Ce rapport portera « sur les actions de prévention et de sensibilisation au harcèlement et au cyberharcèlement mises en place dans les établissements scolaires. » Il évaluera « la possibilité de rendre annuellement obligatoire une session de sensibilisation aux enjeux de harcèlement et de cyberharcèlement dans tous les établissements scolaires » ainsi que « la façon dont le harcèlement et le cyberharcèlement sont inclus dans la formation initiale et continue des enseignants et plus largement dans la formation de l’ensemble des personnels des établissements scolaires. »

Selon l’auteur de l’amendement, si le ministère chargé de l’éducation nationale a mis en place de nouvelles mesures contre le harcèlement à l’école à la rentrée 2023, les élèves n’ont pas d’obligation de suivre une formation dédiée à ce type de sensibilisation.

Cet amendement vise à recenser les actions déjà mises en place, mais surtout à évaluer la possibilité de rendre obligatoire une session de sensibilisation aux problématiques de harcèlement et de cyber-harcèlement en milieu scolaire.

Il permet aussi d’évaluer la façon dont sont inclus le harcèlement et le cyber-harcèlement dans la formation initiale et continue des enseignants mais aussi de l’ensemble des personnels des établissements scolaires.

Article 4 AC (nouveau)
Généralisation de l’offre d’une identité numérique pour les Français

Introduit par la commission

 

Résultant d’un amendement adopté par la commission avec un avis favorable de la rapporteure et un avis de sagesse du Gouvernement, cet article :

– d’une part, fixe à l’État un objectif relatif au développement de l’identité numérique en prévoyant que 80 % des Français disposent d’une telle identité au 1er janvier 2027, et près de 100 % d’entre eux au 1er janvier 2030 ;

– d’autre part, demande la remise d’un rapport du Gouvernement au Parlement, « sur sa capacité à généraliser l’identité numérique pour les Français et les actions et modifications législatives nécessaires pour mettre en œuvre cette généralisation ».

 

I.   L’état du droit

● L’anonymat et le pseudonymat en ligne

En 2022, la France comptait 53 millions d’utilisateurs de réseaux sociaux, soit 80 % de la population. L’espace numérique est un espace d’opportunités, mais également un espace où se déploie un sentiment d’impunité permis par l’anonymat ou le pseudonymat.

Il n’existe pourtant pas de réel anonymat en ligne. Les autorités publiques sont en mesure d’identifier une personne à partir de son IP de connexion (pour Internet Protocol) mais :

– pour un utilisateur mobile, le fournisseur d’accès à internet est capable d’indiquer aux services d’enquête l’identité de la personne physique abonnée associée à une adresse IP à un instant donné ;

– pour un utilisateur fixe (ou un utilisateur utilisant son smartphone depuis un accès wifi domestique), le fournisseur d’accès à internet peut indiquer aux services d’enquête le nom et l’adresse physique de l’abonné de la ligne utilisée.

Les cas les plus complexes sont les cas où :

– la personne utilise un point d’accès wifi public : dans ce cas, il faut formuler une requête auprès de l’opérateur du point d’accès qui peut ou non avoir demandé l’identité des personnes qui se connectent ;

– la personne utilise un VPN (Virtual Private Network, ou réseau privé virtuel) ou un autre système de masquage de l’IP : dans ce cas l’enquête peut être compliquée, notamment si la personne utilise des intermédiaires qui ne collaborent pas ;

– la personne utilise un réseau d’entreprise : il convient alors de s’adresser à l’entreprise en question qui, en général, authentifie chacun de ses utilisateurs et peut dans certains cas retrouver l’activité incriminée en consultant les logs de connexion.

Les opérateurs télécoms répondent chaque année à plusieurs centaines de milliers de demandes de données de connexion visant à identifier les personnes.

 France identité numérique

France identité numérique est le service public de l’identité numérique. Selon la définition donnée par le rapport d’information de Mme Christine Hennion et de M. Jean-Michel Mis du 8 juillet 2020 sur l’identité numérique ([60]), l’identité numérique est « la capacité à utiliser de façon sécurisée les attributs de son identité pour accéder à un ensemble de ressources ».

Le programme interministériel France identité numérique, placé sous l’autorité des ministères de l’intérieur et de la justice et du secrétariat d’État chargé du numérique, a pour mission de développer une identité numérique régalienne.

La Poste développe également avec Docaposte son propre système, tout comme de multiples acteurs privés dont certains ont eu l’occasion de présenter aux membres de la commission spéciale leurs solutions techniques.

II.   Le dispositif introduit par la commission

Par l’adoption des amendements CS899 et CS900 du rapporteur général, la commission a introduit un article qui prévoit la généralisation d’une identité numérique pour les Français.

● D’une part, l’État se fixe l’objectif que 80 % des Français disposent d’une identité numérique au 1er janvier 2027 et près de 100 % d’entre eux au 1er janvier 2030 (CS899).

● D’autre part, le Gouvernement devra remettre au Parlement, dans un délai de six mois à compter de la promulgation de la présente loi, « un rapport sur sa capacité à généraliser l’identité numérique pour les Français et les actions et modifications législatives nécessaires pour mettre en œuvre cette généralisation » (CS900).

Les modalités de l’identité numérique recouvriront plusieurs solutions telles que celles proposées par France identité numérique.

Article 4 A
Avertissement sur le caractère illégal des comportements simulés dans des vidéos pornographiques

Adopté par la commission avec modifications

Le présent article, introduit par le Sénat en séance, vise à obliger les éditeurs de sites pornographiques à afficher un message d’avertissement avant tout accès à des contenus simulant la commission d’un crime ou d’un délit.

La commission spéciale a complété le mécanisme introduit par le Sénat en ajoutant l’obligation d’afficher un avertissement sur le caractère illégal des contenus pendant toute la durée de visionnage du dit contenu.

  1.   LE DROIT EN VIGUEUR

Si la vente de certains biens est aujourd’hui encadrée par la diffusion d’un message d’avertissement (alcool, tabac, etc.) ([61]), il n’existe pas de disposition de nature législative applicable aux contenus qui mettraient en scène des crimes ou des délits.

II.   lE DISPOSITIF adoptÉ par le SÉnat

Le présent article 4 A est issu de l’adoption, en séance publique, d’un amendement de Mme Annick Billon ([62]). Cet amendement a reçu un avis favorable de la commission spéciale et un avis de sagesse du Gouvernement.

Le dispositif crée un nouvel article 1-3 au sein de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN »), qui impose aux éditeurs de sites pornographiques d’apposer un avertissement avant que leurs utilisateurs accèdent à des contenus simulant la commission d’un crime ou d’un délit.

Le premier alinéa oblige les éditeurs de sites pornographiques à afficher, avant tout accès par un utilisateur de leur site à un contenu simulant la commission d’un crime ou d’un délit, un avertissement portant sur le caractère illégal des comportements ainsi représentés. La deuxième phrase du premier alinéa précise que le message doit être clair, lisible, unique et compréhensible.

Le deuxième alinéa précise les crimes et les délits concernés par le premier alinéa, soit le viol, l’inceste et les autres agressions sexuelles ([63]), ainsi que les infractions sexuelles commises contre les mineurs ([64]).

Le troisième alinéa précise que la notion de commission simulée d’un crime ou d’un délit, mentionnée au premier alinéa, doit être appréciée en fonction du titre du contenu, des mots-clés, des expressions et des autres entrées qui renvoient vers ledit contenu. Cette formulation laisse de côté toute appréciation sur le contenu lui-même.

Le quatrième alinéa prévoit que tout manquement à cette obligation d’avertir les usagers est puni des peines prévues à l’article 1-2 de la LCEN, soit un an d’emprisonnement et de 75 000 euros d’amende.

Enfin, le dernier alinéa du nouvel article 1-3 de la LCEN précise que tout contenu qui ne fait pas l’objet d’un message d’avertissement est un contenu illicite ([65]) au sens du règlement du 19 octobre 2022 sur les services numériques, soit un contenu soumis aux obligations de retrait par les hébergeurs.

Cet article est issu des travaux conduits par le Sénat sur la pornographie, évoqués supra (commentaire de l’article 1er). Le rapport du Sénat souligne que la pornographie présente une vision déformée et violente de la sexualité, et ce, au détriment notamment des jeunes. Les sénatrices auteures du rapport font ainsi le constat que « les scénarisations de viols dans les vidéos pornographiques et le non-respect constant du "non" de la femme ont également des répercussions sur l’idée que se font les jeunes de la notion de consentement » ([66]).

Elles proposent donc d’ « imposer aux sites pornographiques des messages d’avertissement, concernant des contenus violents, précisant qu’il s’agit d’actes sexuels non simulés, pouvant constituer des infractions criminelles ou délictuelles » ([67]). L’objectif est de sensibiliser les usagers au fait que les contenus mettent en scène des comportements passibles de sanctions pénales.

III.   La position de la commission

Sur proposition de la rapporteure, la commission spéciale a adopté l’amendement CS879 qui prévoit que tout contenu faisant l’objet d’un avertissement avant accès doit également comporter un bandeau rappelant le caractère illégal des comportements représentés et les sanctions pénales qui y sont associées.

La commission spéciale a également adopté l’amendement CS756 de M. Erwan Balanant (Dem), sous-amendé par l’amendement CS756 de la rapporteure et avec un avis favorable du Gouvernement, pour prévoir que le contenu du message et ses modalités de présentation seraient précisées par décret après avis de l’Arcom.

Article 4 B (supprimé)
Obligation de retrait de contenus pornographiques diffusés en violation d’un accord de cession de droit

Supprimé par la commission

Le présent article, introduit par le Sénat en séance, vise à créer une obligation de retrait par les hébergeurs de tout contenu pornographique qui aurait été signalé par une personne représentée dans le contenu comme violant un accord de cession de droit.

Il a été supprimé par la commission spéciale.

  1.   LE DROIT EN VIGUEUR

L’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN ») prévoit un régime de responsabilité limité pour les hébergeurs. Ceux-ci ne peuvent pas voir leur responsabilité engagée pour le stockage de contenus illicites s’ils n’avaient pas effectivement connaissance du caractère illicite de ces contenus ou si, dès qu’ils en ont eu connaissance, ils ont agi pour les retirer ou en rendre l’accès impossible.

II.   lE DISPOSITIF adoptÉ par le SÉnat

Le présent article 4 B est issu de l’adoption, en séance publique, d’un amendement de Mme Annick Billon ([68]). Cet amendement a reçu un avis favorable de la commission spéciale et un avis défavorable du Gouvernement.

Le dispositif crée un nouvel article 6-1-1 A au sein de la LCEN.

Ce nouvel article prévoit une nouvelle obligation pour les fournisseurs de services d’hébergement : dès lors qu’un contenu pornographique a été signalé par une personne représentée dans ce contenu comme étant diffusé en violation de l’accord de cession de droits, les hébergeurs doivent agir promptement pour retirer ledit contenu ou en rendre l’accès impossible.

Le signalement doit être réalisé conformément au mécanisme prévu par l’article 16 du règlement (UE) 2022/2065 du 19 octobre 2022 sur les services numériques.

Cet article est également issu des travaux conduits par le Sénat sur la pornographie, déjà évoqués ([69]). Il met en œuvre l’une des recommandations de ce rapport, qui était d’ « imposer aux plateformes de satisfaire gratuitement aux demandes de retrait de vidéos formulées par les personnes filmées, et non plus par les seuls propriétaires de vidéos » ([70]).

Cette préconisation est une des solutions mises en avant par les sénatrices auteures du rapport d’information pour répondre au problème des contrats de cession de droit à l’image. Celles-ci soulignent ainsi que les contrats de cession de droit à l’image signés par les personnes participant à des tournages de contenus pornographiques prévoient souvent une cession pour une durée très longue, voire illimitée. À cela s’ajoute la problématique de la procédure de retrait des vidéos une fois que celles-ci sont mises en ligne, décrite dans le rapport comme « relevant d’un parcours du combattant quasiment impossible » ([71]).

C’est dans ce contexte que le Sénat a adopté un amendement prévoyant une obligation de retrait spécifique aux contenus pornographiques signalés comme illicites car en violation de l’accord de cession de droits.

III.   Les travaux de la commission

La commission spéciale a adopté l’amendement CS880 de suppression de l’article, présenté par la rapporteure Cet amendement avait reçu un avis favorable du Gouvernement.

En effet, les contenus diffusés aujourd’hui en violation des contrats sont déjà considérés comme des contenus illicites : la plateforme qui ne les retire pas alors qu’ils lui ont été signalés engage sa responsabilité pénale. Cet article, qui faisait peser sur les plateformes l’obligation de retirer promptement tout contenu signalé comme diffusé en violation d’un accord de cession de droits, ne permettait pas de résoudre le problème mis en avant par le rapport du Sénat, c’est-à-dire la durée des contrats de cession de droit à l’image. La rapporteure en a donc proposé la suppression.

Article 4
Protection des citoyens contre les vecteurs de propagande étrangère manifestement destinés à la désinformation et à l’ingérence

Adopté par la commission avec modifications

L’article 4 du présent projet de loi élargit les compétences de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pour assurer la mise en œuvre effective des mesures restrictives décidées par l’Union européenne à l’égard de gouvernements ou d’organisations étrangères. L’objectif est de donner les moyens à l’Autorité de faire retirer ou de faire cesser la diffusion de certains contenus, produits par des médias n’ayant plus l’autorisation de diffuser sur le territoire européen.

Le présent article a été adopté avec des modifications par le Sénat : celui-ci a notamment élargi la compétence de l’Arcom aux services de médias audiovisuels à la demande (Smad) extracommunautaires.

La commission spéciale, outre des précisions rédactionnelles, a ajouté les hébergeurs à la liste des personnes pouvant être mises en demeure par l’Arcom de retirer des contenus contraires aux dispositions prises sur le fondement de l’article 215 du TFUE.

  1.   Le droit en vigueur

A.   La possibilitÉ pour l’Union europÉenne d’imposer des sanctions sur son territoire sans transposition nécessaire dans le droit national

L’Union européenne a la possibilité, dans le cadre de la politique étrangère et de sécurité commune (PESC), d’imposer des mesures restrictives à des gouvernements étrangers, des entreprises, des organisations ou des personnes physiques.

L’article 29 du traité sur l’Union européenne (TUE) prévoit ainsi que le Conseil est compétent pour adopter des décisions définissant la position de l’Union européenne sur des questions de nature géographique ou thématique, et que les États membres doivent veiller à la conformité de leurs politiques nationales avec ces positions.

L’article 215 du traité sur le fonctionnement de l’Union européenne (TFUE), reproduit ci-après, précise les compétences du Conseil en cas de restriction de relations avec un ou plusieurs pays tiers.

Article 215 du traité sur le fonctionnement de l’Union européenne

1. Lorsqu’une décision, adoptée conformément au chapitre 2 du titre V du traité sur l’Union européenne, prévoit l’interruption ou la réduction, en tout ou en partie, des relations économiques et financières avec un ou plusieurs pays tiers, le Conseil, statuant à la majorité qualifiée, sur proposition conjointe du haut représentant de l’Union pour les affaires étrangères et la politique de sécurité et de la Commission, adopte les mesures nécessaires. Il en informe le Parlement européen.

2. Lorsqu’une décision, adoptée conformément au chapitre 2 du titre V du traité sur l’Union européenne, le prévoit, le Conseil peut adopter, selon la procédure visée au paragraphe 1, des mesures restrictives à l’encontre de personnes physiques ou morales, de groupes ou d'entités non étatiques.

3. Les actes visés au présent article contiennent les dispositions nécessaires en matière de garanties juridiques.

L’Union européenne a adopté des mesures restrictives à l’égard de la Russie depuis mars 2014, à la suite de l’annexion de la Crimée par la Russie. C’est le règlement (UE) n° 833/2014 du Conseil du 31 juillet 2014 concernant des mesures restrictives eu égard aux actions de la Russie déstabilisant la situation en Ukraine qui constitue la base légale pour ces sanctions. Le déclenchement de la guerre en Ukraine par la Fédération de Russie en février 2022 a conduit l’Union européenne à renforcer son arsenal de sanctions vis-à-vis de ce pays. Le dernier paquet de sanctions a été adopté en juin 2023 ([72]) : il prévoit notamment la suspension des licences de diffusion de cinq médias russes supplémentaires ([73])  et l’interdiction de diffusion de leurs contenus.

La capacité des médias placés sous le contrôle direct ou indirect de la Fédération de Russie à relayer la propagande des autorités russes et de fausses informations a été identifiée rapidement comme un levier de déstabilisation de l’Union et de ses États membres. Dès le 27 février 2022, la présidente de la Commission européenne, Ursula von der Leyen, s’engageait à mettre fin à la diffusion des médias Russia Today et Sputnik au sein de l’Union européenne ([74]).

Cet engagement s’est concrétisé par l’adoption dès le 1er mars 2022 de la décision PESC 2022/351 du 1er mars 2022 du Conseil modifiant la décision 2014/512/PESC concernant des mesures restrictives eu égard aux actions de la Russie déstabilisant la situation en Ukraine, prise sur le fondement de l’article 29 du TUE.

La décision du 1er mars 2022 crée un article 4 octies au sein de la décision 2014/512 qui prévoit à la fois la suspension des licences et des autorisations de diffusion de certaines entités, et l’interdiction aux opérateurs de diffuser ou de faciliter la diffusion via tout moyen de transmission des contenus produits par ces entités. Les personnes morales, les entités et les organismes visés par cet article sont listés à l’annexe IX de la décision Pesc. Initialement composée de six entités (Russia Today English, Russia Today UK, Russia Today Germany, Russia Today France, Russia Today Spanish et Sputnik), elle a été enrichie au fil de l’adoption des décisions de sanctions.

À cette décision s’ajoute le règlement (UE) 2022/350 du Conseil du 1er mars 2022, modifiant le règlement n° 833/2014 du 31 juillet 2014. Le règlement, pris sur le fondement de l’article 215 du TFUE, insère un nouvel article 2 septies au sein du règlement du 31 juillet 2014, qui prévoit l’interdiction de diffusion de contenus provenant des entités listées à l’annexe XV et la suspension de toute autorisation de diffusion de ces mêmes entités.

Ces interdictions n’empêchent pas les médias concernés de continuer à produire du contenu.

Russia Today France (ci-après « RT France ») a saisi le tribunal de l’Union européenne d’un recours en annulation de la décision et du règlement adoptés le 1er mars 2022. Dans son arrêt, rendu le 27 juillet 2022 ([75]), le tribunal a rejeté l’intégralité du recours formé par RT France.

Les moyens invoqués par RT France pour contester les actes du Conseil

À l’appui de son recours, RT France avait invoqué quatre moyens. L’un de ces moyens mettait en cause la compétence du Conseil pour adopter les actes attaqués : le tribunal l’a écarté, considérant que l’intervention du Conseil était directement liée aux finalités de la politique étrangère et de sécurité commune.

Le deuxième moyen invoqué par RT France était la méconnaissance de la liberté d’expression et d’information. Le tribunal a établi dans un premier temps que l’interdiction temporaire de diffusion constituait bien pour la société requérante une ingérence dans l’exercice de son droit à la liberté d’expression. Rappelant que cette liberté d’expression n’est pas absolue et peut faire l’objet de limitations, il a écarté le moyen présenté, considérant que les limitations apportées à la liberté d’expression respectaient les conditions fixées par la Charte, à savoir être prévues par la loi, respecter le contenu essentiel de la liberté d’expression, ne pas être disproportionnées et répondre à un objectif d’intérêt général. Le tribunal a ainsi considéré que le Conseil, en adoptant ces actes, poursuivait l’objectif de sauvegarder les valeurs de l’Union, ses intérêts fondamentaux, sa sécurité et son intégrité.

Le tribunal a également considéré que le Conseil avait apporté un faisceau d’éléments suffisamment concrets et concordants pour considérer que RT France était sous le contrôle permanent des dirigeants de la Fédération de Russie.

Des contournements de ces interdictions de diffusion ont été observés au cours de l’année 2022. Il a été ainsi constaté que malgré les sanctions, la chaîne RT France restait accessible sur des plateformes domiciliées hors de l’Union européenne, notamment Odysee ([76]) et Rumble ([77]).

B.   Les pouvoirs de l’ARCOM en matiÈre de sanctions

L’Arcom est issue de la fusion, au 1er janvier 2022, du Conseil supérieur de l’audiovisuel (CSA) et de la Haute autorité pour la diffusion des œuvres et la protection des droits sur l’internet (Hadopi). Outre la régulation de la communication audiovisuelle, l’Autorité est également chargée de la régulation des plateformes ayant une activité d’intermédiation en ligne (réseaux sociaux, moteurs de recherche, plateformes de partage de vidéos, etc.).

Les pouvoirs dont dispose l’Arcom pour assurer ses missions sont détaillés dans la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

L’article 42 de la loi précitée permet à l’Arcom de mettre en demeure les éditeurs ([78]) et distributeurs de services de communication audiovisuelle ([79]), ainsi que les opérateurs de réseaux satellitaires, de respecter les obligations imposées par les textes législatifs et réglementaires, ainsi que les principes définis aux articles 1er (liberté de communication) et 3 (consentement à la levée du secret du choix de service de communications électroniques) de la même loi.

En cas d’absence de mise en conformité avec la mise en demeure prononcée, l’article 42-1 de la même loi donne la possibilité à l’Arcom de prononcer plusieurs sanctions, qui vont de la suspension d’une catégorie de programmes au retrait de l’autorisation de diffusion.

L’article 42-7 de la même loi détaille les conditions dans lesquelles l’Arcom prononce des sanctions : un rapporteur, nommé par le vice-président du Conseil d’État parmi les membres des juridictions administratives, assure l’engagement des poursuites et l’instruction préalable au prononcé des sanctions. C’est à lui que revient la décision d’engager ou non une procédure de sanction. À l’issue de son instruction, le rapporteur communique son rapport à la personne mise en cause. Il expose ensuite son opinion sur les griefs notifiés devant l’Arcom, qui entend également la personne mise en cause. Au terme de cette procédure, l’Autorité prend une décision, motivée et notifiée à la personne mise en cause.

L’article 42-10 de la même loi prévoit une procédure de référé en matière de communication audiovisuelle (ci-après, « référé audiovisuel »).

Le président de l’Arcom peut, en cas de manquement aux obligations résultant de la loi de 1986 relative à la liberté de communication et dans le cadre des pouvoirs dévolus à l’Autorité, demander en justice à ce qu’il soit ordonné à la personne responsable du manquement soit de se conformer à ces dispositions, soit de mettre fin à l’irrégularité, ou encore de supprimer les effets de l’irrégularité. L’objet de la demande peut avoir pour objectif de faire cesser la diffusion d’un service de télévision dont les programmes portent atteinte à l’un au moins des principes mentionnés aux articles 1er, 3-1 ou 15 de la loi.

La demande du président de l’Autorité est portée devant le président de la section du contentieux du Conseil d’État, qui statue en référé.

Selon le rapport d’activité 2022 de l’Arcom, celle-ci a prononcé 19 mises en demeure et 9 sanctions en 2022.

II.   Le dispositif proposÉ

Le présent article élargit les pouvoirs de l’Arcom pour lui permettre de faire retirer un contenu qui contreviendrait aux dispositions prises sur le fondement de l’article 215 du TFUE, quel que soit son canal de diffusion.

Le I modifie deux articles de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

Le 1° insère un nouvel alinéa à l’article 42 de la loi précitée : celui complète le champ des motifs sur le fondement desquels l’Arcom peut prononcer des mises en demeure. Celles-ci pourront désormais être également prononcées au titre du respect des obligations imposées par les dispositions prises sur le fondement de l’article 215 du TFUE qui portent sur l’interdiction de diffusion de contenus de services de communication audiovisuelle.

La liste des personnes concernées par cette procédure, outre les éditeurs et distributeurs de services de communication audiovisuelle et opérateurs de réseaux satellitaires, déjà concernés par le premier alinéa de l’article 42, comprend les prestataires techniques auxquels ces personnes recourent.

Le 2° complète l’article 42-10 de la même loi pour ajouter les manquements à la réglementation européenne prise sur le fondement de l’article 215 du TFUE portant sur l’interdiction de diffusion de contenus de services de communication audiovisuelle à la liste des manquements pouvant justifier un référé en matière de communication audiovisuelle par le président de l’Arcom.

Le II du présent article réécrit l’article 11 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après, « LCEN ») pour prévoir une nouvelle procédure de mise en demeure et de sanctions vis-à-vis des fournisseurs d’accès, des hébergeurs et des éditeurs de contenus sur internet ([80]) . Ce nouvel article s’inspire des dispositions de l’article 6-1 de la LCEN, qui prévoit une procédure de blocage administratif unique des contenus faisant l’apologie ou appelant à commettre un acte terroriste, ainsi que des contenus à caractère pédopornographique ([81]).

La procédure prévue par le présent article comprend plusieurs étapes.

Le I du nouvel article 11 de la LCEN autorise l’Arcom à mettre en demeure les personnes mentionnées à l’article 1-1 de la LCEN de retirer des contenus ou de faire cesser la diffusion des contenus qui contreviennent aux dispositions prises sur le fondement de l’article 215 du TFUE portant sur l’interdiction de diffusion de contenus. Les personnes visées au I de l’article 1-1, créé par l’article 22 du présent projet de loi, sont celles dont l’activité est d’éditer un service de communication au public en ligne. La personne mise en demeure peut présenter des observations dans un délai de 72 heures.

Le II prévoit qu’une fois le délai expiré, si les contenus sont toujours diffusés, l’Arcom a la possibilité de notifier aux fournisseurs de services d’accès à internet une liste des adresses électroniques des services diffusant ou hébergeant des contenus provenant des personnes ayant fait l’objet de la mise en demeure. Ces fournisseurs doivent alors, sans délai, empêcher l’accès à ces adresses.

La deuxième phrase du II prévoit le cas où l’identification des personnes visées au I de l’article 1-1 de la LCEN n’est pas possible : dans ce cas, l’Arcom peut procéder à la notification aux fournisseurs d’accès sans mise en demeure préalable.

Elle peut également notifier ces mêmes adresses électroniques aux moteurs de recherche et aux annuaires afin que ceux-ci procèdent à leur déréférencement.

Le III de l’article 4 prévoit que l’Arcom peut agir d’office, mais aussi sur saisine du ministère public ou de toute personne physique ou morale.

Enfin, le IV établit le montant des sanctions encourues en cas de manquement aux obligations prévues au I et au II, sanctions qui sont prononcées par l’Arcom dans les conditions prévues à l’article 42-7 de la loi de 1986 relative à la liberté de communication.

En cas de méconnaissance par une personne de l’obligation prévue au I de retirer les contenus ou de faire cesser la diffusion des contenus qui contreviennent aux dispositions prises sur le fondement de l’article 215 du TFUE, l’Arcom peut prononcer à son égard une sanction pécuniaire dont le montant est plafonné à 4 % du chiffre d’affaires hors taxes réalisé au cours du dernier exercice clos calculé sur une période de douze mois. En l’absence de chiffre d’affaires, le plafond est fixé à 250 000 euros. Le montant de la sanction pécuniaire est fixé en fonction de la gravité du manquement.

En cas de réitération du manquement dans un délai de cinq ans à compter de la date à laquelle la première décision de sanction est devenue définitive, le plafond est porté à 6 % du chiffre d’affaires ou, en l’absence du chiffre d’affaires, à 500 000 euros.

En cas de méconnaissance par une personne de l’obligation prévue au II d’empêcher l’accès aux adresses notifiées ou de faire cesser le référencement de ces mêmes adresses, l’Arcom peut prononcer à son égard une sanction pécuniaire qui ne peut excéder 1 % du chiffre d’affaires hors taxes réalisé au cours du dernier exercice clos calculé sur une période de douze mois. En l’absence de chiffre d’affaires, ce plafond est fixé à 75 000 euros. En cas de réitération du manquement, le plafond est fixé à 2 % du chiffre d’affaires ou, en l’absence de chiffre d’affaires, à 150 000 euros.


 

sanctions prévues en cas de manquement aux obligations prÉvues aux I et II de l’article 11 de la LCEN dans sa rédaction proposée par le projet de loi

 

Manquement à l’obligation de retirer ou de faire cesser la diffusion de contenus contrevenant aux dispositions prises en application de l'article 215 du TFUE

Méconnaissance de l’obligation d’empêcher l’accès ou le référencement des adresses notifiées

Plafond de la sanction
- si chiffre d’affaires
- en l’absence de chiffre d’affaires


4 %
250 000 euros


1 %
75 000 euros

Plafond de la sanction en cas de réitération du manquement dans un délai de cinq ans
- si chiffre d’affaires
- en l’absence de chiffre d’affaires

 

 


6 %
500 000 euros

 

 


2 %
150 000 euros

Source : commission spéciale

Le deuxième alinéa du IV prévoit que, lorsqu’une même personne cumule, pour les mêmes faits, une sanction prononcée par l’Arcom pour ne pas avoir retiré ou fait cesser la diffusion de contenus mentionnés au I, et une amende pénale prononcée en application de l’article 459 du code des douanes ([82]), le montant global des amendes prononcées ne peut pas dépasser le maximum légal le plus élevé des sanctions encourues. Cette précision permet de garantir le principe de nécessité et de proportionnalité des délits et des peines : le Conseil constitutionnel a ainsi considéré, dans une décision du 3 septembre 2021, que « si l’éventualité que deux procédures soient engagées peut conduire à un cumul de sanctions, le principe de proportionnalité implique qu’en tout état de cause le montant global des sanctions éventuellement prononcées ne dépasse pas le montant le plus élevé de l’une des sanctions encourues » ([83]).

À la différence du dispositif prévu par la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet et partiellement censuré par le Conseil constitutionnel ([84]), le dispositif prévu par le présent article ne fait pas reposer sur l’autorité administrative la détermination du caractère illicite des contenus en cause. Le Conseil constitutionnel avait en effet censuré le dispositif de retrait de contenus illicites prévu au paragraphe I de l’article 1er de la loi précitée, considérant que la détermination du caractère illicite des contenus ne reposait pas sur leur caractère manifeste mais sur la seule appréciation de l’administration.

III.   Les modifications apportÉes par le SÉnat

Le Sénat a apporté plusieurs modifications à cet article.

En commission, trois amendements du rapporteur M. Loïc Hervé ont été adoptés.

● L’amendement COM-95 rect. modifie plusieurs articles de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication pour inclure les services de télévision et les services de médias audiovisuels à la demande (Smad) extra-communautaires diffusés en France.

Il en modifie l’article 43-2, qui prévoit l’application de ladite loi aux services de télévision et aux Smad ([85]) dont l’éditeur est établi en France ou qui relève de la compétence de la France. L’amendement COM-95 rect. insère ainsi un nouvel alinéa au sein de l’article 4 du présent texte pour compléter l’article 43-2 de la loi de 1986 relative à la liberté de communication.

Ce nouvel alinéa prévoit que les articles 1er, 15, 42, 42-1, 42-7 et 42-10 de la même loi sont applicables aux Smad diffusés en France ne relevant pas de la compétence d’un autre État membre de l’Union européenne, d’un autre État partie à l’accord sur l’Espace économique européen ou d’un autre État partie à la convention européenne. Le tableau ci-dessous récapitule les articles applicables à ces Smad, ainsi que leur objet.

articles de la loi n° 86-1067 applicables à certains SMAD extra-communautaires diffusés en france

Article de la loi

Objet

Article 1er

Garantie de la liberté de communication au public par voie électronique.

Article 15

Compétence de l’Arcom pour veiller à la protection de l’enfance et de l'adolescence et au respect de la dignité de la personne dans les programmes mis à disposition du public par un service de communication audiovisuelle.

Article 42

Pouvoir de mise en demeure de l’Arcom vis-à-vis des éditeurs et des distributeurs de services de communication audiovisuelle, et des opérateurs de réseaux satellitaires.

Article 42-1

Pouvoir de l’Arcom de sanctionner une personne ne s’étant pas conformée à une mise en demeure.

Article 42-7

Conditions dans lesquelles l’Arcom prononce des sanctions.

Article 42-10

Référé audiovisuel.

Source : commission spéciale.

L’amendement modifie également les articles 33-1 ([86])  et 33-3 ([87])  de la loi n° 86-0167 du 30 septembre 1986 pour exclure les services de télévision et les Smad extra-communautaires des obligations de conventionnement et de déclaration des services (inclus automatiquement suite à la modification décrite supra de l’article 43-2 de la même loi).

L’amendement complète également deux articles de la loi du 30 septembre 1986 relative à la liberté de communication pour permettre à l’Arcom de saisir les fournisseurs d’accès à internet, afin que ceux-ci fassent cesser la diffusion d’une chaîne diffusée sans l’intermédiation d’un distributeur de services (diffusion dite over-the-top, ou OTT ([88])). 

Il ajoute ainsi les fournisseurs d’accès à internet dans la liste des personnes pouvant être mises en demeure par l’Arcom de respecter les obligations prévues par les dispositions législatives et réglementaires, prévue au premier alinéa de l’article 42 de la loi n° 86-1067.

Il ajoute également les fournisseurs d’accès à internet dans la liste des personnes pouvant faire l’objet du « référé-audiovisuel » prévu à l’article 42-10 de la même loi. Il ajoute enfin les Smad à la liste des services pouvant être visés par une demande de cessation de diffusion.

● L’amendement COM-96 modifie l’obligation faite aux fournisseurs d’accès à internet d’empêcher sans délai l’accès aux adresses notifiées. Il prévoit ainsi que le délai dans lequel les fournisseurs devront y procéder sera fixé par l’Arcom, considérant qu’il est difficilement envisageable qu’un tel blocage puisse être opéré immédiatement.

● L’amendement COM-97 insère un nouvel alinéa à la fin de l’article 11 de la LCEN dans sa rédaction issue du présent article pour prévoir que les modalités d’application seront précisées par décret en Conseil d’État.

Le Sénat a adopté en séance un seul amendement.

● L’amendement n° 48 rect. quater, déposé par Mme Noël (Les Républicains), et adopté avec des avis favorables du Gouvernement et du rapporteur, a ajouté les fournisseurs de systèmes de résolution de nom de domaine définis au II de l’article 12 du présent projet de loi à la liste des personnes pouvant être saisies par l’Arcom en vue d’empêcher l’accès à une adresse. Cet amendement permet ainsi d’inclure notamment les navigateurs et les systèmes d’exploitation.

IV.   La position de la commission

La commission a adopté l’article 4 avec plusieurs modifications.

Les compétences de l’Arcom ont été élargies aux services de télévision linéaires diffusés en France qui ne relèvent pas de la compétence d’un autre État membre de l’Union européenne, de l’Espace économique européen ou de la Convention européenne sur la télévision transfrontière par l’amendement CS713 de M. Quentin Bataillon (RE), adopté avec un avis favorable de la rapporteure et du Gouvernement.

Sur proposition de la rapporteure et de M. Quentin Bataillon (RE) ([89]) et avec un avis favorable du Gouvernement, la commission a donné la possibilité à l’Arcom de mettre en demeure non seulement les éditeurs de contenu mais également les hébergeurs, pour que ceux-ci retirent les contenus contraires aux dispositions prises sur le fondement de l’article 215 du traité sur le fonctionnement de l’Union européenne.

La commission a également adopté l’amendement CS779 de la rapporteure pour préciser que seules les adresses électroniques des personnes ayant fait l’objet d’une mise en demeure de retirer ou de faire cesser la diffusion de contenus contraires aux dispositions prises sur le fondement de l’article 215 du TFUE seront notifiées aux fournisseurs de services d’accès à internet.

Trois amendements rédactionnels de la rapporteure (CS778, CS880 et CS777) ont également été adoptés avec des avis favorables du Gouvernement.

Article 4 bis
Pénalisation de l’hypertrucage publié sans consentement

Adopté par la commission sans modification

Le présent article, introduit par le Sénat en séance, élargit le périmètre de l’article 226-8 du code pénal relatif à la publication de montage d’une personne sans son consentement, en ajoutant la publication de contenus générés par une intelligence artificielle et reproduisant l’image ou les paroles d’une personne sans son consentement. La publication d’un hypertrucage sans consentement serait passible d’un an d’emprisonnement et de 45 000 euros d’amende.

I.   Le droit en vigueur

L’hypertrucage (deepfake) est une technique de synthèse multimédia reposant sur l’intelligence artificielle, pouvant servir à superposer ou fusionner des images, des fichiers audio ou vidéo existants sur d’autres fichiers vidéo (changement de visage d’une personne sur une vidéo) ou audio (substitution de propos en reproduisant la voix de la personne), à créer un contenu artificiel sur une personne cible à partir du comportement d’une personne source, ou même à créer artificiellement des contenus ressemblants à partir de commandes textuelles ([90])

La multiplication des solutions permettant de générer des contenus grâce à l’intelligence artificielle a facilité l’expansion de ce phénomène. Or le droit actuel ne permettrait pas de lutter contre les vidéos hypertruquées et diffusées sans le consentement de la personne représentée ([91])

Ainsi, l’article 226-8 du code pénal prévoit que le fait de publier un montage réalisé avec les paroles ou l’image d’une personne sans son consentement, par quelque moyen que ce soit, est puni d’un an d’emprisonnement et de 15 000 euros d’amende, sauf s’il apparaît évident qu’il s’agit d’un montage ou qu’il en est fait expressément mention.

Néanmoins, la notion de montage paraît trop imprécise pour recouvrir les contenus générés par une intelligence artificielle.

II.   Le dispositif adopté par le Sénat

Le présent article 4 bis est issu de l’adoption, en séance publique, de l’amendement n° 127 du Gouvernement, qui a reçu un avis favorable de la commission.

Le nouvel article 4 bis crée un cadre spécifique en ajoutant un nouveau délit, celui de publication d’un hypertrucage représentant l’image ou les paroles d’une personne sans son consentement.

Le fait de publier, par quelque voie que ce soit, « un contenu visuel ou sonore généré par un traitement algorithmique et reproduisant l’image ou les paroles d’une personne, sans son consentement », sera punie des mêmes peines que celle de publication d’un montage sans consentement, soit un an d’emprisonnement et 15 000 euros d’amende, sauf s’il est évident qu’il s’agit d’un contenu généré algorithmiquement ou s’il en est fait expressément mention.

Le deuxième alinéa du nouvel article crée une circonstance aggravante : lorsque l’infraction a été réalisée en utilisant un service de communication au public en ligne, la peine est alors portée à deux ans d’emprisonnement et 45 000 euros d’amende.

Ce nouvel article s’articule avec l’article 5 ter, également adopté par le Sénat, qui crée un délit de publication d’hypertrucage à caractère sexuel.

III.   Les travaux de la commission

La commission spéciale a adopté le présent article sans y apporter de modifications.

Article 5
Peine complémentaire de suspension de l’accès à un service de plateforme en ligne

Adopté par la commission avec modifications

Le présent article crée une nouvelle peine complémentaire de suspension de l’accès à un service de plateforme en ligne lorsqu’une infraction a été commise en utilisant ledit service. L’article dresse la liste des infractions pour lesquelles cette peine complémentaire peut être décidée par le juge. Les plateformes se voient notifier la condamnation à la peine complémentaire et doivent suspendre l’accès de l’utilisateur à son compte.

Le Sénat a significativement élargi la liste des infractions pour lesquelles pouvait être prononcée cette peine complémentaire. Il a également complété la liste des fournisseurs concernés par la suspension des comptes, en ajoutant les services de réseaux sociaux en ligne et les services de plateformes de partage de vidéos. Enfin, le Sénat a ouvert la possibilité que la suspension d’accès à un compte soit proposée dans le cadre d’une composition pénale, d’une alternative à la peine ou comme une obligation dans le cadre de l’application des peines.

La commission a modifié la liste des délits passibles d’une peine complémentaire. Elle a également supprimé la possibilité pour le juge de prononcer une interdiction d’accès à des comptes dans le cas d’un sursis probatoire. Elle a également encadré la possibilité du juge de prononcer une interdiction d’utilisation des comptes d’accès à des plateformes dans le cadre d’une composition pénale ou d’une alternative à l’emprisonnement.

  1.   LE DROIT EN VIGUEUR

● Le contrôle interne opéré par les plateformes

Les fournisseurs de services de plateformes en ligne ont la faculté de suspendre l’accès de certains utilisateurs à leur compte lorsqu’ils constatent des infractions à leurs conditions générales d’utilisation ou à la loi.

Le réseau social X (anciennement Twitter) fait ainsi état de 72 139 comptes suspendus au niveau européen pour avoir enfreint les règles de la plateforme relatives au cyber harcèlement, et 127 954 comptes suspendus pour avoir enfreint celles relatives à la haine en ligne ([92]).

Dans sa contribution écrite aux travaux de la rapporteure, l’entreprise Meta (qui comprend notamment le réseau Instagram) a indiqué qu’au premier trimestre de l’année 2023, plus de 6,6 millions de contenus avaient été supprimés par l’entreprise sur Instagram car ils allaient à l’encontre des règles en matière de harcèlement. 90 % de ces contenus avaient été identifiés de manière proactive par la plateforme.

L’article 23 du règlement (UE) 2022/2065 sur les services numériques (RSN) prévoit la mise en place par les plateformes en ligne de mesures de lutte et de protection contre les utilisations abusives.

● Les peines complémentaires

Les peines complémentaires s’ajoutent à une peine principale d’amende ou d’emprisonnement.

Il existe des peines complémentaires obligatoires : le juge n’a alors pas d’autre choix que de les prononcer. À titre d’exemple, l’article 131-26-2 du code pénal prévoit ainsi une peine complémentaire d’inéligibilité obligatoire pour toute personne coupable d’un délit mentionné au II du même article ou d’un crime. Le III de l’article prévoit néanmoins la possibilité pour la juridiction de ne pas prononcer la peine prévue, en considération des circonstances de l’infraction et de la personnalité de son auteur.

À l’inverse, certaines peines complémentaires sont facultatives : le juge doit les prononcer expressément pour qu’elles soient retenues. C’est le cas par exemple des peines complémentaires prévues à l’article 222-44 du code pénal, parmi lesquelles l’interdiction de porter une arme et l’annulation du permis de conduire.

II.   lE DISPOSITIF PROPOSÉ

L’article 5 crée une peine complémentaire de « bannissement » des réseaux sociaux en rétablissant l’article 131-35-1 du code pénal.

Dans sa nouvelle rédaction issue du présent article, l’article 131-35-1 du code pénal prévoit que pour les délits mentionnés au II de l’article, une peine complémentaire de suspension du compte d’accès au service de plateforme en ligne ([93]) ayant été utilisé pour commettre l’infraction peut être prononcée par le tribunal. Cette peine peut être prononcée pour une durée qui ne peut excéder six mois. Cette durée peut être portée à un an si la personne mise en cause est en état de récidive légale.

Le deuxième alinéa de l’article 131-35-1 du code pénal organise la notification de la condamnation aux plateformes. La décision de condamnation est signifiée au fournisseur de service de plateforme en ligne concerné. Ledit fournisseur doit ensuite, pendant la durée d’exécution de la peine :

– procéder au blocage du compte ayant fait l’objet d’une suspension ;

– mettre en œuvre des mesures pour bloquer les autres comptes d’accès à sa plateforme de la personne concernée par la condamnation, ainsi que l’empêcher de créer de nouveaux comptes.

Le fournisseur qui ne procède pas au blocage du compte ayant fait l’objet d’une suspension est passible de 75 000 euros d’amende.

La personne condamnée à cette peine complémentaire peut en solliciter le relèvement devant la juridiction compétente à l’issue d’un délai de trois mois après la décision initiale de condamnation (troisième alinéa de l’article 131-35-1 précité). Ce délai constitue une dérogation au troisième alinéa de l’article 702-1 du code de procédure pénale, qui prévoit qu’une telle demande ne peut être portée devant la juridiction compétente qu’à l’issue d’un délai de six mois après la décision initiale de condamnation. Elle doit dans ce cas spécialement motiver sa décision.

Le II de l’article 131-35-1 précité dresse la liste des délits pour lesquels cette peine complémentaire est encourue. Elle reprend la liste des infractions visées au 7 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN).

La liste complète des délits est retracée dans le tableau ci-dessus, qui rappelle également les peines encourues pour chacun des délits.

Infractions concernées par la peine complémentaire de suspension de compte d’accès à un service en ligne

Articles

Délit ou crime concerné

Peines prévues

Délits de harcèlement

Article 222-33 du code pénal

Harcèlement sexuel

2 ans d’emprisonnement et 30 000 euros d’amende

Article 222-33-2-1 du code pénal

Harcèlement moral d’un conjoint ou ex-conjoint

• 3 ans d’emprisonnement et 45 000 euros d’amende (si ITT inférieure ou égale à huit jours)
• 5 ans d’emprisonnement et 75 000 euros d’amende (si ITT supérieure à huit jours)

Article 222-33-2-2 du code pénal

Harcèlement moral

• 1 an d’emprisonnement et 15 000 euros d’amende (si ITT inférieure ou égale à huit jours)
• 2 ans d’emprisonnement et 30 000 euros d’amende (si ITT supérieure à huit jours)

Article 222-33-2-3 du code pénal

Harcèlement scolaire

• 3 ans d’emprisonnement et 45 000 euros d’amende (si ITT inférieure ou égale à huit jours)
• 5 ans d’emprisonnement et 75 000 euros d’amende (si ITT supérieure à huit jours)
• 10 ans d’emprisonnement et 150 000 euros d’amende (suicide ou tentative de suicide de la victime)

Article 222-33-3 du code pénal (alinéa 2)

Diffusion de l’enregistrement d’images relatives à la commission d’une atteinte volontaire à l’intégrité de la personne

5 ans d’emprisonnement et 75 000 euros d’amende

Atteintes à la dignité de la personne

Article 225-4-13 du code pénal

Comportements et pratiques visant à modifier ou réprimer l’orientation sexuelle ou l’identité de genre

• 2 ans d’emprisonnement et 30 000 euros d’amende
• 3 ans d’emprisonnement et 45 000 euros d’amende (si les faits sont commis au préjudice d’un mineur ou par un ascendant)

Article 225-5 du code pénal

Proxénétisme

7 ans d’emprisonnement et de 150 000 euros d’amende

Article 225-6 du code pénal

Infractions assimilées au proxénétisme

7 ans d’emprisonnement et de 150 000 euros d’amende

Infractions sexuelles commises contre les mineurs

Article 227-23 du code pénal

Diffusion, offre, cession d’images pédopornographiques

5 ans d’emprisonnement et 75 000 euros d’amende

Article 227-24 du code pénal

Fabrication, transport, diffusion de message violent, pornographique ou contraire à la dignité, lorsqu’il est susceptible d’être vu ou perçu par un mineur

3 ans d’emprisonnement et 75 000 euros d’amende

Apologie d’actes de terrorisme

Article 421-2-5 du code pénal

Provocation ou apologie d’actes de terrorisme

• 5 ans d’emprisonnement et 75 000 euros d’amende
• 7 ans d’emprisonnement et 100 000 euros d’amende (si un service de communication au public en ligne a été utilisé)

Délits de presse

Article 24 de la loi du 29 juillet 1881 (alinéa 5)

Apologie publique des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi

5 ans d’emprisonnement et 45 000 euros d’amende

Article 24 de la loi du 29 juillet 1881 (alinéa 7)

Provocation publique à la discrimination, à la haine ou à la violence en raison de l’origine, de l’appartenance ou de la non-appartenance d’une personne à une ethnie, une nation, une race ou une religion déterminée

1 an d’emprisonnement et 45 000 euros d’amende

Article 24 de la loi du 29 juillet 1881 (alinéa 8)

Provocation à la haine ou à la violence à l’égard d’une personne en raison de son sexe, de son orientation sexuelle, identité de genre ou de son handicap

1 an d’emprisonnement et 45 000 euros d’amende

Article 24 bis de la loi du 29 juillet 1881

Contestation des crimes contre l’humanité, avoir nié ou minoré l’existence d’un crime de génocide

1 an d’emprisonnement et 45 000 euros d’amende

Source : commission spéciale

III.   Les modifications apportÉes par le SÉnat

Le Sénat a apporté plusieurs modifications d’ampleur au présent article.

A.   L’élargissement de la portée de la peine complémentaire

● L’amendement COM-98 du rapporteur M. Loïc Hervé, adopté en commission procède à une nouvelle rédaction des deux premiers alinéas de l’article 131-35-1 du code pénal :

– il donne la possibilité au juge de réclamer la suspension de plusieurs comptes d’accès à des services en ligne utilisés pour commettre l’infraction, en précisant que cela est possible même lorsque ces services n’ont pas constitué le moyen principal ou unique de la commission de celle-ci ;

– il ajoute aux plateformes en ligne les services de réseaux sociaux en ligne et les services de plateformes de partage de vidéos, qui devront également procéder à la suspension des comptes d’accès ;

– il complète la procédure de notification aux plateformes en prévoyant que le prononcé de la peine complémentaire de suspension d’un compte d’accès est également signifié aux fournisseurs de services concernés, en plus de la dénomination du compte d’accès ;

– enfin, il encadre la mise en œuvre par les fournisseurs concernés de mesures visant à bloquer les autres comptes d’accès et interdire la création de nouveaux comptes, en prévoyant que ces mesures doivent respecter les limites prévues à l’article 46 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, qui précise le cadre des traitements de données à caractère personnel relatives aux condamnations pénales, aux infractions et aux mesures de sûreté.

● L’amendement n° 133, déposé en séance par le rapporteur M. Loïc Hervé au nom de la commission spéciale, apporte plusieurs clarifications rédactionnelles. Il a été adopté avec un avis favorable du Gouvernement.

B.   L’élargissement de la liste des délits pour lesquels la peine complémentaire peut être prononcée

● L’amendement COM-99 rect. du rapporteur M. Loïc Hervé, adopté au stade de l’examen du texte en commission, élargit significativement la liste des délits pour lesquels une peine complémentaire de suspension à un compte d’accès à une plateforme en ligne peut être prononcée.

Considérant que le champ matériel de la nouvelle peine complémentaire ne couvrait pas l’ensemble des infractions pouvant être commises en utilisant un service en ligne, la commission a ainsi élargi l’application de la peine complémentaire, entre autres, aux faits analogues au harcèlement, mais également à divers délits de provocation et à l’entrave, par voie de menaces, à l’exercice des libertés publiques et aux débats des assemblées parlementaires ou organes délibérants des collectivités territoriales.

● L’amendement n° 134 déposé par M. Haye (groupe Rassemblement des démocrates, progressistes et indépendants), a été adopté en séance avec un avis favorable de la commission et un avis défavorable du Gouvernement. Il a retiré certains délits de la liste des infractions qui peuvent faire l’objet d’une peine complémentaire de suspension d’accès à un compte.

Le tableau ci-dessous retrace les ajouts et les retraits réalisés au Sénat. La liste complète des délits ajoutés par la commission du Sénat est retracée en gras. Les délits ajoutés en commission puis retirés en séance sont indiqués en gras et italique. Le délit ajouté en séance par le Sénat est souligné.

évolution, au cours des débats au sénat, de la liste des Infractions susceptibles de faire l’objet d’une peine complémentaire de suspension d’accès à un compte

Articles

Délit ou crime concerné

Peines prévues

Délits de harcèlement

Article 222-33 du code pénal

Harcèlement sexuel

2 ans d’emprisonnement et 30 000 euros d’amende

Article 222-33-1-1 du code pénal

Outrage sexiste et sexuel

3 750 euros d’amende

Article 222-33-2 du code pénal

Harcèlement ayant pour conséquence une dégradation des conditions de travail

2 ans d’emprisonnement et 30 000 d’amende

Article 222-33-2-1 du code pénal

Harcèlement moral d’un conjoint ou ex-conjoint

• 3 ans d’emprisonnement et 45 000 euros d’amende (si ITT inférieure ou égale à huit jours)
• 5 ans d’emprisonnement et 75 000 euros d’amende (si ITT supérieure à huit jours)

Article 222-33-2-2 du code pénal

Harcèlement moral

• 1 an d’emprisonnement et 15 000 euros d’amende (si ITT inférieure ou égale à huit jours)
• 2 ans d’emprisonnement et 30 000 euros d’amende (si ITT supérieure à huit jours, ou si commis via l’utilisation d’un service de communication au public en ligne ou par le biais d’un support numérique ou électronique)

Article 222-33-2-3 du code pénal

Harcèlement scolaire

• 3 ans d’emprisonnement et 45 000 euros d’amende (si ITT inférieure ou égale à huit jours)
• 5 ans d’emprisonnement et 75 000 euros d’amende (si ITT supérieure à huit jours)
• 10 ans d’emprisonnement et 150 000 euros d’amende (suicide ou tentative de suicide de la victime)

Article 222-33-3 du code pénal (alinéa 2)

Diffusion de l’enregistrement d’images relatives à la commission d’une atteinte volontaire à l’intégrité de la personne

5 ans d’emprisonnement et 75 000 euros d’amende

Atteintes à la dignité de la personne

Article 225-4-13 du code pénal

Comportements et pratiques visant à modifier ou réprimer l’orientation sexuelle ou l’identité de genre

2 ans d’emprisonnement et 30 000 euros d’amende
3 ans d’emprisonnement et 45 000 euros d’amende (si les faits sont commis au préjudice d’un mineur ou par un ascendant)

Article 225-5 du code pénal

Proxénétisme

7 ans d’emprisonnement et 150 000 euros d’amende

article 225-6 du code pénal

infractions assimilées au proxénétisme

7 ans d’emprisonnement et 150 000 euros d’amende

Article 225-10 du code pénal

Gestion, exploitation, direction, financement d’un établissement de prostitution

10 ans d’emprisonnement et 750 000 euros d’amende

Atteintes à la vie privée

Article 226-1 du code pénal

Volontairement porter atteinte à l’intimité de la vie privée d’autrui

1 an d’emprisonnement et 45 000 euros d’amende

Article 226-2 du code pénal

Conserver et porter à la connaissance du public des enregistrements qui portent atteinte à l’intimité de la vie privée d’autrui

1 an d’emprisonnement et 45 000 euros d’amende

Article 226-2-1 du code pénal

Délits mentionnés aux articles 226-1 et 226-2 du code pénal portant sur des images ou des paroles présentant un caractère sexuel

2 ans d’emprisonnement et 60 000 euros d’amende

Article 226-3 du code pénal

Fabrication, importation, détention, exposition, offre, location ou vente d’appareils destinés à détourner des correspondances adressées à des tiers ou détecter à distance des conversations

5 ans d’emprisonnement et 300 000 euros d’amende

Article 226-4-1 du code pénal

Usurpation de l’identité d’un tiers ou usage de données de nature à identifier une personne ou de porter atteinte à son honneur

1 an d’emprisonnement et 15 000 euros d’amende

Article 226-8 du code pénal

Publier un montage réalisé avec les paroles ou l’image d’une personne sans consentement

1 an d’emprisonnement et 15 000 euros d’amende

Article 226-8-1 du code pénal (créé par l’article 5 ter du présent projet de loi)

Publication d’un deepfake à caractère sexuel

2 ans d’emprisonnement et 60 000 euros d’amende

Violation des ordonnances de protection

Article 227-4-2 du code pénal

Violation par une personne des obligations ou interdictions imposées dans une ordonnance de protection

2 ans d’emprisonnement et 15 000 euros d’amende

Infractions sexuelles commises contre les mineurs

Article 227-22 du code pénal

Favoriser la corruption d’un mineur

5 ans d’emprisonnement et 75 000 euros d’amende

Article 227-22-1 du code pénal

Propositions sexuelles par un majeur à un mineur en utilisant un moyen de communication électronique

2 ans d’emprisonnement et 75 000 euros d’amende

Article 227-22-2 du code pénal

Incitation d’un mineur par un majeur à commettre tout acte de nature sexuelle, par un moyen de communication électronique

7 ans d’emprisonnement et 100 000 euros d’amende

Article 227-23 du code pénal

Diffusion, offre, cession d’images pédopornographiques

5 ans d’emprisonnement et 75 000 euros d’amende

Article 227-24 du code pénal

Fabrication, transport, diffusion de message violent, pornographique ou contraire à la dignité, lorsqu’il est susceptible d’être vu ou perçu par un mineur

3 ans d’emprisonnement et 75 000 euros d’amende

Risques causés à autrui

Article 223-1-1 du code pénal

Diffusion ou révélation d’informations relatives à la vie privée, familiale ou professionnelle d’une personne pour l’identifier ou la localiser

3 ans d’emprisonnement et 45 000 euros d’amende

Atteintes à la personnalité

Article 226-10 du code pénal

Dénonciation calomnieuse

5 ans d’emprisonnement et 45 000 euros d’amende

Article 226-21 du code pénal

Détournement de données à caractère personnel de leur finalité

5 ans d’emprisonnement et 300 000 euros d’amende

Article 226-22 du code pénal

Détournement de données à caractère personnel alors que la divulgation porterait préjudice à la personne concernée

5 ans d’emprisonnement et 100 000 euros d’amende

Atteintes à certains services ou unités spécialisés

Article 413-13 du code pénal

Révélation de toute information conduisant à la découverte d’une identité d’emprunt ou de l’identité réelle d’un agent de certains services spécialisés

5 ans d’emprisonnement et 75 000 euros d’amende

Article 413-14 du code pénal

Révélation ou divulgation de toute information pouvant conduire à l’identification d’une personne comme membre des unités des forces spéciales

5 ans d’emprisonnement et 75 000 euros d’amende

Chantage

Article 312-10 du code pénal

Chantage

5 ans d’emprisonnement et 75 000 euros d’amende

Article 312-11 du code pénal

Chantage avec menace mise à exécution

7 ans d’emprisonnement et 100 000 euros d’amende

Article 312-12 du code pénal

Tentative de chantage

5 ans d’emprisonnement et 75 000 euros d’amende

Provocations

Article 211-2 du code pénal

Provocation publique à commettre un génocide

 Perpétuité si la provocation a été suivie d’effet
 7 ans d’emprisonnement et 100 000 euros d’amende si elle n’a pas été suivie d’effet

Article 223-13 du code pénal

Provocation au suicide

3 ans d’emprisonnement et 45 000 euros d’amende

Article 227-18 du code pénal

Provoquer un mineur à faire un usage illicite de stupéfiants

5 ans d’emprisonnement et 100 000 euros d’amende

Article 227-18-1 du code pénal

Provoquer un mineur à transporter, détenir, offrir ou céder des stupéfiants

7 ans d’emprisonnement et 150 000 euros d’amende

Article 227-19 du code pénal

Provoquer un mineur à la consommation excessive d’alcool ou à la consommation habituelle d’alcool

 1 an d’emprisonnement et 15 000 euros d’amende (pour consommation excessive)
 2 ans d’emprisonnement et 45 000 euros d’amende (pour consommation habituelle)

Article 227-21 du code pénal

Provoquer un mineur à commettre un délit

5 ans d’emprisonnement et 150 000 euros d’amende

Article 412-8 du code pénal

Provocation à s’armer contre l’autorité de l’État ou contre une partie de la population

5 ans d’emprisonnement et 75 000 euros d’amende

Article 431-6 du code pénal

Provocation directe à un attroupement armé, par des cris, des écrits, ou tout autre moyen de transmission de l’écrit, de la parole ou de l’image

1 an d’emprisonnement et 15 000 euros d’amende

Article 431-6 du code pénal (alinéa 2)

Provocation directe à un attroupement armé, par des cris, des écrits, ou tout autre moyen de transmission de l’écrit, de la parole ou de l’image suivie d’effet

7 ans d’emprisonnement et 100 000 euros d’amende

Atteintes à la paix publique

Article 431-1 du code pénal

Entrave à l’exercice de la liberté d’expression, du travail, d’association, de réunion ou de manifestation, ou entrave au déroulement des débats d’une assemblée parlementaire ou d’un organe délibérant d’une collectivité territoriale

1 an d’emprisonnement et 15 000 euros d’amende

Article 433-3 du code pénal

Menace de commettre un délit ou un crime à l’encontre d’une personne investie d’un mandat électif public, d’un magistrat, d’un officier public ou ministériel, de toute personne dépositaire de l’autorité publique

3 ans d’emprisonnement et 45 000 euros d’amende

Article 433-3-1 du code pénal

Menaces ou violences à l’égard de toute personne participant à l’exécution d’une mission de service public

5 ans d’emprisonnement et 75 000 euros d’amende

Apologie d’actes de terrorisme

Article 421-2-5 du code pénal

Provocation ou apologie d’actes de terrorisme

• 5 ans d’emprisonnement et 75 000 euros d’amende
• 7 ans d’emprisonnement et 100 000 euros d’amende (si un service de communication au public en ligne a été utilisé)

Délits de presse

Article 24 de la loi du 29 juillet 1881 (alinéa 5)

Apologie publique des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi

5 ans d’emprisonnement et 45 000 euros d’amende

Article 24 de la loi du 29 juillet 1881 (alinéa 7)

Provocation publique à la discrimination, à la haine ou à la violence en raison de l’origine, de l’appartenance ou de la non-appartenance d’une personne à une ethnie, une nation, une race ou une religion déterminée

1 an d’emprisonnement et 45 000 euros d’amende

Article 24 de la loi du 29 juillet 1881 (alinéa 8)

Provocation à la haine ou à la violence à l’égard d’une personne en raison de son sexe, de son orientation sexuelle, identité de genre ou de son handicap

1 an d’emprisonnement et 45 000 euros d’amende

Article 24 bis de la loi du 29 juillet 1881

Contestation des crimes contre l’humanité, fait de nier ou minorer l’existence d’un crime de génocide

1 an d’emprisonnement et 45 000 euros d’amende

Source : commission spéciale.

C.   Laisser la possibilité au juge de prononcer une suspension d’accès dans d’autres cas

● L’amendement COM-100 du rapporteur M. Loïc Hervé, adopté en commission, complète l’article pour étendre la peine de suspension d’accès à un compte d’une plateforme en ligne aux peines alternatives à l’emprisonnement, à l’application des peines et à la composition pénale.

Il modifie l’article 131-6 du code pénal qui concerne les peines privatives ou restrictives de liberté qui peuvent être prononcées comme alternative à une peine d’emprisonnement. Ce nouvel alinéa ajoute une peine alternative d’interdiction, pendant une période de trois ans au plus, d’accès à un ou plusieurs services de plateformes, de réseaux sociaux en ligne et de services de plateformes de partage de vidéos. Il est précisé que cette peine peut être proposée lorsque l’infraction a été commise en recourant à un service en ligne, y compris si celui-ci n’a pas été le moyen unique ou principal de l’infraction.

L’amendement n° 135, déposé par M. Haye (groupe Rassemblement des démocrates, progressistes et indépendants) a été adopté au stade de l’examen du texte en séance publique avec un avis de sagesse de la commission et un avis favorable du Gouvernement. Il raccourcit la durée de la peine de bannissement des plateformes et des réseaux à six mois, pour l’aligner sur la durée prévue pour la peine complémentaire et garantir la proportionnalité des peines.

L’amendement COM-100 insère également un nouvel alinéa au sein de l’article 132-45 du code pénal, qui liste les obligations qu’une juridiction de condamnation ou qu’un juge d’application des peines peut imposer à un condamné placé sous le régime de la probation.

Ce nouvel alinéa ouvre la possibilité pour le juge d’obliger le condamné à s’abstenir d’utiliser un compte d’accès à certains services en ligne, désignés par le juge, au risque sinon de voir révoquer son sursis probatoire. Cette possibilité est limitée aux cas où l’infraction a été commise en recourant à un service en ligne, y compris si celui-ci n’a pas été le moyen unique ou principal de commettre cette infraction.

Enfin, l’amendement COM-100 insère un nouvel alinéa au sein de l’article 41-2 du code de procédure pénale, qui prévoit les conditions dans lesquelles le procureur de la République peut proposer à une personne qui reconnaît avoir commis un délit, une composition pénale, c’est-à-dire l’application d’une sanction qui évite la tenue d’un procès. La peine encourue pour les délits commis doit être d’une durée inférieure ou égale à cinq ans.

Le nouvel alinéa ouvre la possibilité au procureur de la République de proposer une nouvelle mesure dans le cadre d’une composition pénale, soit le fait pour la personne ayant commis un délit de ne pas utiliser un compte d’accès à un ou des services de plateformes en ligne, services de réseaux sociaux et services de plateformes en ligne de partage de vidéos. Cette mesure ne peut pas excéder six mois. Contrairement aux deux précédents ajouts, la mention de l’utilisation d’un ou plusieurs comptes pour commettre l’infraction n’est pas mentionnée ici.

IV.   La position de la commission

A.   La modification de la liste des dÉlits pour lesquels la peine complÉmentaire peut Ȇtre prononcÉe

La commission spéciale a apporté plusieurs modifications à la liste des délits pour lesquels une peine complémentaire peut être prononcée par le juge.

La rapporteure, attentive à l’équilibre du dispositif, s’est attachée à restreindre la liste des délits pour lesquels une peine complémentaire peut être proposée. Elle a notamment écarté les délits dont le lien avec les réseaux sociaux était plus ténu, comme la gestion d’un établissement de prostitution prévu à l’article 225-10 du code pénal.

À l’inverse, plusieurs députés ont souhaité élargir la liste des délits : le délit d’entrave à l’avortement, prévu à l’article L. 2223-2 du code de la santé publique, a ainsi été ajouté après l’adoption de quatre amendements identiques déposés par plusieurs groupes.

Le tableau ci-dessous récapitule les délits ajoutés et les délits retirés par la commission spéciale.

Évolution, au cours des débats en commission spéciale, des INFRACTIONS pour lesquelles une peine complémentaire de bannissement peut être prononcée

Articles

Délit ou crime concerné

Peines prévues

Amendement

Délits ajoutés en commission spéciale

Deuxième et troisième alinéas de l’article 32 et troisième et quatrième alinéas de l’article 33 de la loi du 29 juillet 1881 sur la liberté de la presse

Diffamation ou injure commise envers une personne à raison de leur origine ou de leur appartenance à une ethnie, une nation, une race, une religion déterminée ou à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou handicap

1 an d’emprisonnement et 45 000 euros d'amende

CS14 (M.Gérard, RE)

Délits prévus à l’article 4 de la loi n° 2023-451 du 9 juin 2023

Promotion de certains produits par des personnes exerçant l'activité d’influence commerciale

2 ans d’emprisonnement et 300 000 euros d'amende

CS508 (M.Vojetta, RE)

Article L. 2223-2 du code de la santé publique

Entrave à l’avortement

2 ans d’emprisonnement et 30 000 euros d'amende

Identiques CS651
(M. Balanant, Dem),
CS726
(Mme Yadan, RE),
CS 862
(Mme Santiago, Soc) et
CS863
(M. Taché, Écolo-NUPES)

Délits retirés en commission spéciale

Article 225-10 du code pénal

Gestion, exploitation, direction, financement d’un établissement de prostitution

10 ans d’emprisonnement et 750 000 euros d’amende

CS881 (rapporteure)

Article 227-4-2 du code pénal

Violation par une personne des obligations ou interdictions imposées dans une ordonnance de protection

2 ans d’emprisonnement et 15 000 euros d’amende

CS882 (rapporteure)

Article 226-10 du code pénal

Dénonciation calomnieuse

5 ans d’emprisonnement et 45 000 euros d’amende

CS883 (rapporteure)

Article 226-21 du code pénal

Détournement de données à caractère personnel de leur finalité

5 ans d’emprisonnement et 300 000 euros d’amende

CS883 (rapporteure)

Article 226-22 du code pénal

Détournement de données à caractère personnel alors que la divulgation porterait préjudice à la personne concernée

5 ans d’emprisonnement et 100 000 euros d’amende

CS883 (rapporteure)

Article 413-13 du code pénal

Révélation de toute information conduisant à la découverte d’une identité d’emprunt ou de l’identité réelle d’un agent de certains services spécialisés

5 ans d’emprisonnement et 75 000 euros d’amende

CS883 (rapporteure)

Article 413-14 du code pénal

Révélation ou divulgation de toute information pouvant conduire à l’identification d’une personne comme membre des unités des forces spéciales

5 ans d’emprisonnement et 75 000 euros d’amende

CS883 (rapporteure)

Article 312-10 du code pénal

Chantage

5 ans d’emprisonnement et 75 000 euros d’amende

CS884 (rapporteure)

Article 312-11 du code pénal

Chantage avec menace mise à exécution

7 ans d’emprisonnement et 100 000 euros d’amende

CS884 (rapporteure)

Article 312-12 du code pénal

Tentative de chantage

5 ans d’emprisonnement et 75 000 euros d’amende

CS884 (rapporteure)

Source : commission spéciale.

B.   Recentrer le recours À l’interdiction d’utiliser un compte d’accÈs

Sur proposition de la rapporteure et avec des avis favorables du Gouvernement, l’interdiction d’utiliser un compte d’accès à une plateforme en ligne dans le cadre d’une alternative à l’emprisonnement a été recentrée :

– l’amendement CS796 a restreint le champ des infractions aux délits pour lesquels peut être prononcée une peine complémentaire ;

– l’amendement CS799 a restreint l’interdiction aux comptes ayant été utilisés pour commettre l’infraction.

Sur proposition de la rapporteure, de Mme Sophia Chikirou (LFI-NUPES) et de M. Aurélien Taché (Écolo-NUPES), et avec un avis favorable du Gouvernement, la possibilité pour le juge de prononcer une interdiction d’utiliser des comptes d’accès dans le cadre d’un sursis probatoire a été supprimée (CS794, CS439 et CS851). Le sursis probatoire pouvant être prononcé pour une période allant jusqu’à cinq ans, il est apparu trop restrictif pour la liberté d’expression des personnes condamnées d’y associer une interdiction d’utilisation des comptes d’accès.

Sur proposition de la rapporteure et avec des avis favorables du Gouvernement, l’interdiction d’utiliser un compte d’accès à une plateforme en ligne dans le cadre d’une composition pénale a été recentrée :

– l’amendement CS797 a restreint le champ des infractions aux délits pour lesquels peut être prononcée une peine complémentaire ;

– l’amendement CS798 a restreint l’interdiction aux comptes ayant été utilisés pour commettre l’infraction.

La rapporteure a également simplifié les éléments qui sont notifiés aux plateformes en faisant adopter l’amendement CS795 avec un avis favorable du Gouvernement.

Sur proposition de la rapporteure, la commission spéciale a adopté quatre amendements apportant des modifications rédactionnelles (CS783, CS784, CS785, CS782).

Article 5 bis
Création d’un délit général d’outrage en ligne pouvant faire l’objet d’une amende forfaitaire délictuelle

Adopté par la commission avec modifications

Le présent article, introduit par le Sénat en séance, crée un délit d’outrage en ligne.

Ce délit est puni d’une amende de 3 750 euros et d’un an d’emprisonnement. En présence d’une circonstance aggravante, la peine d’amende encourue est portée à 7 500 euros. Il peut également faire l’objet des peines complémentaires telles que certaines peines de stage ainsi que l’interdiction d’utiliser un compte d’accès à un service en ligne.

Le présent article prévoit la possibilité que l’action publique sur ce délit puisse être éteinte par le versement d’une amende forfaitaire délictuelle (AFD) d’un montant de 300 euros. Ce montant est porté à 600 euros en présence d’une circonstance aggravante.

Le présent article a été adopté par la commission modifié par deux amendements identiques de rédaction globale, ayant fait l’objet d’un sous-amendement. Ce faisant, la commission a conservé le principe d’une amende forfaitaire délictuelle mais uniquement pour les faits commis en ligne qui constituent manifestement :

– des injures et diffamations publiques racistes c’est-à-dire à raison de l’origine ou de l’appartenance ou de la non-appartenance à une ethnie, une nation, une race ou une religion déterminée, 

– ou des injures et diffamations publiques sexistes, homophobes, handiphobes, transphobes c'est-à-dire à raison du sexe, de l’orientation sexuelle, de l’identité de genre ou du handicap.

I.   le droit en vigueur

A.   L’appréhension de l’outrage en ligne par le droit pénal

1.   Une appréhension générale par le biais du droit de la presse ou du harcèlement moral

L’outrage – défini au sens commun comme une expression quelconque (parole ou écrit, dessin ou geste, etc.) qui porte atteinte à l’honneur ou la dignité d’une personne – est appréhendé par le droit pénal par le biais du droit de la presse ou de l’infraction de harcèlement moral.

Dans les deux cas, le fait qu’il soit commis en ligne n’a pas d’incidence sur la caractérisation de l’infraction mais il peut en avoir une sur la peine encourue lorsque ce fait constitue une circonstance aggravante.

a.   L’injure et la diffamation en droit de la presse

● L’article 29 de la loi du 29 juillet 1881 définit l’injure et la diffamation de la façon suivante :

– « toute expression outrageante, termes de mépris ou invective qui ne renferme l’imputation d’aucun fait est une injure » ;

– « toute allégation ou imputation d’un fait qui porte atteinte à l’honneur ou à la considération de la personne ou du corps auquel le fait est imputé est une diffamation ».

L’injure et la diffamation sont des délits lorsque la condition de publicité, posée à l’article 23 de la même loi, est caractérisée.

L’injure publique – non précédée d’une provocation – et la diffamation publique envers un particulier sont punissables d’une amende de 12 000 euros (articles 32 et 33 de la loi précitée).

Ces peines sont aggravées dans certaines circonstances et peuvent aller jusqu’à trois ans d’emprisonnement et 75 000 euros d’amende pour une injure publique à caractère raciste ou discriminatoire commise par une personne dépositaire de l’autorité publique ou chargée d’une mission de service public.

● Ces délits peuvent être constitués pour des faits commis en ligne.

Toutefois, la condition de publicité n’est pas toujours acquise même lorsque l’auteur des faits a agi sur internet. La Cour de cassation a par exemple estimé que des injures diffusées sur un compte de réseau social accessible aux seules personnes agréées, en nombre très restreint, par l’auteur des propos injurieux, et qui forment entre elles une communauté d’intérêts, ne constituent pas des injures publiques (Cour de cassation, 1ère chambre civile, 10 avril 2013, pourvoi n° 11-19530).

● Le code pénal réprime par des contraventions la diffamation et l’injure non publiques. Ces contraventions peuvent dès lors s’appliquer à des faits commis en ligne ne répondant pas à la condition de publicité prévue pour les délits d’injure et de diffamation.

Les contraventions pour diffamation et injure non publiques

La diffamation non publique, ainsi que l’injure non publique lorsqu’elle n’a pas été précédée de provocation, sont l’une et l’autre punissables d’une contravention de 38 euros (articles R. 621-1 et R. 621-2 du code pénal).

La diffamation ou l’injure non publiques à caractère raciste ou discriminatoire est punissable d’une contravention de 1 500 euros (articles R. 625-8 et R. 625-8-1 du code pénal).

b.   Le harcèlement moral

Les outrages en ligne peuvent faire l’objet d’une qualification pénale s’ils constituent un harcèlement moral au sens des articles 222-33-2 et suivants du code pénal. Cela implique des « propos ou comportements répétés » si bien qu’un outrage en ligne isolé ne peut pas être appréhendé par cette qualification pénale.

Le harcèlement moral simple – ayant pour objet ou pour effet une dégradation des conditions de vie se traduisant par une altération de la santé physique ou mentale de la victime – est puni d’un an d’emprisonnement et de 15 000 euros d’amende (article 222-33-2-2 du code pénal).

L’utilisation d’un service de communication au public en ligne, d’un support numérique ou d’un support électronique constitue l’une des circonstances aggravantes du harcèlement moral simple. Les peines encourues sont alors portées à deux ans d’emprisonnement et à 30 000 euros d’amende. Lorsqu’une seconde circonstance aggravante est caractérisée, les peines encourues sont portées à trois ans d’emprisonnement et 45 000 euros d’amende.

Les peines encourues sont également plus importantes pour le harcèlement moral sur conjoint, en milieu professionnel et en milieu scolaire. Elles sont de trois ans d’emprisonnement et de 45 000 euros d’amende pour le harcèlement moral en milieu scolaire ainsi que pour le harcèlement moral sur conjoint, partenaire de PACS ou concubin. Elles sont de deux ans d’emprisonnement et de 30 000 euros d’amende pour le harcèlement moral en milieu professionnel.

Pour ces derniers types de harcèlement moral, il n’est pas prévu de circonstance aggravante lorsque les faits ont été commis en ligne. D’autres circonstances aggravantes existent et peuvent porter les sanctions encourues jusqu’à dix ans d’emprisonnement et 150 000 euros d’amende lorsque le harcèlement a conduit la victime à se suicider ou à tenter de se suicider.

En résumé, l’échelle des peines encourues pour la répression du harcèlement moral va d’un à dix ans d’emprisonnement et de 15 000 à 150 000 euros d’amende.

Répression du harcèlement moral par le code pénal

Peines encourues

Qualification pénale et base juridique

Un an d’emprisonnement

et 15 000 euros d’amende

• Harcèlement moral simple (article 222-33-2-2 du code pénal)

Deux ans d’emprisonnement

et 30 000 euros d’amende

• Harcèlement moral simple avec une circonstance aggravante (article 222-33-2-2 du code pénal).

• Harcèlement moral en milieu professionnel (article 222-33-2 du code pénal)

Trois ans d’emprisonnement

et 45 000 euros d’amende

• Harcèlement moral simple avec deux circonstances aggravantes (article 222-33-2 du code pénal)

• Harcèlement moral sur conjoint (article 222-33-2-1 du code pénal)

• Harcèlement moral en milieu scolaire (article 222-33-2-3 du code pénal)

Cinq ans d’emprisonnement

et 75 000 euros d’amende

 Harcèlement moral sur conjoint lorsque les faits ont causé une incapacité totale de travail supérieure à huit jours ou ont été commis alors qu’un mineur était présent et y a assisté (article 222-33-2-1 du code pénal)

 Harcèlement moral en milieu scolaire lorsque les faits ont causé une incapacité totale de travail supérieure à huit jours (article 222-33-2-3 du code pénal)

Dix ans d’emprisonnement

et 150 000 euros d’amende

• Harcèlement moral sur conjoint ou en milieu scolaire lorsque le harcèlement a conduit la victime à se suicider ou à tenter de se suicider

(articles 222-33-2-1 et 222-33-2-3 du code pénal)

Source : commission spéciale.

2.   Une appréhension spécifique pour certains outrages

Plusieurs délits sont prévus par le code pénal en matière d’outrage, lesquels peuvent s’appliquer pour des faits commis en ligne lorsque les éléments constitutifs de l’infraction sont réunis.

a.   L’outrage à agent

● L’outrage à une personne chargée d’une mission de service public, dans l’exercice ou à l’occasion de l’exercice de sa mission, est puni de 7 500 euros d’amende (article 433-5 du code pénal).

Il est constitué par des paroles, gestes ou menaces, des écrits ou des images de toute nature non rendus publics ou par l’envoi d’objets quelconques adressés lorsque les faits sont de nature à porter atteinte à la dignité de l’agent ou au respect dû à la fonction dont il est investi.

Lorsqu’il est adressé à une personne dépositaire de l’autorité publique, à un sapeur-pompier ou à un marin-pompier dans l’exercice ou à l’occasion de l’exercice de ses missions, l’outrage est puni d’un an d’emprisonnement et de 15 000 euros d’amende.

Lorsqu’il est adressé à une personne chargée d’une mission de service public et que les faits ont été commis à l’intérieur d’un établissement scolaire ou éducatif, ou, à l’occasion des entrées ou sorties des élèves, aux abords d’un tel établissement, l’outrage est puni de six mois d’emprisonnement et de 7 500 euros d’amende.

Lorsqu’il est commis en réunion, les peines sont aggravées de la façon suivante :

– six mois d’emprisonnement et 7 500 euros d’amende pour l’outrage adressé à une personne chargée d’une mission de service public, dans l’exercice ou à l’occasion de l’exercice de sa mission ;

– deux ans d’emprisonnement et 30 000 euros d’amende pour l’outrage adressé à une personne dépositaire de l’autorité publique, à un sapeur-pompier ou à un marin-pompier dans l’exercice ou à l’occasion de l’exercice de ses missions.

● Sur le même principe, l’outrage à un membre d’une juridiction est réprimé par l’article 434-24 du code pénal.

Il est puni d’un an d’emprisonnement et de 15 000 euros d’amende. Les peines sont portées à deux ans d’emprisonnement et 30 000 euros d’amende lorsque l’outrage est commis à l’audience.

● Enfin, l’outrage à un agent d’un réseau de transport fait l’objet d’une incrimination spécifique prévue à l’article L. 2242-7 du code des transports. Il est puni de six mois d’emprisonnement et de 15 000 euros d’amende. Les peines sont portées à un an d’emprisonnement et 30 000 euros d’amende lorsqu’il est commis en réunion.

b.   L’outrage sexiste ou sexuel

L’outrage sexiste ou sexuel est constitué par tout propos ou tout comportement à connotation sexuelle ou sexiste imposé à une personne, dans certaines circonstances ([94]), lorsqu’il porte atteinte à sa dignité en raison de son caractère dégradant ou humiliant, ou crée à son encontre une situation intimidante, hostile ou offensante (article 222-33-1-1 du code pénal).

Il est puni de 3 750 euros d’amende.

Il peut également, en contrepartie d’une extinction de l’action publique, faire l’objet d’une amende forfaitaire délictuelle (AFD) de 300 euros (voir B).

B.   L’amende forfaitaire délictuelle (AFD)

1.   Définition de l’AFD

La procédure de l’amende forfaitaire délictuelle (AFD) a été créée par l’article 36 de la loi n° 2016-1547 du 18 novembre 2016 de modernisation de la justice. Elle est codifiée aux articles 495-17 à 495-25 du code de procédure pénale.

Il s’agit d’une procédure de transaction – sur le modèle de l’amende forfaitaire contraventionnelle – qui permet d’apporter une réponse pénale simplifiée et rapide, sans jugement par un tribunal. Le recours à l’AFD est facultatif et dépend de la politique pénale locale mise en œuvre par le procureur de la République qui conserve toujours la possibilité d’engager des poursuites devant le tribunal. L’agent qui délivre une AFD agit, en vertu des articles 12 et 39-3 du code de procédure pénale, sous la direction du procureur de la République et conformément à ses instructions générales ou particulières.

2.   Champ d’application de l’AFD

La procédure de l’AFD n’est pas généralisée à l’ensemble des délits. Il s’agit d’une procédure spéciale qui ne peut être appliquée que si la loi la prévoit expressément pour la répression du délit concerné.

Le champ d’application de l’AFD a fait l’objet de plusieurs extensions dont la dernière en date est celle prévue par l’article 25 de la loi n° 2023-22 du 24 janvier 2023 d’orientation et de programmation du ministère de l’intérieur (dite « Lopmi »). Actuellement, une cinquantaine de délits peuvent faire l’objet d’une AFD au titre de leur répression.

Une réserve du Conseil constitutionnel a prévu que cette procédure ne peut pas s’appliquer à des délits punis d’une peine d’emprisonnement supérieure à trois ans ([95]) Dans une autre décision, il a posé les principes selon lesquels l’AFD ne peut porter que sur des infractions dont les éléments constitutifs peuvent être « aisément constatés » et doit demeurer d’un « faible montant »  ([96])

La procédure de l’AFD n’est pas applicable si le délit a été commis par un mineur ou si plusieurs infractions, dont l’une au moins ne peut donner lieu à une AFD, ont été constatées simultanément. Elle n’est pas non plus applicable en état de récidive légale, sauf lorsque la loi en dispose autrement.

3.   Montant de l’AFD

Le montant de l’AFD est fixé pour chaque délit.

Il ne peut excéder 3 000 euros (contre 200 euros pour les amendes forfaitaires contraventionnelles).

Le montant de l’AFD est minoré si l’intéressé effectue le paiement directement entre les mains de l’agent verbalisateur au moment de la constatation de l’infraction ou s’il règle le montant dans un délai de quinze jours à compter de l’envoi de l’avis d’infraction. À l’inverse, le montant est majoré si l’AFD n’est pas payée dans un délai de 45 jours suivant la constatation de l’infraction ou l’envoi de l’avis d’infraction.

principaux Délits pouvant faire l’objet d’une AFD et montants associés

Délit

(base juridique)

Montant

forfaitaire

Montant

minoré

Montant

majoré

Abandon de déchets

(article L. 541-46 du code de l’environnement)

1 500 euros

1 000 euros

2 500 euros

Conduite sans permis

(article L. 221-2 du code de la route)

800 euros

640 euros

1 600 euros

Entrave à la circulation

(article L. 412-1 du code de la route)

800 euros

640 euros

1 600 euros

Intrusion dans un établissement d’enseignement scolaire

(article 431-22 du code pénal)

500 euros

400 euros

1 000 euros

Vente à la sauvette aggravée

(article 446-2 du code pénal)

500 euros

400 euros

1 000 euros

Défaut d’assurance

(article L. 324-2 du code de la route)

500 euros

400 euros

1 000 euros

Installation illicite en réunion sur un terrain communal ou privé

(article 322-4-1 du code pénal)

500 euros

400 euros

1 000 euros

Rodéos nautiques

(article L. 5242-6-6 du code des transports)

500 euros

400 euros

1 000 euros

Exercice frauduleux de la profession de taxi (L. 3124-4 du code des transports)

500 euros

400 euros

1 000 euros

Fraude tachygraphe (ou manipulation frauduleuse d’un appareil de contrôle du temps de travail et de la vitesse installé sur un véhicule professionnel)

(article L. 3315-4 du code des transports)

500 euros

400 euros

1 000 euros

Intrusion dans une enceinte sportive de boissons alcooliques, de fusées ou d’artifices

(articles L. 332-3 et L. 332-8 du code du sport)

500 euros

400 euros

1 000 euros

Trouble au déroulement d’une compétition sportive

(article L. 332-10 du code du sport)

500 euros

400 euros

1 000 euros

Transport d’armes et de munitions non autorisé

(article L. 317-8 du code de la sécurité intérieure)

500 euros

400 euros

1 000 euros

Infractions de chasse avec circonstances aggravantes

(article L.428-5 du code de l’environnement)

500 euros

400 euros

1 000 euros

Outrage sexiste ou sexuel

(article 222-33-1-1 du code pénal)

300 euros

250 euros

600 euros

Achat ou vente d’un chien d’attaque – détention d’un chien d’attaque non stérilisé

(article L. 215-2 du code rural et de la pêche maritime)

300 euros

250 euros

600 euros

Défaut de régularisation du permis de détention d’un animal

(article L. 215-2-1 du code rural et de la pêche maritime)

300 euros

250 euros

600 euros

Dressage illicite de chiens au mordant

(article L. 215-3 du code rural et de la pêche maritime)

300 euros

250 euros

600 euros

Vente à la sauvette simple

(article 446-1 du code pénal)

300 euros

250 euros

600 euros

Vol d’une chose d’une valeur inférieure à 300 euros et restituée à la victime

(article 311-3-1 du code pénal)

300 euros

250 euros

600 euros

Filouterie

(article 313-5 du code pénal)

300 euros

250 euros

600 euros

Vente à des mineurs de boissons alcooliques

(article L. 3353-3 du code la santé publique)

300 euros

250 euros

600 euros

Destruction, dégradation ou détérioration d’un bien

(article 322-1 du code pénal)

200 euros

150 euros

450 euros

Occupation illicite des halls ou toits d’immeubles d’habitation

(article L 272-4 du code de la sécurité intérieure)

200 euros

150 euros

450 euros

Offre ou vente dans les buvettes de boissons non autorisées

(article L. 3352-5 du code de la santé publique)

200 euros

150 euros

450 euros

Usage illicite de stupéfiantes

(article L. 3421-1 du code de la santé publique)

200 euros

150 euros

450 euros

Fraude aux dispositifs de contrôle de la pollution

(article L. 318-3 du code de la route)

200 euros

150 euros

450 euros

Vente au déballage sans déclaration

(article L. 310-5 du code de commerce)

200 euros

150 euros

450 euros

Source : commission spéciale.

4.   Inscription au casier judiciaire et recours

En cas de paiement ou d’absence de contestation dans les délais autorisés, l’AFD est inscrite au casier judiciaire.

Si une contestation de l’AFD est introduite dans les formes et les délais prévus par le code de procédure pénale, le procureur de la République doit soit renoncer aux poursuites, soit envisager d’autres modalités pour exercer l’action publique (saisine du tribunal correctionnel, procédure simplifiée de l’ordonnance pénale, ou encore procédure comparution sur reconnaissance préalable de culpabilité). En revanche, le ministère public ne peut pas faire usage des mesures alternatives aux poursuites.

Il peut aussi prononcer l’irrecevabilité de la contestation de l’AFD si celle-ci n’est pas motivée ou n’a pas été adressée dans les formes prévues. La décision d’irrecevabilité peut être contestée devant le président du tribunal correctionnel ou un magistrat délégué.

En cas de condamnation à la suite de poursuites consécutives à une contestation de l’AFD, le tribunal correctionnel doit prononcer une peine d’amende qui ne peut pas être inférieure au montant de l’AFD ou de l’AFD majorée, augmentée d’un taux de 10 %. Toutefois, à titre exceptionnel, le tribunal peut, par décision spécialement motivée au regard des charges et des revenus de la personne, ne pas prononcer d’amende ou prononcer une amende d’un montant inférieur à celui de l’AFD ou de l’AFD majorée.

5.   Application de l’AFD en matière d’outrage

En matière d’outrage, la procédure d’AFD est aujourd’hui applicable, y compris en cas de récidive, uniquement à l’outrage sexiste ou sexuel prévu et réprimé par l’article 222-33-1-1 du code pénal.

Le montant de l’AFD est de 300 euros (250 euros pour l’amende minorée et 600 euros pour l’amende majorée).

En théorie, des AFD peuvent donc être délivrées pour des outrages sexistes et sexuels commis en ligne.

II.   le Dispositif introduit par le Sénat

Le présent article a été introduit en séance par un amendement présenté par M. Loïc Hervé, rapporteur, au nom de la commission spéciale (n° 134). Il a recueilli un avis défavorable du Gouvernement.

Il crée un délit général d’outrage en ligne.

Pour ce faire, il introduit une nouvelle section dans le code pénal – intitulée « De l’outrage en ligne » – et comprenant deux nouveaux articles. Cette nouvelle section est insérée après la section 4 du chapitre II du titre II du livre II du code pénal, c’est-à-dire après l’article 222-33-1-1 relatif au délit d’outrage sexiste et sexuel.

L’auteur de l’amendement a justifié, dans l’exposé sommaire, la création de ce nouveau délit par le fait que le harcèlement en ligne – le « cyberharcèlement » – serait aujourd’hui mal appréhendé par l’infraction générale de harcèlement moral.

Il serait également réprimé trop tardivement, la sanction pénale n’intervenant que « plusieurs mois, voire plusieurs années après la commission des faits ». L’objectif recherché par l’auteur de l’amendement est d’obtenir, sur le modèle du délit d’outrage sexiste et sexuel, une « sanction immédiate par le biais d’une amende forfaitaire délictuelle, outil qui a fait la preuve de son efficacité pour certains délits ».

A.   Les éléments constitutifs du délit d’outrage en ligne

● L’article 222-33-1-2 (nouveau) du code pénal punit le fait de « diffuser en ligne tout contenu qui soit porte atteinte à la dignité d’une personne ou présente à son égard un caractère injurieux, dégradant ou humiliant, soit crée à son encontre une situation intimidante, hostile ou offensante ».

La diffusion en ligne est définie comme « tout contenu transmis au moyen d’un service de plateforme en ligne », « d’un service de réseaux sociaux en ligne ou d’un service de plateformes de partage de vidéo ».

Contrairement au harcèlement moral, l’infraction est caractérisée au premier acte. Il n’est pas nécessaire d’établir un comportement ou des propos répétés.

● L’article 222-33-1-3 (nouveau) du même code prévoit sept circonstances aggravantes constituées lorsque l’infraction est commise :

– par une personne qui abuse de l’autorité que lui confèrent ses fonctions ;

– sur un mineur ;

– sur une personne dont la particulière vulnérabilité due à son âge, à une maladie, à une infirmité, à une déficience physique ou psychique ou à un état de grossesse est apparente ou connue de son auteur ;

– sur une personne dont la particulière vulnérabilité ou dépendance résultant de la précarité de sa situation économique ou sociale est apparente ou connue de son auteur ;

– par plusieurs personnes agissant en qualité d’auteur ou de complice ;

– en raison de l’orientation sexuelle ou de l’identité de genre, vraie ou supposée, de la victime ;

– par une personne qui commet la même infraction en étant en état de récidive.

Il s’agit de sept des huit cas de figure dans lesquels trouve à s’appliquer, en l’état du droit, l’outrage sexiste et sexuel (seule la circonstance d’une commission des faits dans un véhicule de transport collectif ou public n’a pas été reprise dès lors que l’infraction créée vise exclusivement la commission des faits en ligne).

B.   La pénalisation du délit d’outrage en ligne

1.   Les peines principales

Le délit d’outrage en ligne institué par le présent article est puni d’une amende de 3 750 euros et d’un an d’emprisonnement.

En présence de l’une des sept circonstances aggravantes envisagées, la peine d’amende encourue est portée à 7 500 euros. La peine d’emprisonnement encourue demeure, quant à elle, d’une année.

2.   Les peines complémentaires

Le délit d’outrage en ligne peut également faire l’objet de deux peines complémentaires.

En premier lieu, la juridiction peut prononcer une peine de stage parmi les quatre types de stage suivants :

– stage de citoyenneté, tendant à l’apprentissage des valeurs de la République et des devoirs du citoyen ;

– stage de responsabilisation pour la prévention et la lutte contre les violences au sein du couple et sexistes ;

– stage de sensibilisation à la lutte contre l’achat d’actes sexuels ;

– stage de lutte contre le sexisme et de sensibilisation à l’égalité entre les femmes et les hommes.

En second lieu, la juridiction peut prononcer l’interdiction d’utiliser un compte d’accès à un service en ligne pour une durée de six mois au plus.

3.   L’amendement forfaitaire délictuelle (AFD)

Enfin, le présent article prévoit expressément que ce nouveau délit pourrait faire l’objet d’une AFD en vue de l’extinction de l’action publique.

Le montant de l’AFD est fixé à 300 euros (250 euros pour l’amende minorée et 600 euros pour l’amende majorée).

Il est porté à 600 euros en présence d’une circonstance aggravante (500 euros pour l’amende minorée et 1 200 euros pour l’amende majorée).

III.   Les modifications apportÉes par la commission

● La commission a adopté deux amendements identiques de rédaction globale (CS817 et CS662), dont l’un présenté par les rapporteurs, ainsi qu’un sous-amendement (CS942) présenté par Mme Caroline Yadan (RE), ayant recueilli un avis favorable des rapporteurs.

Ce faisant, la commission a conservé le principe d’une AFD, mais uniquement pour les faits commis en ligne qui constituent manifestement :

– des injures et diffamations publiques racistes c’est-à-dire à raison de l’origine ou de l’appartenance ou de la non-appartenance à une ethnie, une nation, une race ou une religion déterminée, 

– ou des injures et diffamations publiques sexistes, homophobes, handiphobes, transphobes c'est-à-dire à raison du sexe, de l’orientation sexuelle, de l’identité de genre ou du handicap.

Le sous-amendement adopté a eu pour objet de retirer du champ de l’AFD les propos négationnistes qui figuraient initialement dans la liste des faits prévus par les amendements de rédaction globale. En effet, il est apparu à la commission que ces propos méritaient toujours la mise en œuvre de modalités de poursuites plus lourdes.

● La nouvelle rédaction de l’article conduit à insérer, dans la loi du 29 juillet 1881 sur la liberté de la presse, un nouveau paragraphe intitulé « Amende forfaitaire pour certaines infractions commises dans l’espace numérique », et comprenant un seul article numéroté 65-5.

L’objectif de la commission est de punir des faits qui ne sont à l’heure actuelle pas ou peu poursuivis, en créant un outil supplémentaire pour permettre une réponse pénale plus rapide et plus efficace.

La rédaction retenue respecte les principes fixés par le Conseil constitutionnel. En effet, les délits mentionnés sont punis d’un an d’emprisonnement et de 45 000 euros d’amende. Ils sont donc éligibles à l’AFD.

Au surplus, la rédaction retenue ne vise que les faits qui constituent « manifestement » ces délits. Ils sont donc aisément constatables au sens de la jurisprudence constitutionnelle précitée.

Article 5 ter A (nouveau)
Ajout dans le code pénal d’un stage de sensibilisation au respect des personnes dans l’espace numérique et à la prévention des infractions en ligne dont le cyber-harcèlement

 

Introduit par la commission

Le présent article, introduit par la commission, crée un nouveau type de stage dans le code pénal, dédié à la sensibilisation au respect des personnes dans l’espace numérique.

I.   Le droit en vigueur

La peine de stage est une peine correctionnelle prévue par l’article 131-5-1 du code pénal lorsqu'un délit est puni d'une peine d’emprisonnement. La juridiction peut la prononcer à la place ou en même temps que l’emprisonnement. La durée du stage ne peut excéder un mois.

La rédaction actuelle de l’article précité prévoit huit types de stage : stage de citoyenneté, stage de sensibilisation à la sécurité routière, stage de sensibilisation aux dangers de l’usage de produits stupéfiants, stage de responsabilisation pour la prévention et la lutte contre les violences au sein du couple et sexistes, stage de sensibilisation à la lutte contre l’achat d'actes sexuels, stage de responsabilité parentale, stage de lutte contre le sexisme, stage de sensibilisation à la prévention et à la lutte contre la maltraitance animale.

II.   Le dispositif introduit par la commission

Le présent article a été introduit par la commission à la suite de l’adoption d’un amendement présenté par les rapporteurs (CS549), ayant fait l’objet d’un sous-amendement de portée rédactionnelle présenté par Mme Caroline Yadan (RE) (CS951).

Il ajoute un nouveau type de stage à l'article L. 131‑5‑1 du code pénal, dédié à la sensibilisation au respect des personnes dans l’espace numérique et à la prévention des infractions commises en ligne, dont le cyber-harcèlement.

Article 5 ter
Création d’un délit de publication d’hypertrucage (deepfake) à caractère sexuel

Adopté par la commission avec modifications

Le présent article, introduit par le Sénat en séance, crée un délit de publication d’hypertrucage à caractère sexuel (deepfake érotique ou pornographique) représentant l’image ou les paroles d’une personne sans son consentement, puni de deux ans d’emprisonnement et de 60 000 euros d’amende.

Les peines encourues sont portées à trois ans d’emprisonnement et 75 000 euros d’amende lorsque la publication du montage ou du contenu généré par un traitement algorithmique a été réalisée en utilisant un service de communication au public en ligne.

Le présent article a été adopté par la commission modifié par des amendements rédactionnels et un amendement ayant permis d’élargir le champ de l’infraction, au-delà de la publication du deepfake, au fait de l’avoir porté à la connaissance du public ou d’un tiers.

I.   le droit en vigueur

La technologie de l’« hypertrucage » ou « permutation intelligente de visages » (deepfake) est une technique reposant sur l'intelligence artificielle et visant à fabriquer des synthèses d’images ou de vidéos réalistes.

Il s’agit d’un phénomène en pleine expansion apparu il y a quelques années.

Ainsi que le rappelle une réponse ministérielle de 2019, ces hypertrucages « ont d’abord été popularisés sur internet, notamment via le site Reddit, où des internautes se sont servi de la technologie disponible afin de créer de fausses vidéos érotiques mettant en scène des célébrités » ([97]).

Dans un article publié en 2020, Mme Claire Langlais-Fontaine a mis en évidence l’insuffisance du cadre législatif français pour lutter contre les deepfakes érotiques ou pornographiques ([98]).

Les diverses infractions d’atteinte à la vie privée ou d’atteinte à la représentation de la personne ne permettent pas de pénaliser efficacement la publication d’images ou de vidéos hypertruquées à caractère sexuel.

Tel est le cas, en particulier, de l’article 226-2-1 du code pénal qui réprime la diffusion, sans le consentement de la personne représentée, d’images présentant un caractère sexuel même si ces images ont été réalisées avec le consentement de cette dernière (pratique dite du revenge porn). Ce texte ne traite pas, en effet, de la création d’images ou de paroles, ou de la transformation d’images ou de paroles. Les principes de légalité et d’interprétation stricte du droit pénal rendent dès lors difficiles son éventuelle application aux deepfakes à caractère sexuel.

Tel est le cas aussi de l’article 226-8 du même code qui punit « le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n'apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention ».

Ce texte n’est pas plus adapté à la répression du deepfake érotique ou pornographique.

En effet, la plupart du temps, le deepfake à caractère sexuel n’est pas présenté au spectateur comme une vidéo réelle. La personne représentée peut dès lors avoir des difficultés à établir que l’auteur ou le diffuseur de la vidéo n’auraient pas fait mention qu’il s’agissait d’un montage.

● Au final, en l’état du droit, seule une action civile, sur le fondement d’une atteinte au droit à l’image – découlant de l’article 9 du code civil qui protège la vie privée – permettrait de sanctionner efficacement la diffusion d’un deepfake à caractère sexuel.

II.   le Dispositif introduit par le sénat

● Le présent article vise à permettre une répression pénale du deepfake à caractère sexuel.

Le Sénat l’a introduit par l’adoption d’un amendement du Gouvernement (n° 128), ayant recueilli un avis favorable de la commission, modifié par un sous-amendement (n° 129 rectifié bis) présenté par Mme Alexandra Borchio Fontimp (Les Républicains), ayant également recueilli un avis favorable de la commission ainsi qu’un avis favorable du Gouvernement.

Selon l’exposé sommaire de l’amendement adopté du Gouvernement, « 96 % des vidéos "deepfake" sont des vidéos pornographiques » et « en 2019, 8 des 10 sites pornographiques les plus consultés [en] hébergeaient ».

● Le présent article crée un nouveau délit de publication d’hypertrucage (deepfake) à caractère sexuel représentant l’image ou les paroles d’une personne sans son consentement.

Pour ce faire, il insère dans le code pénal un article 226-8-1 nouveau qui punit de deux ans d’emprisonnement et de 60 000 euros d’amende :

– « le fait de publier, sans son consentement, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne, et présentant un caractère sexuel » ;

– ou encore « le fait de publier par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et reproduisant l’image ou les paroles d’une personne, sans son consentement, et présentant un caractère sexuel ».

Ce même article prévoit des circonstances aggravantes issues du sous-amendement de Mme Alexandra Borchio Fontimp.

Les peines encourues sont portées à trois ans d’emprisonnement et 75 000 euros d’amende « lorsque la publication du montage ou du contenu généré par un traitement algorithmique a été réalisée en utilisant un service de communication au public en ligne ».

Enfin, toujours à la suite de l’adoption du sous-amendement précité, il dispose que les dispositions particulières des lois qui régissent le droit de la presse sont applicables pour déterminer les personnes responsables lorsque le délit est commis par la voie de la presse écrite ou audiovisuelle.

Il s’ensuit que le directeur de publication concerné peut également être poursuivi.

● Le nouveau délit institué par le présent article doit permettre de sanctionner plus efficacement, sur le plan pénal, les auteurs et diffuseurs de deepfakes à caractère sexuel sans qu’il soit nécessaire d’établir, par exemple, leur intention de tromper le spectateur sur le caractère réel de la vidéo.

III.   Les modifications apportÉes par la commission

Outre trois amendements rédactionnels présentés par les rapporteurs (CS527, CS528, CS529), la commission a adopté un amendement de Mme Virginie Duby-Muller (LR), ayant recueilli un avis favorable des rapporteurs, qui a élargi le champ de l’infraction, au-delà de la publication du deepfake, au fait de l’avoir porté à la connaissance du public ou d’un tiers (CS465). L’objectif recherché est de pénaliser le partage d’un deepfake présentant un caractère sexuel.

Article 5 quater (nouveau)
Ajout d’une circonstance aggravante à l’outrage sexiste et sexuel lorsqu’il est commis en ligne

Introduit par la commission

Le présent article, introduit par la commission, instaure une nouvelle circonstance aggravante à l’outrage sexiste et sexuel lorsqu’il est commis en ligne.

I.   Le droit en vigueur

L’outrage sexiste et sexuel consiste à imposer à une personne un propos ou un comportement à connotation sexiste ou sexuelle, qui porte atteinte à sa dignité ou qui l’expose à une situation intimidante, hostile ou offensante (article R. 625-8-3 du code pénal).

Il s'agit d'une contravention punie d’une amende de 1 500 euros.

Dans huit circonstances listées par l’article 222-33-1-1 du code pénal, l’outrage sexiste et sexuel est un délit puni de 3 750 euros d'amende.

Ce délit peut faire l’objet d'une amende forfaitaire et délictuelle, qui éteint l’action publique, d'un montant de 300 euros.

Les huit circonstances aggravantes faisant passer l’outrage sexiste et sexuel de la catégorie de la contravention à celle du délit sont caractérisées lorsque les faits sont commis :

– par une personne qui abuse de l’autorité que lui confèrent ses fonctions ;

– sur un mineur ;

– sur une personne dont la particulière vulnérabilité due à son âge, à une maladie, à une infirmité, à une déficience physique ou psychique ou à un état de grossesse est apparente ou connue de son auteur ;

– sur une personne dont la particulière vulnérabilité ou dépendance résultant de la précarité de sa situation économique ou sociale est apparente ou connue de son auteur ;

– par plusieurs personnes agissant en qualité d’auteur ou de complice ;

– dans un véhicule affecté au transport collectif de voyageurs ou au transport public particulier ou dans un lieu destiné à l’accès à un moyen de transport collectif de voyageurs ;

– en raison de l’orientation sexuelle ou de l’identité de genre, vraie ou supposée, de la victime ;

– ou par une personne déjà condamnée pour la contravention d’outrage sexiste et sexuel et qui commet la même infraction en étant en état de récidive.

II.   Le dispositif introduit par la commission

Le présent article a été introduit par la commission à la suite de l’adoption de deux amendements identiques CS723 et CS762 présentés par M. Erwan Balanant (Dem) et Mme Caroline Yadan (RE).

Il ajoute une nouvelle circonstance aggravante à l’outrage sexiste et sexuel lorsque celui-ci est commis par l’utilisation d’un service de communication au public en ligne ou par le biais d’un support numérique ou électronique.

Il s’ensuit qu’un outrage sexiste et sexuel commis en ligne devient un délit pouvant faire l’objet, le cas échéant, d’une amende forfaitaire délictuelle.

Article 6
Déploiement d’un filtre national de cybersécurité grand public

Adopté par la commission avec modifications

Le présent article instaure un dispositif administratif de filtrage « anti-arnaque » des sites internet manifestement conçus pour le vol de données personnelles ou financières.

Ce dispositif prend la forme, dans un premier temps, et durant au maximum sept jours, d’un message délivré à l’internaute, à la demande de l’autorité administrative, par les fournisseurs de navigateurs internet en vue de l’avertir du risque qu’il encourt en se connectant au site réputé malveillant. Dans un deuxième temps, ce dispositif peut aboutir au blocage administratif du site internet mis en œuvre par les fournisseurs d’accès à internet, les fournisseurs de systèmes de résolution de noms de domaine et les fournisseurs de navigateurs internet. La durée du blocage administratif est de trois mois, renouvelable deux fois pour des durées de six mois, sur avis conforme d’une personnalité qualifiée membre de la Commission nationale de l’informatique et des libertés (Cnil).

Le présent article a été adopté par le Sénat avec plusieurs modifications tendant à renforcer l’efficacité du filtrage ainsi que le rôle de la personnalité qualifiée de la Cnil.

Le présent article a été adopté par la commission modifié par plusieurs amendements qui ont conduit à :

– limiter son champ d’application aux sites intrinsèquement cyber-malveillants ;

– inclure les faux sites de vente dans le champ du filtre « anti-arnaque » ;

– limiter au filtrage, à l’exclusion du blocage, le type de mesures dont la mise en œuvre peut être demandée aux fournisseurs de navigateurs ;

– permettre, lors de la mise en place du filtre, une redirection de l’internaute vers une page d’information à la main du fournisseur de navigateur, mais comportant un contenu défini par l’autorité administrative ;

– supprimer l’avis conforme de la personnalité qualifiée pour la prolongation de la mesure ;

– supprimer l’obligation, pour l’autorité administrative, de vérifier régulièrement le caractère actif des sites concernés par le filtre ;

– supprimer la notification aux moteurs de recherche et annuaires de sites ;

– compléter le rapport d'activité de la personnalité qualifiée avec des statistiques sur les sorts réservés aux recours ;

– et prévoir la publication par l’autorité administrative de la liste des adresses électroniques concernées par le filtre « anti-arnaque ».

I.   le Droit en vigueur

Le blocage d’un site internet diffusant des contenus illicites peut intervenir par voie judiciaire ou par voie administrative.

Le blocage judiciaire comme le blocage administratif sont permis par le droit européen, en particulier par l’article 9 du règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (dit règlement « RSN », ou « DSA » en anglais pour Digital Services Act). Cet article encadre, à compter du 17 février 2024, les injonctions d’agir contre les contenus illicites adressées aux « fournisseurs de service intermédiaire ».

A.   Le blocage judiciaire des contenus illicites en ligne

● Il existe un dispositif général permettant le blocage judiciaire des sites litigieux, prévu au 8 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN). Celui-ci est déplacé et réécrit, dans la LCEN, par les articles 22 et 24 du présent projet de loi. Il est décrit dans le commentaire de l’article 24.

● Il existe aussi divers dispositifs spécifiques permettant le blocage judiciaire de certains contenus en ligne :

– un dispositif spécifique pour les contenus portant atteinte aux droits d’auteur et aux droits voisins prévu à l’article L. 336-2 du code de la propriété intellectuelle ; celui-ci est similaire au dispositif général, sous réserve d’une ouverture plus large de la qualité pour agir puisqu’il peut être sollicité par des organismes de défense professionnelle et par le Centre national du cinéma et de l’image animée ;

– un dispositif spécifique pour les contenus terroristes, prévu par l’article 706-23 du code de procédure pénale, qui permet l’intervention du juge des référés pour des faits d’incitation au terrorisme ou d’apologie des actes de terrorisme prévus et réprimés à l’article 421-2-5 du code pénal ;

– et un dispositif spécifique, en période électorale, pour les contenus visant à altérer la sincérité du scrutin prévu à l’article L. 163-2 du code électoral ; il permet également l’intervention du juge des référés pour ordonner le retrait judiciaire des contenus en ligne constituant des allégations ou imputations inexactes ou trompeuses de nature à altérer la sincérité du scrutin lorsqu’ils sont diffusés de manière délibérée, artificielle ou automatisée et massive.

B.   Le blocage administratif des contenus illicites en ligne

Il n’existe pas de dispositif administratif général permettant un blocage des contenus illicites sur internet.

Il existe, en revanche, deux dispositifs spécifiques, l’un pour les contenus pédopornographiques et terroristes, l’autre pour les contenus constituant des pratiques commerciales déloyales, trompeuses ou agressives.

Le blocage administratif de contenus en ligne doit respecter la liberté d’expression et de communication consacrée par l’article 11 de la Déclaration des droits de l’homme et du citoyen.

Le Conseil constitutionnel a jugé que la liberté d’accéder à des services de communication au public en ligne découle de la liberté d’expression et de communication compte tenu de « l’état actuel des moyens de communication et eu égard [à leur] développement généralisé […] ainsi qu’à l’importance prise par ces services pour la participation à la vie démocratique et l’expression des idées et des opinions » ([99])

Dans la même décision, le Conseil constitutionnel a validé le dispositif de blocage administratif des contenus pédopornographiques et terroristes après avoir relevé les diverses garanties dont il était assorti, et après avoir rappelé que les atteintes portées à l’exercice de la liberté d’expression et de communication étaient nécessaires, adaptées et proportionnées à l’objectif d’intérêt général poursuivi.

De même, le Conseil constitutionnel a jugé conforme à la Constitution le blocage administratif des contenus constituant des pratiques commerciales déloyales, trompeuses ou agressives, en soulignant dans sa décision que le législateur avait poursuivi un but d’intérêt général de protection des consommateurs et de loyauté des transactions commerciales, et que les garanties prévues étaient suffisantes ([100]).

Les garanties entourant ces deux dispositifs ont inspiré celles prévues pour le dispositif proposé par le présent article.

a.   Les garanties prévues pour le blocage administratif des contenus pédopornographiques ou terroristes

La possibilité d’un blocage administratif des contenus pédopornographiques et terroristes est prévue aux articles 6-1 à 6-1-5 de la LCEN. L’autorité administrative désignée par décret pour la mise en œuvre de ce dispositif est l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), rattaché à la direction générale de la police nationale.

Ce dispositif est aménagé par l’article 23 du présent projet de loi. Il est présenté plus en détail dans le commentaire d’article associé.

Trois grandes garanties sont prévues : le contrôle par une personnalité qualifiée, un examen accéléré des recours, et la remise d’un rapport public annuel.

En premier lieu, les demandes de retrait sont soumises à un contrôle a posteriori d’une personnalité qualifiée, désignée en son sein par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pour la durée de son mandat. La personnalité qualifiée s’assure de la régularité des demandes de retrait. Si elle constate une irrégularité, elle peut à tout moment recommander à l’autorité administrative d’y mettre fin. Si cette dernière ne suit pas cette recommandation, la personnalité qualifiée peut saisir la juridiction administrative compétente, en référé ou sur requête.

Cette personnalité qualifiée est aussi l’autorité administrative désignée pour statuer sur les demandes de retrait transfrontières. Elle statue par décision motivée.

En deuxième lieu, pour les contenus suspectés de terrorisme, des délais accélérés d’examen des recours sont obligatoires dans certaines circonstances.

Sans préjudice des recours de droit commun, le I de l’article 6-1-5 de la LCEN dispose que les fournisseurs de services d’hébergement, les fournisseurs de contenus et la personnalité qualifiée de l’Arcom peuvent saisir le président du tribunal administratif, dans un délai de quarante-huit heures à compter de la notification de l’injonction de retrait pour en demander l’annulation.

Dans ce cas, il est prévu que la juridiction doit statuer dans un délai de soixante-douze heures à compter de la saisine. En cas d’appel, la juridiction concernée est tenue de statuer dans le délai d’un mois.

Ce délai d’examen accéléré du recours est également prévu au II du même article en matière d’injonction de retrait transfrontière.

Enfin, en troisième lieu, la personnalité qualifiée rend public chaque année un rapport d’activité sur les conditions d’exercice et les résultats de son activité, qui précise notamment le nombre de demandes de retrait, le nombre de contenus qui ont été retirés, les motifs de retrait et le nombre de recommandations faites à l’autorité administrative.

Ce rapport est remis au Gouvernement et au Parlement.

b.   Les garanties prévues pour le blocage administratif des contenus constituant des pratiques commerciales déloyales, trompeuses ou agressives

L’article L. 521-3-1 du code de la consommation régit le dispositif administratif de blocage des contenus sur internet constituant des pratiques commerciales déloyales, trompeuses ou agressives.

Ce dispositif ne peut être mis en œuvre que si l’auteur de la pratique frauduleuse constatée sur cette interface n’a pu être identifié ou s’il n’a pas déféré à une injonction de mise en conformité prise après une procédure contradictoire (article L. 521-1 du code de la consommation).

Dans ces deux cas, les agents habilités de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) peuvent :

– ordonner aux opérateurs de plateforme en ligne d’afficher un message avertissant les consommateurs du risque de préjudice encouru lorsqu’ils accèdent au contenu manifestement illicite ;

– et ordonner aux opérateurs de plateforme en ligne ou aux hébergeurs de contenus, pour les infractions les plus graves passibles d’une peine d’au moins deux ans d’emprisonnement, le blocage d’un nom de domaine, ou encore le déréférencement ou la limitation de l’accès aux adresses électroniques des sites dont les contenus sont manifestement illicites.

Les mesures ainsi ordonnées doivent être mises en œuvre dans un délai, fixé par la DGCCRF, qui ne peut être inférieur à quarante-huit heures.

II.   le Dispositif proposé

● Le présent article institue un dispositif administratif de filtrage des sites présentant des contenus manifestement conçus pour le vol de données personnelles et financières (dit aussi « tentatives d’hameçonnage »). Ce dispositif est désigné comme un « filtre national de cybersécurité grand public » ou encore comme un « filtre anti-arnaque ».

Le dispositif proposé s’inspire des garanties prévues pour le blocage administratif des contenus terroristes et pédopornographiques.

Il s’inspire également de la procédure en deux phases du système de filtrage des contenus constituant des pratiques commerciales déloyales, trompeuses ou agressives avec, dans un premier temps, un message d’avertissement, et, dans un second temps, un blocage du site.

● Pour ce faire, le présent article remplace les dispositions – aujourd’hui sans objet – de l’article 12 de la LCEN par une nouvelle rédaction comprenant cinq divisions.

Le I confère à une autorité administrative le pouvoir d’enjoindre, à titre conservatoire, les fournisseurs de navigateurs internet d’afficher un message d’avertissement, pendant une durée de sept jours, visant à dissuader un utilisateur de se connecter à un site « manifestement conçu » pour commettre certaines infractions.

Le II permet, dans certaines conditions, à la même autorité administrative d’enjoindre, à titre conservatoire, le blocage du site pour une durée maximale de trois mois. Cette période de blocage peut être prolongée à deux reprises, après avis conforme d’une personnalité qualifiée désignée au sein de la Cnil, pour une nouvelle durée de six mois maximum.

Le III définit le rôle et les prérogatives de la personnalité qualifiée chargée de contrôler les injonctions de l’autorité administrative.

Le IV prévoit des sanctions pénales en cas de manquement aux obligations définies.

Le V prévoit un décret d’application.

A.   le Champ d’application du filtre « anti-arnaque »

Le filtrage proposé vise les sites internet « manifestement conçu[s] pour réaliser des opérations constituant les infractions mentionnées aux articles 226-4-1, 226-18 et 323-1 du code pénal et à l’article L. 163-4 du code monétaire et financier ».

Autrement dit, il s’agit des infractions suivantes :

– l’usurpation d’identité ;

– la collecte de données à caractère personnel par un moyen frauduleux, déloyal ou illicite ;

– l’accès frauduleux à un système de traitement automatisé de données ;

– l’usage frauduleux de moyens de paiement.

On désigne parfois ces infractions sous le terme « d’hameçonnage » qui couvre toutes les tentatives de vols de données personnelles et financières.

B.   les Modalités du filtre « anti-arnaque »

Dans un premier temps, le filtre « anti-arnaque » ne vise pas à un blocage du site mais, ainsi que l’indique l’étude d’impact annexée au projet de loi, à « une réorientation de l’internaute vers une page de signalement en lieu et place du site cybermalveillant ».

L’internaute reste libre de poursuivre sa navigation sur le site réputé malveillant.

Toujours selon l’étude d’impact, « le scénario typique contre lequel le dispositif vise à se prémunir est [celui dans lequel] un utilisateur reçoit un message (courriel, SMS) l’invitant à cliquer sur un lien imitant un service public ou un service marchand ».

Dans un second temps, le site peut être bloqué. Le renouvellement de la période de blocage nécessite l’avis conforme de la personnalité qualifiée.

1.   Première étape : un message d’avertissement pour une durée de sept jours

Dans un premier temps, le filtrage prend la forme d’un message d’avertissement à destination de l’internaute cherchant à se connecter au site réputé malveillant. Ce message a pour but d’avertir « l’utilisateur du risque de préjudice encouru en cas d’accès à cette adresse ».

L’apposition du message incombe aux fournisseurs de navigateurs internet auxquels l’autorité administrative adresse une « notification ». Il doit intervenir sans délai, à titre conservatoire, après la notification, et pour une durée de sept jours.

Dans le même temps, l’autorité administrative doit informer l’éditeur du site concerné. Celui-ci est invité par l’autorité administrative à faire part de ses observations dans un délai de cinq jours.

Cette notification de l’autorité administrative peut être délivrée après le constat par un agent spécialement habilité que le site a été « manifestement conçu » dans le but de réaliser les infractions précitées.

2.   Deuxième étape : un blocage du site pour une durée de trois mois

À l’issue du délai de sept jours, si le constat qui a motivé la notification précitée est toujours valable, l’autorité administrative peut, par décision motivée, adresser une « injonction » aux fournisseurs de navigateurs internet, aux fournisseurs d’accès à internet et aux fournisseurs de systèmes de résolution de noms de domaine d’ « empêcher l’accès à l’adresse de ce service, et d’afficher un message avertissant les utilisateurs du risque de préjudice encouru lorsqu’ils tentent d’y accéder ».

Il est possible de passer directement à l’étape du blocage du site, sans la phase préalable du message d’avertissement, lorsque l’éditeur du site litigieux n’a pas mis à disposition les informations permettant de l’identifier prévues à l’article 1‑1 de LCEN, ou lorsque celles-ci ne permettent pas de le contacter

Ce blocage intervient pour une durée maximale de trois mois.

3.   Troisième étape : une prolongation du blocage pour une durée de six mois, renouvelable une fois, sur avis conforme de la personnalité qualifiée

À l’issue de la première période de blocage de trois mois, la mesure destinée à empêcher l’accès à l’adresse du service peut être prolongée de six mois au plus sur avis conforme d’une personnalité qualifiée. Une durée supplémentaire de six mois peut être prescrite selon la même procédure.

La personnalité qualifiée est désignée au sein de la Cnil pour la durée de son mandat. Elle doit s’assurer « du caractère justifié des mesures et des conditions d’établissement, de mise à jour, de communication et d’utilisation de la liste des adresses électroniques concernées ». Elle doit également rendre public chaque année un rapport d’activité qui est remis au Parlement et au Gouvernement.

Ce faisant, le présent article reprend un ensemble de propositions formulées par le Conseil d’État dans son avis sur le projet de loi, ce dernier ayant suggéré que « la durée des mesures empêchant l’accès au service soit limitée à trois mois, que ces mesures ne puissent être renouvelées que deux fois pour une durée de six mois, au plus, sur avis conforme de la personnalité qualifiée et que cette dernière exerce un contrôle non seulement sur la régularité formelle des mesures mais aussi sur leur justification » (point n° 27).

4.   Sanctions pénales

Tout manquement à ses obligations par une personne destinataire d’une notification est puni d’un an d’emprisonnement et de 250 000 euros d’amende.

C.   la Suspension du filtre « anti-arnaque »

S’il peut être mis en œuvre pour une durée assez longue, le filtre « anti-arnaque » peut aussi être suspendu dans plusieurs circonstances.

En premier lieu, à tout moment, et à chaque étape, l’autorité administrative peut demander sans délai aux personnes destinataires de la notification ou de l’injonction de mettre fin aussitôt aux mesures conservatoires. Tel doit être le cas lorsque l’autorité administrative a été convaincue de l’absence de caractère malveillant du site à la suite des observations de son éditeur.

En deuxième lieu, la personnalité qualifiée peut à tout moment enjoindre à l’autorité administrative de mettre fin aux mesures qu’elle a prises. Cette dernière possède donc un pouvoir de suspension du filtre et non pas seulement d’une faculté de saisine du juge administratif comme c’est le cas pour le filtre administratif des contenus suspectés de pédopornographie ou de terrorisme.

La personnalité qualifiée peut aussi saisir le collège de la Cnil « lorsque l’enjeu le justifie ».

En troisième lieu, l’éditeur du site bloqué peut adresser un recours administratif suspensif à la personnalité qualifiée. Le blocage est suspendu durant l’instruction de ce recours. Là encore, il s’agit d’une différence notable avec le filtre administratif des contenus pédopornographiques et terroristes. Le dispositif proposé par le projet de loi offre davantage de garanties à l’éditeur du site compte tenu de la moindre gravité des infractions reprochées.

Au regard des nombreuses garanties prévues par le présent article, le Conseil d’État a d’ailleurs estimé dans son avis que « le dispositif prévu ne se heurte à aucun obstacle d’ordre constitutionnel ou conventionnel, notamment au regard de la liberté d’expression et de communication » (point n° 28).

III.   les Modifications apportées par le sénat

Outre trois amendements de précision rédactionnelle (n° 136, COM-103, et COM-107) et un amendement de coordination (n° 135) tous présentés par le rapporteur M. Patrick Chaize en commission ou en séance, le Sénat a modifié le présent article par l’adoption de neuf amendements lors de l’examen du texte par la commission.

Ces amendements tendent à renforcer aussi bien l’efficacité du filtre administratif « anti-arnaque » que le rôle de la personnalité qualifiée désignée au sein de la Cnil.

A.   Un renforcement du filtre administratif « anti-arnaque »

● Six amendements présentés par le rapporteur M. Patrick Chaize ont conduit à renforcer l’efficacité du filtrage des sites malveillants.

Un premier amendement a eu pour effet de faciliter l’activation du dispositif. La rédaction initiale du texte – qui prévoyait que les contenus litigieux devaient être « manifestement conçus pour réaliser » l’une des infractions mentionnées –  a été remplacée par une nouvelle rédaction qui prévoit que le site peut être filtré s’il « réalise manifestement » l’une de ces infractions. Selon l’exposé sommaire de l’amendement, cette nouvelle rédaction permet de ne pas avoir à établir l’intention frauduleuse de l’éditeur du site (COM-101).

Un deuxième amendement a remplacé la simple information de l’éditeur du site en cas de mise en place du filtrage par une mise en demeure adressée par l’autorité administrative en vue de cesser les opérations litigieuses (COM-102).

Un troisième amendement a uniformisé l’information présentée aux internautes sur le message d’avertissement qui doit s’afficher sur leurs écrans en cas de tentative d’accès à un site soupçonné d’être frauduleux. L’amendement adopté prévoit que ce message doit être clair, lisible, unique et compréhensible et permettre aux utilisateurs d’accéder au site internet officiel du groupement d’intérêt public pour le dispositif national d’assistance aux victimes d’actes de cybermalveillance – GIP Acyma (COM-104).

Un quatrième amendement a clarifié la nature des mesures que l’autorité administrative peut enjoindre aux intermédiaires techniques de prendre afin d’empêcher l’accès aux sites frauduleux à l’issue de la première période de filtrage de sept jours. Il prévoit que la décision de l’autorité administrative désigne quel fournisseur est chargé d’empêcher l’accès à l’adresse de ce service, en fonction de l’injonction émise et de la nature de la mesure envisagée. Il ajoute la mise en place d’une redirection vers une page d’information de l’autorité administrative ayant ordonné la mesure de blocage afin d’informer les utilisateurs des raisons pour lesquelles ce blocage a été ordonné (COM-105).

Un cinquième amendement a instauré une obligation pour l’autorité administrative de vérifier, à l’approche de l’expiration de la période de blocage, si les sites dont l’accès a été bloqué sont toujours actifs ou non (COM-106).

Le sixième amendement du rapporteur a précisé que la peine d’un an d’emprisonnement et de 250 000 euros d’amende peut également s’appliquer aux personnes destinataires d’une « injonction » de l’autorité administrative – et non pas seulement d’une « notification » comme prévu par le dispositif proposé initialement – ce qui permet d’inclure plus explicitement dans le champ de l’infraction les fournisseurs de services d’accès à internet, les fournisseurs de systèmes de résolution de noms de domaine et les fournisseurs de navigateurs sur internet (COM-110).

● Enfin, un amendement présenté par Mme Sylvianne Noël (Les Républicains) a prévu que lors de l’étape permettant le blocage du site, l’autorité administrative peut également notifier les adresses électroniques aux moteurs de recherche ou aux annuaires en vue de prendre les mesures utiles pour faire cesser leur référencement (COM-8).

B.   Un renforcement du rôle de la personnalité qualifiée

Deux amendements, présentés par le rapporteur M. Patrick Chaize, ont conduit à renforcer le rôle de la personnalité qualifiée de la Cnil chargée de veiller à l’application proportionnée du filtre « anti-arnaque ».

Un premier amendement a renforcé son information en prévoyant que l’autorité administrative doit la prévenir lorsqu’elle lève des mesures de filtrage ou de blocage de sa propre initiative (COM-108).

Un second amendement a complété, par des éléments statistiques, le contenu du rapport d’activité annuel établi par la personnalité qualifiée (COM-109).

IV.   Les modifications apportÉes par la commission

Le présent article a été adopté par la commission modifié par vingt-un amendements, dont cinq de portée rédactionnelle présentés par les rapporteurs (CS536, CS542, CS544, CS545, CS546) et un par M. Éric Bothorel (RE) identique à un amendement des rapporteurs (CS410).

A.   Les modifications portant sur le champ du filtre « anti-arnaque »

● L’adoption de deux amendements identiques, présentés par les rapporteurs et par M. Éric Bothorel (RE), ont conduit à limiter le champ d’application du filtre « anti-arnaque » aux sites intrinsèquement cyber-malveillants (CS404 et CS530).

Ces amendements sont ainsi revenus sur une modification du Sénat – tendant à viser les sites qui « réalisent manifestement » les infractions listées dans le champ du filtre – pour rétablir la version initiale du texte qui inclut dans le champ du filtre uniquement les sites « manifestement conçu pour réaliser » ces infractions.

Autrement dit, seuls les sites conçus nativement pour être des arnaques sont susceptibles d’être touchés par le filtre administratif institué par le présent article.

● L’adoption de trois amendement identiques, présentés par les rapporteurs, Mme Mireille Clapot (RE) et M. Éric Bothorel (RE) ont permis d’inclure les faux sites de vente dans le champ du filtre « anti-arnaque » (CS406, CS534 et CS659).

La rédaction retenue vise les « opérations de hameçonnage en ligne constitutives d’une escroquerie ». Le hameçonnage est défini par les mêmes amendements comme « le fait de mettre en ligne ou diriger l’utilisateur vers une interface dont les caractéristiques sont de nature à créer une confusion avec l’interface en ligne d’un service existant, et déterminer ainsi l’utilisateur de cette interface, à son préjudice ou au préjudice d’un tiers, à fournir des données personnelles ou à verser une somme d’argent ».

B.   Les modifications portant sur la mise en œuvre du filtre « anti-arnaque »

● La commission a adopté un amendement de M. Éric Bothorel (RE), ayant recueilli un avis favorable des rapporteurs, dont l’objet est de limiter au filtrage, à l’exclusion du blocage, le type de mesures dont la mise en œuvre peut être demandée aux fournisseurs de navigateurs (CS620).

Cet amendement prévoit que la décision de l’autorité administrative doit indiquer que les fournisseurs de navigateurs permettent aux utilisateurs d’accéder au service concerné après affichage d’un message clair, lisible, unique et compréhensible avertissant du risque de préjudice encouru.

En conséquence, les fournisseurs de navigateurs ne peuvent être contraints de procéder à un blocage du site, contrairement aux fournisseurs d’accès à internet et aux fournisseurs de systèmes de résolution de noms de domaine.

● La commission a, par ailleurs, adopté un amendement des rapporteurs visant à préciser que le renvoi vers une page d’information, lors de la mise en place de la mesure de filtrage, ne doit pas nécessairement viser une page de l’autorité administrative (CS538). Autrement dit, le renvoi pourra s’opérer vers une page d’information à la main du fournisseur de navigateur, mais comportant un contenu défini par l’autorité administrative.

● La commission a adopté deux amendements identiques des rapporteurs et de M. Éric Bothorel (RE) qui ont supprimé la notification aux moteurs de recherche et annuaires de sites (CS413 et CS541). Cette modification se justifie par le fait que les sites malveillants ont souvent une durée d’existence très courte, si bien que les moteurs de recherche et annuaires n’auront, en tout état de cause, pas le temps de les référencer avant la mise en œuvre du filtrage ou du blocage.

C.   Les modifications portant sur le rôle de la personnalité qualifiée

● La commission a supprimé l’avis conforme de la personnalité qualifiée s’agissant de la prolongation de la mesure, en adoptant deux amendements identiques CS418 et CS547 des rapporteurs et de M. Éric Bothorel (RE). Cet amendement a été suggéré par les représentants de la Cnil lors de leur audition. L’avis conforme leur est apparu comme une garantie supplémentaire non indispensable dès lors que la personnalité qualifiée était tenue informée des prolongations et que cette dernière disposait du pouvoir d’y mettre un terme.

● La commission a complété le rapport annuel d’activité de la personnalité qualifiée avec des statistiques sur les sorts réservés aux recours. Cet ajout résulte de l’adoption de deux amendements identiques CS7 et CS937 présentés par les rapporteurs et M. Philippe Ballard (RN).

D.   Les modifications portant sur le rôle de l’autorité administrative

● La commission a adopté un amendement de M. Éric Bothorel (RE) qui a supprimé l’obligation, pour l'autorité administrative, de vérifier régulièrement le caractère actif des sites concernés par le filtre (CS417). Les sites malveillants ayant une durée de vie assez courte, il n’a pas été jugé utile d’imposer cette mission à l’autorité administrative. Cet amendement a recueilli un avis favorable des rapporteurs.

● Enfin, la commission a prévu la publication régulière, par l’autorité administrative, de la liste des adresses électroniques concernées par le filtre « anti-arnaque ». Cet ajout résulte de l’adoption d’un amendement de M. Éric Bothorel (RE), ayant recueilli un avis favorable des rapporteurs (CS630). L’entrée en vigueur de cette mesure a été reportée au 1er janvier 2025 par l’adoption d’un amendement des rapporteurs à l’article 36 (CS954).

TITRE III
rENFORCER LA CONFIANCE ET LA CONCURRENCE DANS L’ÉCONOMIE DE LA DONNÉE

Chapitre Ier
Pratiques commerciales déloyales entre entreprises sur le marché de l’informatique en nuage

Article 7
Encadrement des crédits d’informatique en nuage et des frais de transfert

Adopté par la commission avec modifications

L’article 7 du projet de loi encadre l’octroi d’avoirs d’informatique en nuage, les frais de changement de fournisseur de services d’informatique en nuage et supprime les frais de transfert sortant relatifs à ces offres (egress fees).

Lors de son examen en commission spéciale au Sénat, cet article a fait l’objet de plusieurs modifications visant à préciser la définition des notions d’avoir d’informatique en nuage et de service d’informatique en nuage, à fixer dans la loi une durée maximale pour l’octroi d’un crédit d’informatique en nuage et à préciser la régulation des egress fees.

Ont également été précisés le fait que la facturation des frais liés à un changement de fournisseur doit s’effectuer aux coûts réels et être communiquée de façon transparente aux utilisateurs, et le fait qu’en cas de désaccord sur ces frais, l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse, peut être saisie, dans les conditions prévues à l’article L. 36-8 du code des postes et des communications électroniques.

Plusieurs amendements ont été adoptés en séance publique au Sénat afin, d’une part de prendre en compte les différentes pratiques à l’œuvre en matière de crédit cloud et, d’autre part, de préciser que des frais de transfert de données ne peuvent être facturés lors du changement de fournisseur de services d’informatique en nuage.

Cet article a également été modifié lors de son examen en commission spéciale à l’Assemblée nationale afin, d’une part, d’ajuster sa rédaction à la nouvelle version du règlement européen sur les données et, d’autre part, de distinguer au sein de deux articles distincts, la régulation de l’octroi de crédits d’informatique en nuage par des fournisseurs de service d’informatique en nuage de l’encadrement nécessaire des frais de transfert de données en cas de migration vers un fournisseur tiers de service d’informatique en nuage.

  1.   Le droit en vigueur

A.   L’essor de l’économie de la donnée a fait « la part belle » aux acteurs dominants du marché des services d’informatique en nuage, qui sont pour l’essentiel non européens

L’essor de l’économie de la donnée a rendu indispensable le recours à des solutions de stockage des données. Le marché du cloud, c’est-à-dire des services d’informatique en nuage, est devenu un élément majeur de compétitivité et d’innovation pour les acteurs économiques.

Les éléments fournis par l’étude d’impact annexée au présent projet de loi indiquent à quel point ce marché est essentiel au sein de l’économie du numérique. Au niveau mondial, le marché du cloud public s’élevait à environ 384 milliards d’euros en 2022. En Europe, les revenus qu’il génère étaient de 65 milliards d’euros en 2021, et pourraient quasiment décupler d’ici 2030, pour atteindre 560 milliards d’euros, selon une étude du cabinet IDC. Le segment français, qui représente environ 16 milliards d’euros, devrait profiter de cette forte croissance anticipée, avec une hypothèse de + 14 % par an en moyenne jusqu’en 2030.

Ces perspectives favorables pour les acteurs du cloud sont néanmoins très inégalement réparties. En effet, comme beaucoup de marchés numériques, le marché du cloud est fortement concentré. Ainsi, en France, 71 % des parts de ce marché sont détenues par les trois fournisseurs dominants que sont AWS (Amazon détient 46 % de parts de marché), Microsoft Azure (17 % des parts de marché) et enfin Google Cloud (8 % des parts de marché).

B.   Cette situation est préjudiciable à la compétitivité et à l’innovation des entreprises européennes

Cette situation est préjudiciable à la fois pour les acteurs français et européens de ce secteur d’activité, et pour les entreprises qui consomment ces services, et disposent, au regard de la structure de marché, d’une capacité parfois limitée de choix vis-à-vis des offres proposées. En effet, ainsi que notamment l’a relevé l’Autorité de la concurrence (ADLC), certaines pratiques des acteurs dominants de ce marché tendent à réduire la concurrence et à entraver la liberté de choix des entreprises concernées. C’est le cas, en particulier, de l’octroi de crédits cloud, et de la facturation excessive de frais de transfert des données en cas de changement, par une entreprise, de fournisseur([101]).

L’avantage retiré de cette situation imparfaite de marché est ainsi préjudiciable à la fois à la compétitivité et à l’innovation des entreprises européennes, et au développement des fournisseurs européens de services d’informatique en nuage, dont les solutions techniques, sur certains segments, apparaissent pourtant tout à fait compétitives vis-à-vis de celles des acteurs dominants.

C.   Un effort de régulation au niveau national et européen est indispensable pour remédier à cette situation

Face à cette situation, la Commission européenne a engagé une initiative d’ampleur afin de réguler davantage les marchés numériques, et plus spécifiquement le marché de la donnée.

Plusieurs textes européens sont intervenus dans ce domaine :

– le règlement européen pour les marchés numériques (Digital Markets Act) ([102])  ;

– le règlement sur la gouvernance européenne des données (Data Governance Act) ([103])  ;

– le règlement européen sur les données (Data Act) ([104]).

Ce dernier règlement, en particulier, sur lequel un accord politique a été trouvé le 7 juillet dernier, contient en effet plusieurs dispositions visant à encadrer certaines pratiques commerciales considérées comme entravant la concurrence sur le marché des services d’informatique en nuage.

Les articles 23 et 24 du règlement précité encadrent ainsi de façon renforcée les conditions contractuelles liées à la migration entre fournisseurs. Dans le même temps, son article 25 prévoit la suppression des frais liés au transfert de données et à la migration.

L’enjeu de la maîtrise du développement des crédits de services d’informatique en nuage ne fait pas, en revanche, l’objet d’un encadrement strict, à défaut d’accord politique sur ce sujet entre les pays membres.

L’article 7 du présent projet de loi vient donc anticiper l’adaptation du droit national aux dispositions précitées du Data Act, tout en intervenant sur la question des crédits cloud sur une base juridique distincte, à savoir la lutte contre les pratiques anticoncurrentielles.

II.   Le dispositif proposé

L’article 7 du projet de loi crée, au sein de la section II du chapitre II du titre IV du livre IV du code de commerce, un nouvel article L. 442-12.

Ce nouvel article précise, d’abord, la définition de ce que recouvrent les notions de « service d’informatique en nuage » et « d’avoir d’informatique en nuage » (I).

Il prévoit également, afin de rétablir des conditions de concurrence satisfaisantes sur le marché du cloud et d’anticiper l’adoption du règlement européen sur les données :

 un encadrement strict de l’octroi, par les fournisseurs de services d’informatique en nuage à leurs clients « entreprises » des avoirs d’informatique en nuage (II) ;

– une interdiction, pour ces mêmes fournisseurs de facturer à leurs clients « entreprises » des frais « au titre du transfert des données vers les infrastructures de cette personne ou vers celles mises à disposition, directement ou indirectement, par un autre fournisseur » (III).

L’article 7 fixe, enfin, le montant maximum de l’amende administrative qui peut être infligée en cas de conclusion d’un contrat qui violerait ces dispositions. Cette amende ne pourra ainsi excéder 200 000 euros pour une personne physique et un million d’euros pour une personne morale (IV). Elle pourra être majorée en cas de réitération du manquement dans un délai de deux ans (au maximum 400 000 euros pour une personne physique, et 2 millions d’euros pour une personne morale).

III.   Les modifications apportées par le Sénat

A.   En commission

L’article 7 du projet de loi a été adopté avec modifications par le Sénat.

Deux amendements, COM-111 et COM 112, présentés par le rapporteur du texte au Sénat, M. Patrick Chaize, ont procédé à des ajustements portant sur la définition des notions de « service d’informatique en nuage » et « d’avoir d’informatique en nuage » :

– l’amendement COM-111 a harmonisé la définition de la notion de « service d’informatique en nuage » avec le droit européen existant, à savoir la directive dite NIS 2 ([105]) .

 l’amendement COM-112, a modifié la définition de la notion « d’avoir d’informatique en nuage », afin de substituer à la seule approche quantitative (montant) une approche plus englobante.

Est ainsi défini comme avoir d’informatique en nuage tout « avantage temporaire octroyé par un fournisseur de services d’informatique en nuage à ses utilisateurs, utilisable sur ses différents services, sous la forme d’un montant de crédits offerts ou d’une quantité de services offerts ».

Un amendement COM113 du rapporteur a également modifié de façon significative le dispositif initial d’encadrement de l’octroi d’avoirs d’informatique en nuage :

– en insérant directement, au sein de l’article concerné, une durée temporelle maximale pour l’octroi de ces avoirs, fixée à une année maximum. La version initiale du projet de loi renvoyait en effet l’ensemble des modalités d’application de cet encadrement à l’adoption d’un décret en Conseil d’État (dont la référence est maintenue au sein de la version actuelle du texte) ;

– en intégrant, en outre, une interdiction explicite, pour les fournisseurs de services d’informatique en nuage, d’assortir le bénéfice de ces avoirs d’informatique en nuage à toute forme de condition d’exclusivité.

Un amendement COM-114 du rapporteur a précisé, pour sa part, l’articulation entre les frais de transfert de données qui sont supprimés et les frais liés au changement de fournisseur qui sont temporairement autorisés jusqu’à l’application des dispositions dédiées du Data Act.

Il est ainsi précisé, dans la version de l’article adoptée par le Sénat :

– que la facturation des frais liés à un changement de fournisseur doit s’effectuer aux coûts réels et être communiquée de façon transparente aux utilisateurs ;

– qu’en cas de désaccord sur ces frais, l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse, peut être saisie, dans les conditions prévues à l’article L. 36-8 du code des postes et des communications électroniques.

Enfin, la commission spéciale a adopté, au Sénat, deux amendements identiques COM-51 et COM-88 concernant les pratiques de vente liée sur le marché de l’informatique en nuage. Un V a été inséré en conséquence au sein du nouvel article L. 442-12 du code de commerce créé par le présent article 7 du projet de loi, qui fixe une interdiction de principe pour toute personne « de subordonner la vente d’un produit ou service à la conclusion concomitante d’un contrat de fourniture de services d’informatique en nuage » dès lors que celle-ci constitue une pratique commerciale déloyale.

B.   En séance publique

Cet article a fait l’objet de plusieurs modifications au stade de la séance publique :

– deux amendements identiques n° 22 rect. quater et n° 94, présentés par Mmes Paoli-Gagin et Blatric-Contat ont complété la nouvelle définition de la notion d’avoir informatique en nuage, insérée au stade de la commission spéciale, pour prendre en compte les différentes pratiques à l’œuvre sur le marché du cloud et ainsi rendre l’encadrement de cette pratique pleinement efficace ;

trois amendements identiques nos 24 rect. quater, 102 et 137 présentés par Mmes Paoli-Gagin et Blatric-Contat, et M. Chaize (rapporteur) ont précisé que des frais de transfert de données ne peuvent être facturés lors du changement de fournisseur de services d’informatique en nuage.

IV.   Les modifications apportées par la commission 

L’article 7 a été modifié à la suite de l’adoption, en commission spéciale, des six amendements suivants :

– un amendement CS907 de Mme Le Hénanff, rapporteure, visant à assurer l’alignement entre la définition de services d’informatique en nuage retenue dans le projet de loi et celle du règlement européen sur les données ;

– un amendement CS908 de Mme Le Hénanff, rapporteure, visant à supprimer, au sein de la définition d’un crédit d’informatique en nuage, le mot « temporaire » afin de limiter le risque de contournement de l’encadrement de cette pratique tel que prévu au sein de l’article 7 ;

– un amendement CS909 de Mme Le Hénanff, rapporteure, visant à remplacer le terme d’« utilisateurs » par celui de « client », employé par le règlement européen sur les données ;

– deux amendements CS948 et CS949, de Mme Le Hénanff, rapporteure, qui maintiennent une durée maximum d’un an pour l’octroi de crédits d’informatique en nuage, mais renvoient à un décret pour la définition précise des modalités de cet encadrement ;

– un amendement CS910 de Mme Le Hénanff, rapporteure, qui supprime les alinéas 8 à 10 de l’article 7 afin de permettre la création d’un article additionnel 7 bis consacré à la question de l’encadrement des frais de transfert (cf. infra).

Article 7 bis (nouveau)
Encadrement des frais de transfert

Article introduit par la commission

Introduit par la commission à la suite de l’adoption d’un amendement de la rapporteure, l’article 7 bis encadre les frais de transfert de données facturés par un fournisseur de services d’informatique en nuage à un client souhaitant migrer vers un fournisseur tiers offrant le même type de service.

Il définit ce que recouvrent les notions de « frais de transfert » et de « frais de changement de fournisseur », prévoit un régime spécifique d’encadrement de ces frais, ainsi que des obligations d’information pour les fournisseurs de services d’informatique en nuage vis-à-vis de leurs clients.

  1.   Le droit en vigueur

Voir le commentaire de l’article 7.

II.   Le dispositif proposé

Résultant de l’adoption de l’amendement CS923 de Mme Anne Le Hénanff, rapporteure, l’article 7 bis procède à une rédaction plus complète des dispositions relatives à l’encadrement des frais de transfert initialement insérées au sein de l’article 7.

Il crée, à cette fin, un article spécifique consacré à ce sujet au sein du code de commerce, numéroté L. 442-12.

Cet article contient :

– une définition nouvelle des frais de transfert, d’une part, et des frais de changement de fournisseur de services d’informatique en nuage, d’autre part ;

– un encadrement de ces frais conforme aux dispositions du règlement européen sur les données. Il est ainsi interdit à un fournisseur de services d’informatique en nuage de facturer à un client souhaitant migrer vers un autre fournisseur des frais de transfert de données et des frais de changement de fournisseurs « supérieurs aux coûts supportés par le fournisseur et directement liés à ce changement » ;

– une définition des modalités d’évaluation de ces frais. Il est ainsi prévu que les frais de transfert de données sont facturés « dans le respect d’un montant maximal de tarification fixé par arrêté du ministre chargé du numérique après proposition de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse ». L’Arcep doit, dans ce cadre, après consultation publique, adopter des lignes directrices précisant les coûts susceptibles d’être pris en compte dans ce cadre.

 En outre, cet article sécurise l’information des clients des fournisseurs de services d’informatique en nuage à ce sujet, en faisant peser une obligation d’information spécifique sur ces derniers, que le contrat ait été conclu avant la promulgation de la présente loi, ou a posteriori. Afin que l’ensemble des clients concernés puissent bénéficier de ces dispositions, il est ainsi prévu que les fournisseurs informent expressément leurs clients lorsque les contrats sont en cours, et que ces informations sont insérées directement au sein des contrats qui seront signés après promulgation de la présente loi.

 Enfin, l’article 7 bis prévoit une exception à l’application de ces dispositions pour les services d’informatique en nuage « sur-mesure » qui ne sont pas offerts à grande échelle, et ceux mis à disposition dans un environnement hors production à des fins de test et d’évaluation pour une durée limitée.

Chapitre II
Interopérabilité des services d’informatique en nuage

Article 8
Obligations d’interopérabilité et de portabilité à la charge des fournisseurs de services d’informatique en nuage

Adopté par la commission avec modifications

L’article 8 prévoit, par anticipation de l’adoption du règlement européen sur les données (Data Act), les obligations d’interopérabilité, de portabilité, et d’équivalence fonctionnelle que les fournisseurs de services d’informatique en nuage devront respecter.

Cet article a fait l’objet de modifications lors de son examen devant le Sénat. La définition de la notion d’équivalence fonctionnelle a été précisée, en commission spéciale, afin d’éviter certains effets de bord. En séance publique, un amendement de coordination juridique a par ailleurs été adopté.

Cet article a également été modifié lors de son examen en commission spéciale à l’Assemblée nationale. Les modifications apportées procèdent à l’alignement de plusieurs définitions (équivalence fonctionnelle, actifs numériques) sur celles figurant dans la version actualisée du règlement européen sur les données. En outre, il a été précisé, conformément au règlement européen sur les données, que les exigences essentielles de portabilité et d’interopérabilité s’appliquent en tenant compte de la distinction entre les services IaaS (Infrastructure-as-a-Service), et les autres services d’informatique en nuage (Software-as-a-Service et Platform-as-a-Service).

  1.   Le droit en vigueur

A.   L’essor de l’économie de la donnée a fait « la part belle » aux acteurs dominants du marché des services d’informatique en nuage

Voir le commentaire de l’article 7.

B.   Des barrières techniques liées à un manque d’interopérabilité et de portabilité des données

Le marché de l’informatique en nuage souffre d’un manque de concurrence lié à l’existence de pratiques commerciales qui limitent la capacité des entreprises acheteuses à pouvoir librement et à tout moment choisir la solution optimale par rapport à leurs besoins.

L’article 7 du présent projet de loi entend agir sur la question des frais de transfert et sur l’octroi de crédits cloud. Il prévoit à cette fin une suppression des frais de transfert et un encadrement renforcé de l’octroi de ces crédits.

Il existe néanmoins, en outre, d’autres barrières techniques dues à un manque d’interopérabilité et de portabilité des données.

Cet enjeu fait l’objet de dispositions spécifiques au sein du Data Act, prévues par ses articles 28 et 29. Ces deux articles définissent les « exigences essentielles » en termes d’interopérabilité et de portabilité des données auxquelles devront se soumettre les fournisseurs de services d’informatique en nuage.

L’article 8 du présent projet de loi vient traduire, en application du droit européen, le contenu de ces exigences au sein du droit national, afin de renforcer la capacité de choix et de changement de fournisseur par les utilisateurs de ces services.

II.   Le dispositif proposé

L’article 8 pose les jalons juridiques nécessaires en vue d’imposer aux fournisseurs de services d’informatique en nuage une exigence d’interopérabilité de leurs services.

Il introduit, en premier lieu, de nouvelles définitions juridiques pour les actifs numériques. Ces derniers sont ainsi entendus comme « tous les éléments en format numérique sur lesquels l’utilisateur d’un service informatique en nuage a un droit d’utilisation, y compris des actifs qui ne sont pas inclus dans le champ de sa relation contractuelle avec le service d’informatique en nuage ». Ces actifs numériques comprennent « les données, les applications, les machines virtuelles et les autres technologies de virtualisation telles que les conteneurs ».

Il consacre également une première définition juridique de l’équivalence fonctionnelle, inspirée de l’état actuel de la rédaction de l’article 2 du Data Act. En l’espèce, cette notion est entendue comme « un niveau minimal de fonctionnalité assurée dans l’environnement d’un nouveau service d’informatique en nuage après la migration, de manière à garantir aux utilisateurs un usage des éléments essentiels du service aux mêmes niveaux de performance, de sécurité, de résilience opérationnelle et de qualité que le service d’origine au moment de la résiliation du contrat ».

Enfin, au-delà des enjeux de définition, l’article 8 prévoit que les fournisseurs de services d’informatique en nuage doivent assurer la conformité desdits services avec les exigences essentielles en matière d’interopérabilité, de portabilité des actifs numériques et de mise à disposition gratuite aux utilisateurs et aux fournisseurs de services tiers d’interface de programmation applications nécessaires pour mettre en œuvre ces exigences.

 

III.   Les modifications apportées par le Sénat

A.   En commission

Lors de son examen en commission spéciale, cet article a fait l’objet d’une modification.

Un amendement COM-115 du rapporteur M. Patrick Chaize a ainsi modifié la rédaction de la définition de l’équivalence fonctionnelle en remplaçant les termes « aux mêmes niveaux », par les termes « à des niveaux équivalents ».

Cette modification doit permettre d’éviter un effet indésirable d’harmonisation de l’ensemble des offres proposées sur le marché des infrastructures d’informatique en nuage, étant entendu que cette définition devra être ajustée une fois le Data Act définitivement adoptée.

B.   En séance publique

Au stade de la séance publique, un amendement de coordination juridique n° 138 présenté par le rapporteur M. Patrick Chaize, au nom de la commission spéciale, a également été adopté.

IV.   Les modifications apportées par la commission

L’article 8 a été modifié à la suite de l’adoption, en commission spéciale, des cinq amendements suivants :

– un amendement CS914 de Mme Le Hénanff, rapporteure, visant à remplacer le terme d’« utilisateurs » par celui de « client », qui est employé par le règlement européen sur les données ;

– un amendement CS911 de Mme Le Hénanff, rapporteure, visant à assurer l’alignement entre la définition d’un actif numérique retenue dans le projet de loi et celle retenue au sein du règlement européen sur les données ;

– un amendement CS161 de M. Philippe Latombe (Dem), harmonisant la définition de la notion d’équivalence fonctionnelle retenue dans le projet de loi avec celle retenue au sein du règlement européen sur les données ;

– un amendement CS912 de Mme Le Hénanff, rapporteure, alignant la définition des données exportables retenue par le présent projet de loi avec celle prévue dans le règlement européen sur les données (Data Act) ;

– un amendement CS913 de Mme Le Hénanff, rapporteure, qui précise, conformément au règlement européen sur les données, que les exigences essentielles de portabilité et d’interopérabilité s’appliquent en tenant compte de la distinction entre, d’une part, les services IaaS (Infrastructure-as-a-Service), et, d’autre part, les autres services d’informatique en nuage (Software-as-a-Service et Platform-as-a-Service).

Article 9
Obligations d’interopérabilité et de portabilité à la charge des services d’informatique en nuage

Adopté par la commission avec modifications

L’article 9 confie à l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) un rôle d’édiction des règles et modalités techniques relatives aux exigences d’interopérabilité et de portabilité des données, telles que prévues à l’article 8 du projet de loi.

Cet article a été modifié en commission spéciale par le Sénat afin de prévoir :

– que l’Arcep doit tenir compte des différences existant entre les infrastructures, les plateformes et les logiciels de services d’informatique en nuage ;

– que ces différences doivent être prises en compte lors de l’édiction des spécifications techniques, plutôt que dans la définition des exigences d’interopérabilité et de portabilité, afin de laisser davantage de souplesse à l’Arcep et aux opérateurs économiques concernés ;

– un délai d’édiction de ces spécifications techniques et donc un délai de mise en conformité des opérateurs économiques concernés à ces spécifications, qui sera fixé par décret, après consultation de l’Arcep.

Cet article a également été modifié en commission spéciale devant l’Assemblée nationale par des amendements visant à aligner la rédaction de certaines définitions insérées en son sein avec les dispositions prévues par la version actualisée du règlement européen sur les données. Ces modifications intègrent notamment une distinction claire entre les différents types d’offres de services d’informatique en nuage et précisent la nature des mesures que doivent prendre les fournisseurs de services d’informatique en nuage afin de faciliter l’équivalence fonctionnelle après la migration vers un service tiers.

  1.   Le droit en vigueur

L’accord politique obtenu sur le règlement européen sur les données (Data Act), le 7 juillet dernier, rend nécessaire la définition d’une autorité compétente pour assurer l’édiction des règles et modalités techniques relatives aux exigences d’interopérabilité et de portabilité des données, telles que prévues à l’article 8 du présent projet de loi.

L’article 31 de ce règlement précise, en effet, que chaque État membre « désigne une ou plusieurs autorités compétentes chargées de l’application et de l’exécution du présent règlement. Les États membres peuvent mettre en place une ou plusieurs nouvelles autorités ou s’appuyer sur des autorités existantes ».

Il convient donc de déterminer, dans la loi, l’autorité compétente dans cette matière.

II.   Le dispositif proposé

L’article 9 prévoit la compétence de principe de l’Arcep quant à la définition des règles et modalités relatives aux exigences d’interopérabilité et de portabilité des données, telles que prévues à l’article 8 du projet de loi.

Il précise, en outre, que l’Autorité peut s’appuyer, pour l’édiction de ces spécifications, sur les organismes de normalisation existants et que ces spécifications doivent être correctement articulées avec celles mises en œuvre par les autorités compétentes des autres pays membres de l’Union européenne, ainsi que celles figurant dans les codes de conduite européens relatifs aux services d’informatique en nuage.

Cet article prévoit, en outre :

que les fournisseurs concernés doivent publier et mettre à jour une « offre de référence technique d’interopérabilité » détaillant les conditions de mise en conformité de leurs services avec les obligations précitées ;

que les fournisseurs de services d’informatique en nuage dont les ressources correspondent à des ressources informatiques modulables et variables limitées à des éléments d’infrastructure sont soumis à une obligation de moyens pour faciliter une équivalence fonctionnelle dans l’utilisation du service de destination, lorsqu’il couvre le même type de fonctionnalités.

III.   Les modifications apportées par le Sénat

A.   En commission

Un amendement COM-116 du rapporteur, M. Patrick Chaize, a inséré un nouvel alinéa au sein de l’article 9 afin de prévoir :

– que l’Arcep doit tenir compte des différences existant entre les infrastructures, les plateformes et les logiciels de services d’informatique en nuage ;

– que ces différences doivent être prises en compte lors de l’édiction des spécifications techniques, plutôt que dans la définition des exigences d’interopérabilité et de portabilité, afin de laisser davantage de souplesse à l’Arcep et aux opérateurs économiques concernés ;

– un délai d’édiction de ces spécifications techniques et donc un délai de mise en conformité des opérateurs économiques concernés à ces spécifications, qui sera fixé par décret, après consultation de l’Arcep.

B.   En séance publique

Cet article n’a fait l’objet d’aucune modification au stade de son examen en séance publique au Sénat.

IV.   Les modifications apportées par LA COMMISSION

L’article 9 a été modifié à la suite de l’adoption, en commission spéciale, des cinq amendements suivants :

– un amendement CS918 de Mme Le Hénanff, rapporteure, qui vise assurer le plein alignement avec les dispositions du règlement européen sur les données (Data Act) et la mise en œuvre des mesures d’interopérabilité et de portabilité présentes au sein du projet de loi (distinction entre les types d’offres d’informatique en nuage, précision apportée à la compétence de l’Arcep dans l’édiction de spécifications techniques) ;

– un amendement CS915, de Mme Le Hénanff, rapporteure, de nature rédactionnelle ;

– un amendement CS916, de Mme Le Hénanff, rapporteure, qui précise que l’obligation de publication d’une offre de référence technique doit s’appuyer, le cas échéant, sur les décisions adoptées par l’Arcep pour préciser la mise en œuvre des exigences essentielles d’interopérabilité et de portabilité ;

– un amendement CS711, de M. Philippe Latombe (Dem), apportant une précision rédactionnelle sur la nature des mesures que doivent prendre les fournisseurs de services d’informatique en nuage afin de faciliter l’équivalence fonctionnelle après la migration vers un service tiers ;

– un amendement CS917 de Mme Le Hénanff, rapporteure, qui assure l’alignement entre le champ d’application prévu par le règlement européen sur les données et le champ d’application des obligations du présent projet de loi en matière d’interopérabilité.

Article 10
Compétence de l’Arcep pour constater et sanctionner les manquements aux obligations nouvelles supportées par les fournisseurs de services d’informatique en nuage

Adopté par la commission avec modifications

L’article 10 confie à l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) des pouvoirs d’enquête et de sanction lui permettant d’agir en cas de manquements aux obligations nouvelles que doivent respecter les fournisseurs de services d’informatique en nuage.

Cet article a fait l’objet de modifications lors de son examen par le Sénat.

A ainsi été prévue une procédure de saisine de l’Autorité de la concurrence (ADLC) par l’Arcep lorsque cette dernière a connaissance d’abus de position dominante et de pratiques entravant le libre exercice de la concurrence dans le secteur de l’informatique en nuage.

Cet article a également été modifié en commission spéciale devant l’Assemblée nationale par un amendement de précision juridique.

  1.   Le droit en vigueur

Voir le commentaire d’article de l’article 9.

II.   Le dispositif proposé

L’article 10 donne à l’Arcep la capacité de contrôler les obligations des fournisseurs de services d’informatique en nuage.

Cet article prévoit que l’Arcep peut, « de manière proportionnée aux besoins liés à l’accomplissement de ses missions », et sur la base d’une décision motivée recueillir les informations et documents nécessaires auprès des personnes physiques ou morales concernées et procéder auprès de ces mêmes personnes à des enquêtes. La procédure d’enquête mise en œuvre par l’Arcep est soumise à des règles classiques tenant à la préservation de la confidentialité des informations recueillies dans ce cadre.

L’article 10 fait également de l’Arcep l’autorité en charge de régler les différends pouvant survenir en cas de désaccord sur les conditions de mise en œuvre des obligations d’interopérabilité et de portabilité des données, telles que prévues à l’article 8 du projet de loi.

Enfin, pour rendre son action de régulation et de contrôle effective, l’Arcep se voit dotée d’un pouvoir de sanction des manquements aux obligations prévues aux articles 8 et 9 du projet de loi. Elle peut donc sanctionner ces manquements soit de sa propre initiative (saisine d’office), soit à la demande du ministre chargé de l’économie, d’une organisation professionnelle, d’une association agréée d’utilisateurs ou de toute personne physique ou morale concernée, sous réserve que la constatation de l’infraction soit avérée.

Le régime de sanction retenu est le suivant : une sanction pécuniaire dont le montant est proportionné à la gravité du manquement et aux avantages qui en sont tirés, sans pouvoir excéder 3 % du chiffre d’affaires hors taxes du dernier exercice clos. Ce taux peut être porté à 5 % en cas de réitération du manquement dans un délai de cinq ans à compter de la date à laquelle la première décision de sanction est devenue définitive.

III.   Les modifications apportées par le Sénat

A.   En commission

Lors de l’examen en commission spéciale, celle-ci a adopté deux amendements de M. Patrick Chaize, rapporteur :

– un amendement COM-117, de nature rédactionnelle ;

– un amendement COM-118, qui instaure une procédure de saisine de l’Autorité de la concurrence (ADLC) par l’Arcep lorsque cette dernière a connaissance d’abus de position dominante et de pratiques entravant le libre exercice de la concurrence dans le secteur de l’informatique en nuage, à l’instar de la procédure existante en matière de communications électroniques.

B.   En séance publique

En séance publique, un amendement rédactionnel n° 139, présenté par le rapporteur M. Patrick Chaize, a été adopté.

IV.   Les modifications apportées par LA COMMISSION

L’article 10 a été modifié à la suite de l’adoption, en commission spéciale, d’un de précision juridique CS919 de Mme Le Hénanff, rapporteure.

Chapitre II bis A
Protection des données stratégiques et sensibles sur le marché de l’informatique en nuage

Article 10 bis A (supprimé)
Renforcement de la protection des données sensibles dans le cadre des offres d’informatique en nuage souscrites par les autorités publiques

Supprimé par la commission

L’article 10 bis A, introduit par le Sénat au stade de l’examen en séance publique, renforce la protection des données sensibles et stratégiques détenues par les fournisseurs de services d’informatique en nuage dans le cadre de leurs relations avec les autorités publiques.

Il crée à cette fin des obligations spécifiques tenant, pour les premiers, à une obligation de moyens concernant la protection de ces données, et, pour les secondes, à l’encadrement des conditions dans lesquelles elles sont autorisées à souscrire à une offre cloud des fournisseurs concernés.

Cet article a été supprimé lors de son examen en commission spéciale à l’Assemblée nationale.

  1.   Le droit en vigueur

A.   Une protection des données personnelles assurée, en droit, par le règlement général pour la protection des données (RGPD)

Le règlement général pour la protection des données (RGPD) prévoit un ensemble de dispositions visant à garantir la sécurité des données personnelles des utilisateurs des services d’informatique en nuage.

Dans ce cadre, les offreurs de services d’informatique en nuage doivent respecter un certain nombre de principes, parmi lesquels :

le principe de transparence, qui se traduit notamment par l’information des personnes physiques concernées de l’usage qui va être fait des données personnelles confiées ;

– le principe de la limitation du traitement de ces données : l’usage des données par l’offreur de services d’informatique en nuage doit se limiter à ce pour quoi l’utilisateur concerné a été informé ;

– le principe de sécurisation des données : les acteurs du cloud doivent, en conséquence, sécuriser l’hébergement des données afin d’éviter toute forme de fuite de données ;

– le principe de portabilité des données qui, en théorie, doit garantir la capacité de l’utilisateur – personne physique ou personne morale – à transférer ses données chez un autre offreur de services s’il le souhaite.

Ces garanties s’appliquent néanmoins aux seules données personnelles, et ont pour objet de protéger d’abord les personnes physiques. En conséquence, les entreprises concernées doivent, en cas de recours à ces solutions, vérifier notamment que l’offreur de services choisi offre des garanties de sécurité suffisantes et intégrer, dans les contrats passés avec celui-ci, un certain nombre de clauses spécifiques visant à la protection de ces données.

B.   Plusieurs règlements ont vocation à compléter cette régulation, afin de mieux intégrer les enjeux de l’économie de la donnée

Le cadre juridique européen est en cours de construction en ce qui concerne la protection des données non personnelles.

Dans le cadre de la stratégie européenne pour la donnée et dans un double objectif de protection des données et de promotion de la souveraineté numérique européenne, plusieurs textes ont été élaborés ou sont en cours d’élaboration pour renforcer le niveau de régulation du marché de la donnée.

Le Data Governance Act (DGA) ([106]), adopté au mois de mai 2022, fixe le cadre juridique afférent au partage des données personnelles et non personnelles. Ce règlement doit favoriser le partage des données personnelles et non personnelles, en instaurant des structures d’intermédiation. Il encadre notamment la réutilisation de certaines catégories de données protégées du secteur public, et met en place des certifications obligatoires pour les fournisseurs de services d’intermédiation de données

Le Data Act (DA) ([107]), en cours de finalisation, vise, pour sa part, à assurer une meilleure répartition de la valeur issue de l’utilisation des données personnelles et non personnelles entre les acteurs de l’économie de la donnée.

Il contient un ensemble de dispositions visant à favoriser le partage de données entre entreprises et consommateurs, et à faciliter le changement de fournisseur de services d’informatique en nuage.

Il renforce à cette fin les obligations de transparence, d’interopérabilité, et de portabilité qui s’imposent à ces derniers, et prévoit des dispositions spécifiques devant prévenir le risque d’accès illicite de gouvernements de pays tiers aux données non-personnelles contenues dans le cloud.

Il prévoit, enfin, des obligations renforcées concernant les garanties que doivent apporter les fournisseurs de services en matière d’accès et de transfert de données à l’international (article 27).

Le présent projet de loi, dans son titre III, vise notamment à anticiper la mise en œuvre de ces régulations (Data Act), en intégrant d’ores et déjà un certain nombre d’obligations à destination des offreurs de services d’informatique en nuage.

C.   Des dispositions parfois considérées comme insuffisantes pour protéger la souveraineté numérique nationale et européenne

Plusieurs rapports parlementaires ont souligné que la protection des données personnelles et non personnelles vis-à-vis des tentatives d’accès d’État-tiers apparaît en l’état tout à fait insuffisante.

En 2019, le rapport sur le « devoir de souveraineté numérique », présenté par le sénateur M. Gérard Longuet ([108]), prônait la nécessité « d’opposer fermement notre législation nationale et européenne au Cloud Act ou à toute autre norme se voulant porteuse d’un ordre juridique extraterritorial », en s’appuyant, au niveau national, sur un renforcement de la loi de blocage du 26 juillet 1968 ([109]), et à l’extension du RGPD « aux données non personnelles stratégiques des personnes morales, pour sanctionner les intermédiaires qui transmettraient aux autorités étrangères des données en dehors de ce mécanisme d’entraide administrative ou judiciaire » ([110]).

En 2021, un rapport de l’Assemblée nationale intitulé « Bâtir et promouvoir une souveraineté numérique nationale et européenne » ([111]), présenté par M. Philippe Latombe relevait, avec justesse, que ces inquiétudes étaient parfaitement fondées. Par son arrêt Schrems II ([112]), la Cour de justice de l’Union européenne, a en effet invalidé, en 2020, le Privacy Shield, c’est-à-dire la décision d’adéquation de la Commission européenne qui rendait possible le transfert de données entre les États-Unis et l’Europe, en raison « d’un niveau insuffisant de protection des données personnelles dans le cas de leur transfert à finalité commerciale vers le sol américain ». Le rapport plaidait, en conséquence, pour un effort de localisation des données sur le territoire européen et un renforcement de la législation nationale et européenne sur ce sujet.

Au niveau national, la doctrine « Cloud au centre » a permis de garantir un niveau de protection des données maximal pour les données les plus sensibles, via la mise en place d’une certification SecNumCloud par l’Agence nationale de la sécurité des systèmes d’information (Anssi). Cette certification a pour objectif d’identifier les prestataires considérés comme « de confiance » afin de garantir un niveau élevé de protection des données concernées. Elle garantit, entre autres, la localisation des données sur le sol européen et constitue une protection contre le risque d’application de législations extraterritoriales.

La doctrine « Cloud au centre »

Dans le cadre de sa stratégie nationale pour le cloud, le Gouvernement a, par une circulaire en date du 5 juillet 2021 (actualisée en mai 2023) définit les principes de la gestion et de la protection des données utilisées par les autorités publiques.

Ses principes sont les suivants :

– le cloud devient dorénavant le mode d’hébergement et de production par défaut des services numériques de l’État ;

– les services numériques des administrations doivent être hébergés sur l’un des deux clouds interministériels internes de l’État ou sur les offres de cloud proposées par les industriels satisfaisant à des critères stricts de sécurité ;

– chaque produit touchant à des données sensibles devra héberger les données concernées soit sur le cloud interne de l’État, soit sur une solution de cloud certifiée par l’Anssi SecNumCloud.

Source : https://www.numerique.gouv.fr/services/cloud/doctrine/

Enfin, au niveau européen, des négociations sont en cours concernant l’adoption d’un schéma européen de certification des services cloud (EUCS), dont l’objet est de définir les normes de sécurité qui s’imposent aux fournisseurs de services d’informatique en nuage.

II.   Le dispositif proposé

L’article 10 bis A, en lien avec l’article 10 bis, introduit par voie d’amendement en séance au Sénat, par Mme Morin Desailly et M. Chaize ([113]) vient renforcer le niveau de protection des données stratégiques et sensibles traitées par les fournisseurs de services d’informatique en nuage.

Cet article inscrit dans le droit plusieurs obligations nouvelles pour les fournisseurs de services d’informatique en nuage, ainsi que pour les autorités publiques faisant usage de ces solutions.

Pour les fournisseurs de services d’informatique en nuage, est ainsi créée une obligation de prendre « toutes les mesures techniques et organisationnelles » nécessaires pour empêcher tout accès, direct ou indirect, non autorisé par les autorités publiques, d’un État tiers, à ces données. Sont ici concernées les données relevant des articles L. 311-5 et L. 311-6 du code des relations entre le public et l’administration – données relevant de secrets protégés par la loi ([114]) –, des données de santé à caractère personnel mentionnées à l’article L. 1111-8 du code de la santé publique, et toute donnée nécessaire « à l’accomplissement des missions essentielles de l’État ».

Pour les autorités publiques, est également créée une obligation légale de vérification de la sécurité de la solution cloud retenue pour l’hébergement des données précitées, qui se traduit, en pratique, par le contrôle du fournisseur de services d’informatique en nuage quant au respect de cette nouvelle obligation ainsi que par des garanties d’indépendance de ces fournisseurs de services vis-à-vis des États tiers.

Pour pouvoir recourir à une offre d’hébergement de données sensibles, les autorités publiques doivent ainsi s’assurer que le fournisseur choisi a installé son siège statutaire, son administration centrale ou son principal établissement sur le territoire d’un État membre de l’Union européenne et que « le capital et les droits de vote dans la société du prestataire retenu ne sont pas, directement ou indirectement, individuellement détenus à plus de 24 % et collectivement détenus à plus de 39 % par des entités tierces possédant leur siège statutaire, leur administration centrale ou leur principal établissement en dehors de l’Union européenne » .

Une garantie supplémentaire est ajoutée, puisque ces entités tierces « ne peuvent pas, individuellement ou collectivement, en vertu d’un contrat ou de clauses statutaires, disposer d’un droit de veto ou désigner la majorité des membres des organes d’administration de direction ou de surveillance du prestataire ».

III.   Les modifications apportées par LA COMMISSION

Deux amendements identiques de suppression de l’article, CS933 et CS589, présentés respectivement par Mme Le Hénanff, rapporteure et Mme Clara Chassaniol (RE) ont été adoptés.

La commission a en effet estimé que le dispositif présentait de sérieuses difficultés d’ordre juridique, au regard du droit européen, et qu’il était dépourvu de portée opérationnelle réelle, faute de disponibilité suffisante de l’offre de cloud sécurisée qu’il entend viser.

 

Article 10 bis B (nouveau)
Renforcement des exigences de sécurité relatives à l'hébergement des données de santé

Article introduit par la commission

Résultant de l’adoption d’un amendement de M. Philippe Latombe (Dem), l’article 10 bis B modifie l’article L. 1111-8 du code de la santé publique afin de rendre obligatoire le recours à une solution de services d’informatique en nuage certifiée par le référentiel SecNumCloud pour l’hébergement des données de santé.

  1.   Le droit en vigueur

L’hébergement des données de santé fait l’objet d’exigences spécifiques visant à garantir leur protection contre l’existence d’éventuelles fuites de données.

L’article L.1111-8 du code de la santé publique prévoit que toute personne physique ou morale à l’origine de la production ou du recueil de données de santé à caractère personnel à l’occasion d’activités de prévention, de diagnostic, de soins ou de suivi social et médico-social doit recourir à un hébergeur certifié ou agréé lorsqu’elle externalise la conservation de données dont elle est responsable.

Cette obligation s’applique à toute entité qui propose un service d’hébergement portant sur des données de santé à caractère personnel recueillies à l'occasion d'activités de prévention, de diagnostic, de soins ou de suivi social et médico-social et pour le compte du patient ou pour le compte des professionnels de santé, des établissements et services de santé et tout autre organisme réalisant des missions de prévention, de soins, de suivi médico-social et social à l’origine de ces données.

L’Agence du numérique en santé (ANS) a mis en place, dans ce cadre, un référentiel de certification « Hébergement de données de santé », dite « HDS ».

II.   Le dispositif proposé

Résultant de l’adoption, malgré les avis défavorables de la rapporteure et du Gouvernement, de l’amendement CS765 de M. Philippe Latombe (Dem), l’article 10 bis B complète l’article L. 1111-8 du code de la santé publique par un alinéa prévoyant une obligation pour les fournisseurs de service d’informatique en nuage, à compter du 1er juillet 2024, d’être certifié par le référentiel SecNumCloud publié par l’Agence nationale de sécurité des systèmes d’information (Anssi) pour pouvoir héberger des données de santé.

Chapitre II bis
Transparence sur le marché de l’informatique en nuage

Article 10 bis
Obligations renforcées de transparence et de sécurisation des données à destination des fournisseurs de services d’informatique en nuage

Adopté par la commission avec modifications

L’article 10 bis prévoit que les fournisseurs de services d’informatique en nuage et leurs intermédiaires sont soumis à des obligations de publicité et de transparence concernant le niveau de sécurité des données qu’ils hébergent.

Cet article additionnel, introduit par le Sénat en commission spéciale, n’a pas fait l’objet de modifications en séance publique.

Cet article a été modifié lors de son examen en commission spéciale à l’Assemblée nationale. Un amendement de rédaction globale a aligné son contenu sur les dispositions prévues à l’article 27 du règlement européen sur les données.

  1.   Le droit en vigueur

Voir le commentaire d’article de l’article 10 bis A.

II.   Le dispositif proposé

L’article 10 bis est un article additionnel introduit par le Sénat au stade de l’examen en commission spéciale à la suite de l’adoption de deux amendements identiques COM-52 et COM-157 rect. bis présentés respectivement par Mme Blatrix-Contat et Mme Paoli.

Il crée une obligation, pour les fournisseurs de services d’informatique en nuage et leurs intermédiaires, de mettre à disposition du public et d’actualiser lorsque cela est nécessaire un certain nombre d’informations concernant :

– l’emplacement physique de leurs infrastructures informatiques déployées pour le traitement des données de leurs services individuels ;

– l’existence d’un risque d’accès gouvernemental aux données de l’utilisateur du service d’informatique en nuage ;

– la description des « mesures techniques, juridiques et organisationnelles » mises en œuvre par l’opérateur pour prévenir le risque précité, « lorsque ce transfert ou cet accès créerait un conflit avec le droit de l’Union européenne ou le droit national de l’État membre concerné ».

Cet article prévoit, en outre, que les sites internet des fournisseurs de services d’informatique en nuage et de leurs intermédiaires soient mentionnés au sein des accords contractuels.

 

Sa rédaction n’a fait l’objet d’aucune modification au stade de la séance publique.

III.   Les modifications apportées par LA COMMISSION

Un amendement de rédaction globale, CS932, de la rapporteure Mme Anne Le Hénanff, a été adopté. Il procède à un alignement des dispositions de l’article 10 bis sur celles du règlement européen sur les données.

 

Chapitre III
Régulation des services d’intermédiation des données

Article 11
Compétence de l’Arcep en matière de régulation des services d’intermédiation de données

Adopté par la commission avec modifications

L’article 11 désigne l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) comme autorité compétente pour réguler les services d’intermédiation de données, conformément à l’article 13 du règlement pour la gouvernance européenne des données (Data Governance Act).

Cet article n’a pas fait l’objet de modification lors de son examen au Sénat.

Cet article a été modifié lors de son examen par la commission spéciale à l’Assemblée nationale afin d’aligner la rédaction de son alinéa 3 sur les dispositions de l’article 29 du règlement européen sur les données.

  1.   Le droit en vigueur

A.   Une régulation de la donnÉe renforcée au niveau européen

Dans le cadre de la stratégie européenne pour la donnée, plusieurs règlements européens ont été adoptés afin de compléter la régulation mise en œuvre en matière de services numériques (règlement pour les services numériques) et de marchés numériques (règlement pour les marchés numériques).

À l’initiative de la Commission européenne, le règlement européen sur la gouvernance des données (DGA) est entré en vigueur le 23 juin 2022. Ce règlement fixe le cadre juridique afférent au partage des données personnelles et non personnelles. Il favorise le partage des données personnelles et non personnelles en instaurant des structures d’intermédiation, encadre la réutilisation de certaines catégories de données protégées du secteur public, et met en place des certifications obligatoires pour les fournisseurs de services d’intermédiation de données.

Ce règlement institue, en particulier, une nouvelle catégorie juridique de service : le service « d’intermédiation de données ». Ce dernier est défini en son article 2 comme tout service « qui vise à établir des relations commerciales à des fins de partage de données entre un nombre indéterminé de personnes concernées et de détenteurs de données, d’une part, et d’utilisateurs de données, d’autre part, par des moyens techniques, juridiques ou autres, y compris aux fins de l’exercice des droits des personnes concernées en ce qui concerne les données à caractère personnel », à l’exclusion d’un certain nombre de services plus spécifiques.

L’étude d’impact annexée au présent projet de loi fournit, comme exemple d’acteur qui pourrait être intéressé par cette qualification nouvelle, la plateforme AgDataHub, entreprise qui se positionne comme intermédiaire de référence pour la circulation des données agricoles en France et en Europe.

B.   La désignation nécessaire de l’autorité compétente en matière de services d’intermédiation de données

L’article 13 du règlement sur la gouvernance européenne des données, dispose que « chaque État membre désigne une ou plusieurs autorités compétentes pour effectuer les tâches liées à la procédure de notification pour les services d’intermédiation de données ».

L’article 11 du projet de loi procède donc à cette désignation, afin de permettre la pleine entrée en application de ce règlement, qui est prévue au mois de septembre 2023.

II.   Le dispositif proposé

L’article 11 désigne l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) comme autorité compétente pour réguler les services d’intermédiation de données, conformément à l’article 13 du règlement sur la gouvernance européenne des données.

Il tire les conséquences juridiques de cette désignation en matière de compétences, à savoir :

– la consultation de l’Autorité sur les projets de loi et de décret relatifs aux services d’intermédiation de données ;

– l’association de l’Autorité, à la demande du ministre compétent, à la préparation de la position française au sein des négociations internationales portant sur ce sujet, et sa participation à la représentation de la France dans ce domaine ;

–  la coopération de l’Autorité avec les autres autorités compétentes des pays membres de l’Union européenne, ainsi qu’avec la Commission européenne et le comité européen de l’innovation dans le domaine des données.

III.   Les modifications apportées par le Sénat

Cet article n’a pas été modifié par le Sénat.

IV.   Les modifications apportÉes par LA COMMISSION

L’article 11 a été modifié à la suite de l’adoption, en commission spéciale, d’un amendement de précision rédactionnelle CS921 de Mme Anne Le Hénanff, rapporteure. Il aligne la rédaction de l’alinéa 3 de l’article sur les dispositions de l’article 29 du règlement européen sur les données.

 

Article 12
Compétence de l’Arcep en matière de régulation des services d’intermédiation de données

Adopté par la commission avec modifications

L’article 12 désigne l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) comme autorité compétente pour réguler les prestataires de services d’intermédiation de données (SID). En conséquence, il attribue à cette autorité les pouvoirs d’enquête et d’accès aux données nécessaires pour mener à bien cette nouvelle mission.

Cet article n’a pas été modifié par le Sénat.

Cet article a été modifié lors de son examen en commission spéciale à l’Assemblée nationale par un amendement de nature rédactionnelle.

  1.   Le droit en vigueur

Voir le commentaire d’article de l’article 11.

II.   Le dispositif proposé

L’article 12 attribue à l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) les compétences nécessaires pour mener à bien sa nouvelle mission de régulation des prestataires de services d’intermédiation de données (SID).

Ainsi :

le I de l’article 12 prévoit que l’Arcep puisse recueillir auprès de ces prestataires les documents et informations nécessaires pour vérifier que ces derniers se conforment aux dispositions prévues au chapitre III du règlement sur la gouvernance européenne des données ou dans les actes délégués pris pour son application (1°) et procéder si nécessaire à des enquêtes (2°).

Il est précisé, en outre, que la mise en œuvre de ces dispositions doit s’effectuer « de manière proportionnée, et sur la base d’une décision motivée », et que l’Arcep est soumise aux règles relatives à la protection des informations recueillies dans le cadre de l’exercice de cette compétence ;

le II prévoit que l’Arcep puisse se saisir d’office ou être saisie par « toute personne physique ou morale concernée » en cas de manquement aux obligations précitées prévues au sein du chapitre III du règlement européen pour la gouvernance des données.

Il fixe également le régime de sanctions applicable à ces manquements, à savoir une sanction pécuniaire qui ne peut excéder 3 % du chiffre d’affaires mondial hors taxes du dernier exercice clos (5 % en cas de nouvelle violation de la même obligation), ou 150 000 euros en cas d’absence de chiffre d’affaires (375 000 euros en cas de nouvelle violation de la même obligation dans les cinq ans). Le délai de mise en conformité par le prestataire de SID est fixé à trente jours.

Ce régime de sanctions inclut en outre la possibilité, pour l’Arcep, de prononcer une sanction de suspension de la fourniture du service d’intermédiation de données et la cessation de la fourniture de ce service dans le cas où le prestataire n’aurait pas remédié aux manquements graves constatés.

III.   Les modifications apportées par le SÉnat

Cet article n’a pas été modifié par le Sénat.

IV.   les modifications apportées par LA COMMISSION

L’article 12 a été modifié à la suite de l’adoption, en commission spéciale, d’un amendement de précision rédactionnelle CS920 de Mme Anne Le Hénanff, rapporteure. Cet amendement précise les pouvoirs de contrôle et de sanction de l’Arcep en tant qu’autorité compétente en matière de fournisseurs de services d’intermédiation de données.

 

Article 13
Articulation de la compétence de la Cnil et de l’Arcep s’agissant des données à caractère personnel, dans le cadre de la mission de régulation des services d’intermédiation de données par l’Arcep

L’article 13 définit les modalités de consultation de la Commission nationale de l’informatique et des libertés (Cnil) par l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep), dans le cadre de sa nouvelle mission de régulation des services d’intermédiation de données (SID).

Cet article a été modifié par le Sénat par des amendements de nature rédactionnelle.

Cet article a été modifié lors de son examen en commission spéciale à l’Assemblée nationale par un amendement de nature rédactionnelle.

  1.   Le droit en vigueur

L’application du règlement pour la gouvernance européenne des données (DGA) rend nécessaire la désignation d’une autorité compétente pour assurer le respect, par les prestataires de services d’intermédiation de données (SID), de leurs nouvelles obligations.

Le Gouvernement a choisi de désigner l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) pour assurer cette nouvelle mission. Ce choix s’appuie, pour l’essentiel, sur le caractère non personnel des données régulées dans ce cadre.

Toutefois, ainsi que le prévoit le règlement européen précité, la nouvelle compétence de l’Arcep doit s’exercer sans préjudice des compétences des autres autorités nationales concernées dans leurs domaines de compétence respectifs. En l’espèce, la question de la régulation de la donnée inclut des enjeux relatifs à la protection des données et au respect du règlement européen pour la protection des données personnelles, dont la Commission nationale de l’informatique et des libertés (Cnil) assume la charge.

Il convenait donc de définir les modalités de consultation de la Cnil par l’Arcep dans le cadre de sa nouvelle mission de régulation des SID.

II.   Le dispositif proposé

L’article 13 définit les modalités de consultation de la Cnil par l’Arcep dans le cadre de l’exercice de la nouvelle mission de régulation qui est confiée à cette dernière.

Il prévoit, à cet effet :

que, avant toute décision, l’Arcep doit saisir la Cnil des pratiques de prestataires de SID lorsque celles-ci sont « de nature à soulever des questions liées à la protection des données à caractère personnel ». L’Arcep doit alors tenue de tenir compte des éventuelles remarques de la Cnil à ce sujet ;

les conditions dans lesquelles s’effectue cette saisine : celle-ci intervient lorsque l’Arcep est amenée à traiter des demandes formulées par les prestataires précités en application de certaines dispositions du règlement européen portant sur la gouvernance des données ou toute réclamation émanant de personnes physiques ou morales ayant recours aux services d’intermédiation de données relatives au champ d’application du même règlement.

En outre, l’Arcep est tenue d’informer la Cnil de toute procédure ouverte en application de ces dispositions et doit lui communiquer toute information utile lui permettant de fournir d’éventuelles observations sur le sujet traité, dans un délai de quatre semaines.

Enfin, l’article 13 prévoit que la Cnil communique, en retour, tout fait dont elle a connaissance dans son domaine de compétence – le contrôle du respect des exigences en matière de protection des données à caractère personnel –qui pourrait être constitutif d’un manquement aux obligations des prestataires de SID au regard des dispositions du chapitre III du DGA.

III.   Les modifications apportées par le Sénat

Deux amendements rédactionnels COM-119 et COM-120 présentés par le rapporteur M. Patrick Chaize ont été adoptés lors de l’examen du texte en commission spéciale.

Cet article n’a fait l’objet d’aucune modification en séance publique.

IV.   les modifications apportées par LA COMMISSION

L’article 13 a été modifié à la suite de l’adoption, en commission spéciale, d’un amendement de précision rédactionnelle CS922 de Mme Anne Le Hénanff, rapporteure.

Article 14
Coordinations juridiques au sein du code des postes et des communications électroniques

Adopté par la commission sans modification

L’article 14 procède à des coordinations au sein du code des postes et des communications électroniques pour permettre la bonne articulation des nouvelles dispositions résultant du titre III du présent projet de loi avec le droit existant.

Cet article a été modifié par le Sénat par un amendement de précision juridique.

Cet article n’a pas fait l’objet de modification lors de son examen en commission spéciale à l’Assemblée nationale.

  1.   Le droit en vigueur

Le code des postes et des communications électroniques définit en son article L. 130 le statut de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) ainsi que les modalités d’organisation de ses différentes formations.

La désignation de l’Arcep comme autorité compétente en charge de réguler les fournisseurs de services d’informatique en nuage et de services d’intermédiation de données rend nécessaire la création d’un renvoi, au sein de cet article, aux dispositions prévoyant, au sein du présent projet de loi, cette nouvelle compétence.

II.   Le dispositif proposé

L’article 14 procède à des modifications d’ordre rédactionnel au sein de l’article L. 130 du code des postes et des communications électroniques.

Cet article définit le statut de l’Arcep (autorité administrative indépendante), détaille la composition de ses différentes formations (plénière et restreinte), leur champ de compétence, et les modalités d’exercice du pouvoir de sanction de ces dernières.

Le cinquième alinéa modifié correspond au périmètre de l’action de la formation restreinte de l’Arcep. Il ne comprend pas, par définition, les nouvelles dispositions prévues au sein du projet de loi, raison pour laquelle il convenait de le compléter.

Un renvoi est donc effectué, en ce sens, aux dispositions « prévues au second alinéa du III de l’article 10 » et au quatrième à dernier alinéas du II de l’article 12 du présent projet de loi.

III.   Les modifications apportées par le Sénat

Le Sénat a adopté, en commission spéciale, un amendement COM-121 de précision juridique présenté par le rapporteur M. Patrick Chaize.

IV.   les modifications apportées par LA COMMISSION

L’article 14 n’a pas fait l’objet de modification lors de son examen en commission spéciale.

titre iv
assurer le développement en France de l’ Économie des objets de jeux numériques monétisables dans un cadre protecteur

Article 15
Encadrement des jeux à objet numérique monétisable (Jonum)

Adopté par la commission avec modifications

L’article 15 prévoyait, dans sa rédaction initiale, une habilitation du Gouvernement à légiférer par ordonnance pour fixer un cadre juridique adéquat vis-à-vis du développement des jeux à objet numérique monétisable (Jonum).

Lors de son examen en commission spéciale au Sénat, cette habilitation a été supprimée.

L’article 15 prévoit désormais une expérimentation des Jonum proposés par l’intermédiaire d’un service de communication au public en ligne pour une durée de trois ans à compter de la promulgation de la présente loi.

Il consacre également une première définition juridique des Jonum et définit le cadre précis de leur expérimentation ainsi que les obligations s’imposant aux entreprises exploitant de tels jeux.

Cet article a été modifié lors de son examen en commission spéciale à l’Assemblée nationale. Deux amendements, visant à préciser le périmètre de l’expérimentation des jeux à objets numériques monétisables et à prévoir un bilan d’étape à mi-parcours de cette expérimentation, ont été adoptés.

  1.   Le droit en vigueur

A.   Les JONUM : une nouvelle catégorie de jeux à la frontiÈre entre jeux vidéo et jeux d’argent et de hasard

1.   Les jeux à objet numérique monétisable : une innovation dans le domaine des jeux en ligne, qui procède du développement des technologies du Web 3.0.

Le développement des « chaînes de blocs », technologie permettant le stockage et la transmission d’informations de façon décentralisée et sécurisée, a suscité de nombreuses innovations aux usages économiques multiples.

L’essor de ces technologies est désigné par l’appellation Web 3.0, par opposition aux versions précédents du Web, c’est-à-dire au Web 1.0 (site internet statique) et au Web 2.0 (site internet qui permet l’interaction entre utilisateurs).

Cette évolution transforme progressivement le modèle économique des jeux. En effet, ainsi que le rappelle le rapport de l’Inspection générale des finances (IGF) consacré au Web 3.0 ([115]), les éditeurs de jeux, sous l’influence de cette évolution, ont développé de façon croissante des jeux évolutifs, au sein desquels il est possible d’acquérir des accessoires supplémentaires de toutes natures (achat in game). Les revenus supplémentaires générés par ces achats leur permettent de rendre l’accès au jeu initial gratuit (modèle du freemium).

Cette évolution répond également à une demande de la communauté des joueurs, puisqu’elle constitue à la fois un moyen supplémentaire de manifester son attachement aux jeux concernés, et de rentabiliser l’investissement consenti en termes de temps et d’argent.

2.   Des modèles de jeux variés dont il est difficile de constituer une liste exhaustive à ce stade.

L’essor des jeux Web 3.0 et l’absence de maturité d’un secteur économique en cours de développement rendent difficile la constitution d’une liste exhaustive des types de jeux concernés par la possibilité d’y acquérir et d’y échanger des objets numériques monétisables.

3.   Une source d’opportunités économiques majeure pour l’écosystème français des jeux Web 3.0.

Le développement de jeux à objet numérique monétisable se traduit par des investissements importants, en France et dans le monde, dans un secteur d’activité encore mouvant qui doit gagner en maturité.

En effet, selon l’Autorité nationale des jeux (ANJ), près de 12 milliards d’euros ont été investis dans les jeux utilisant des jetons non fongibles en 2022, pour environ 2 000 jeux dits « play to earn » destinés notamment au public français, . Les chiffres fournis par l’IGF concernant les jeux du Web 3.0 confirment cette tendance, avec, à l’échelle mondiale, environ 7,6 milliards de dollars consacrés aux jeux Web 3.0 en 2022, soit le double des investissements consentis en 2021 dans le même domaine.

Le développement des Jonum constitue donc un formidable levier de croissance et d’innovation pour le secteur du jeu Web 3.0 français.

En effet, ainsi que le rappelle l’IGF dans son rapport précité, « si le secteur français du jeu Web 3.0 n’est pas au premier rang mondial, puisqu’il ne compte aucun des jeux les plus utilisés (Alien Worlds, Splinterlands, Farmers World), il n’en reste pas moins dynamique, porté par des acteurs de niveau international (comme Sorare, dans le monde des « play to earn » sportifs), et par des projets nombreux (Oval3 et Metafight dans la fantaisie sportive, Immortal Games dans les échecs, ou encore Dogami, un tamagotchi) » ([116]).

Le développement des Jonum, et de l’écosystème du jeu Web 3.0 français, rend nécessaire la définition d’un cadre juridique clair proposant un équilibre satisfaisant entre soutien à l’innovation et protection des consommateurs face aux risques spécifiques que comporte cette évolution.

Il est impératif de soutenir notre écosystème Web 3.0, dans la compétition qui s’est engagée avec les acteurs étrangers, en proposant un cadre expérimental souple favorisant l’innovation.

B.   Les JONUM : Un objet juridique non identifié (ojni) dont le développement n’est pas sans risques

1.   Une absence de définition en droit, un risque réel de requalification en jeu d’argent et de hasard.

La définition juridique des Jonum est un enjeu essentiel au regard de la législation en vigueur. En effet, les caractéristiques de ces jeux les rapprochent à la fois des jeux vidéo et, par certains aspects, des jeux d’argent et de hasard. Ces jeux empruntent en effet des caractéristiques à la fois aux jeux de loisirs (gaming) et aux jeux d’argent (gambling).

Cette dernière qualification, si elle devait être retenue, pourrait faire peser un risque juridique pour les entreprises qui souhaitent investir dans ce domaine.

En effet, en France, le principe fixé au sein du code de la sécurité intérieure est l’interdiction des jeux d’argent et de hasard (article L. 320-1). La qualification de jeu d’argent et de hasard repose sur le cumul de quatre conditions : une offre faite au public ; un sacrifice financier consenti par le joueur ; un gain de toute nature espéré par ce dernier ; et, enfin, l’intervention d’une dynamique de hasard, même infime.

À cet égard, il existe un risque réel de requalification de certains Jonum en jeux d’argent et de hasard et, dès lors, de sanction pénale pour les acteurs économiques concernés.

Ainsi que le relève l’ANJ, ces risques juridiques pèsent également les joueurs dans la mesure où ces derniers, s’ils n’encourent aucune sanction pénale, ne pourront toutefois pas réclamer, sur le plan civil, le paiement de leur gain éventuel, puisque leur demande contre l’éditeur se heurterait de facto à « l’exception de jeu » dont l’éditeur peut se prévaloir en application de l’article 1965 du code civil (dans l’hypothèse où le droit français serait applicable à leur relation).

2.   Des risques en matière d’addiction et de blanchiment d’argent qui doivent être anticipés.

En outre, l’essor des Jonum ferait courir d’autres risques d’ordre public :

des risques sanitaires pour les joueurs qui doivent être pris en compte par les pouvoirs publics. Ainsi que le relève l’ANJ, même si peu d’études existent sur les Jonum, les rares publications sur ce sujet mettraient en avant des risques financiers et comportementaux pour les joueurs concernés (santé mentale) ;

des risques spécifiques en matière de blanchiment de capitaux et de financement d’activités criminelles. Le Conseil d’orientation de la lutte contre le blanchiment des capitaux et le financement du terrorisme (Colb), Tracfin et la Commission européenne considèrent en effet que les jetons non fongibles ont des caractéristiques qui les rendent attractifs dans le cadre de ces activités illégales.

Il apparaît important de se mettre en capacité d’évaluer ces risques.

II.   Le dispositif PROPOSÉ

L’article 15 dans sa rédaction initiale prévoyait une habilitation, pour le Gouvernement, à prendre, par ordonnance, dans un délai de quatre mois à compter de la publication de la présente loi, toutes les mesures nécessaires, y compris en recourant à l’expérimentation, pour définir le régime, les objectifs et les modalités de l’encadrement de la régulation et du contrôle des Jonum.

 

III.   Les modifications apportées par le Sénat

L’article 15 a fait l’objet de modifications substantielles lors de son examen au Sénat.

A.   Une réécriture complète de l’article en commission

Un amendement COM-122 présenté par le rapporteur M. Patrick Chaize a supprimé l’habilitation précitée.

L’article 15 prévoit, désormais, une expérimentation des jeux à objet numérique monétisable proposés par l’intermédiaire d’un service de communication au public en ligne, dont la durée est fixée à trois ans à compter de la promulgation de la présente loi.

Il fixe également le cadre de cette expérimentation :

– en excluant du cadre de l’expérimentation certains jeux à objet numérique monétisable. Sont concernés par cette exclusion les Jonum conduisant à l’obtention d’un gain monétaire et comportant la possibilité, pour les objets numériques monétisables concernés, d’être « cédés, directement ou indirectement, par l’intermédiaire de toute personne physique ou morale, à toute entreprise de jeux ». La liste précise des catégories de jeux autorisées à titre expérimental est renvoyée à l’adoption d’un décret pris après avis de l’ANJ ;

en proposant une première définition juridique des Jonum. Sont ainsi définis comme jeux à objet numérique monétisable les jeux dont tout élément de jeu confère aux joueurs concernés un ou plusieurs droits associés au jeu, et susceptibles d’être cédés, directement ou indirectement, à titre onéreux à des tiers ;

en imposant des obligations spécifiques aux entreprises de jeux concernées. Celles-ci se voient en effet soumises à des obligations de vérification de l’intégrité, de la fiabilité et de la transparence des opérations de jeu. Elles devront en effet s’assurer de la protection des mineurs dans ce cadre, en veillant notamment à prévenir les risques d’addiction aux jeux. Elles devront également veiller à ce que cette activité ne soutienne par les activités frauduleuses ou criminelles telles que le blanchiment de capitaux et le financement du terrorisme.

en prévoyant, enfin, la remise au Parlement d’un rapport d’évaluation sur les effets de cette expérimentation, au plus tard six mois avant la fin de celle-ci.

B.   Un maintien du texte en séance publique

Cet article n’a pas fait l’objet de modification en séance publique.

IV.   les modifications apportées par LA COMMISSION

L’article 15 a été modifié à la suite de l’adoption, en commission spéciale, des deux amendements suivants :

– un amendement CS925, présenté par M. Denis Masséglia, rapporteur, visant à clarifier le périmètre de l’expérimentation des Jonum au profit d’un équilibre entre soutien à l’innovation et encadrement des pratiques qui ont vocation à se développer dans ce cadre ;

– un amendement CS226, présenté par M. Aurélien Taché (Écolo-NUPES), qui prévoit un bilan d’étape à mi-parcours pour évaluer les effets de cette expérimentation. Cet amendement a été adopté, sous-amendé par le sous-amendement CS955 de M. Denis Masséglia, rapporteur, précisant le contenu du rapport d’étape demandé.

Article 15 bis (nouveau)
Cadre de régulation de l’expérimentation des jeux à objets numériques monétisables (Jonum)

Introduit par la commission

Introduit par la commission spéciale, l’article 15 bis fixe un cadre de régulation complet relatif à l’expérimentation des jeux à objets numériques monétisables prévue à l’article 15. Il définit les obligations que doivent respecter les entreprises de Jonum, ainsi que les pouvoirs de contrôle et de sanction de l’Autorité nationale des jeux (ANJ).

L’article 15 bis est un article additionnel introduit en commission spéciale à la suite de l’adoption de l’amendement CS924 de M. Denis Masséglia, rapporteur, sous-amendé par les sous-amendements CS944 de M. Stéphane Vojetta (RE) et CS943 de Mme Céline Calvez (RE).

Cet article pose un cadre de régulation renforcée pour permettre de trouver un équilibre juste entre soutien à l’innovation et prévention des risques dans le cadre de l’expérimentation des Jonum prévue à l’article 15.

Ce cadre prévoit, notamment :

une obligation de déclaration préalable à l’ANJ de toute initiative visant à proposer une offre Jonum au public (I de l’article) ;

– des pouvoirs de contrôle renforcés de l’ANJ, qui pourra contrôler le respect par les entreprises de Jonum de leurs obligations légales et réglementaires, notamment en lien avec la lutte contre les offres illégales de jeux (alinéas 38 et suivants), prononcer des mises en demeure à destination des entreprises concernées (alinéas 67 et suivants), et prendre toute sanction utile en cas de violation par ces entreprises de ces obligations (alinéa 38). Ces sanctions pourront aller du simple avertissement à l’interdiction, pour une durée de trois ans au plus, pour un exploitant donné, d’exercer une activité d’exploitation de Jonum (alinéas 56 et suivants) ;

– des obligations spécifiques pesant sur les entreprises de Jonum en matière de protection des mineurs (alinéa 6) et de prévention des comportements à risque en matière de jeu (alinéa 27), notamment via des mécanismes de vérification d’âge. Les entreprises concernées seront notamment tenues d’informer les joueurs vis-à-vis des risques sanitaires liés au jeu, via un message de mise en garde (alinéa 30). D’autres obligations sont prévues, en outre, afin de lutter contre le blanchiment de capitaux et le financement du terrorisme (alinéas 31 et suivants).

– un encadrement des pratiques publicitaires relatives aux Jonum. Les entreprises de Jonum devront s’abstenir d’adresser toute communication commerciale aux mineurs et aux titulaires d’un compte bénéficiant d’une mesure d’auto-exclusion applicable aux jeux exploités (alinéa 29). En outre, les dispositions prévues au sein du code de la sécurité intérieure dans ce domaine, très restrictives, seront applicables à leurs actions de communication commerciale.

– des garde-fous pour protéger les joueurs sont également prévus, en sus des éléments précités, parmi lesquels figurent l’obligation pour les joueurs de se soumettre à un processus de vérification d’identité et de majorité afin de pouvoir retirer leurs gains (alinéa 7), et le droit, pour les associations de lutte contre les addictions, dans des conditions définies, de se porter partie civile pour les infractions prévues au VIII de l’article 15 bis (alinéas 25 et suivants).

Enfin, il convient de relever que l’ANJ se voit également confier la mission de veiller, dans le cadre de l’expérimentation des Jonum, au respect d’un équilibre entre les différentes filières du jeu.

titre V
Permettre à l’État d’analyser plus efficacement l’évolution des marchés numériques

Article 16
Élargissement des pouvoirs de collecte des données par le Pôle d’expertise de la régulation numérique (PEReN) pour des activités de recherche publique

Adopté par la commission avec modifications

Le présent article élargit l’accès du PEReN aux données publiquement accessibles des plateformes en ligne et le qualifie pour avoir accès aux données des très grandes plateformes afin de mener des recherches sur les risques systémiques dans l’Union européenne.

Le Sénat a élargi la liste des opérateurs pouvant être sollicités par le PEReN pour collecter des données, et allongé la durée de conservation des données collectées en vue d’un projet de recherche publique.

La commission spéciale a précisé le périmètre de compétence du PEReN, en y incluant notamment explicitement les systèmes d’exploitation utilisant l’intelligence artificielle.

  1.   LE DROIT EN VIGUEUR

Le Pôle d’expertise de la régulation numérique (PEReN) a été créé par le décret n° 2020-1102 du 31 août 2020 portant création d’un service à compétence nationale dénommé « Pôle d’expertise de la régulation numérique ». Il est placé sous l’autorité conjointe des ministres chargés de l’économie, de la communication et du numérique.

Le PEReN fournit un appui technique aux services de l’État qui interviennent dans la régulation des plateformes numériques à la fois en fournissant une expertise générale, mais aussi contribuant aux enquêtes et études menées sur ces plateformes (article 2 du décret précité).

● La collecte de données par le PEReN

Les pouvoirs du PEReN ont été élargis et précisés par l’article 36 de la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique, issu d’un amendement déposé par le Gouvernement lors de l’examen du texte en commission en première lecture à l’Assemblée nationale ([117]).

Dans l’exposé sommaire de l’amendement, le Gouvernement fait état des difficultés rencontrées par le PEReN pour collecter les données des plateformes numériques utiles à ses travaux. Pour y remédier, il autorise le PEReN à mener des expérimentations et des activités de recherche publique.

Le cinquième alinéa de l’article 36 autorise ainsi explicitement le PEReN à mener des activités d’expérimentations pour « utiliser, concevoir ou évaluer des outils techniques et ayant pour strict objet la réflexion portant sur la régulation des opérateurs [de plateformes en ligne] ».

Dans le cadre de ces expérimentations, il est autorisé à collecter les données publiquement accessibles des opérateurs de plateformes numériques, y compris lorsque l’accès requiert l’ouverture d’un compte. Ceux-ci ne peuvent lui opposer « ni refus d’accès aux interfaces de programmation qu’ils ont développées et rendues accessibles aux tiers, ni de limites d’extraction des bases de données publiquement accessibles, ni d’interdictions prévues par les conditions générales d’utilisation des services mettant les données visées à disposition du public ». Le PEReN intervient alors en tant que responsable de traitement au sens de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés.

Les méthodes de collecte utilisées doivent être proportionnées et préserver la sécurité des opérateurs de plateformes. Les données collectées doivent être détruites à l’issue des travaux, et au plus tard neuf mois après leur collecte.

Les méthodes de collecte des données par le PEReN sont précisées par un décret en Conseil d’État ([118]), pris après avis public motivé de la Commission nationale de l’informatique et des libertés (Cnil).

Dans sa délibération portant avis sur le projet de décret ([119]), la Cnil a considéré que les expérimentations menées par le PEReN à partir de données accessibles sur internet étaient justifiées par « l’objectif légitime de renforcer les moyens des services de l’État intervenant dans le champ de la régulation des opérateurs de plateformes numériques, et qui se heurtent au refus d’accès aux services existants de mise à disposition de ces données ou à une interdiction de collecte automatisée au travers des contrats qui lient ces opérateurs avec leurs usagers ».

Le chapitre II du décret du 21 avril 2022 précité encadre les traitements automatisés permettant la collecte de données publiquement accessibles :

– la sélection des données à collecter doit être proportionnée et s’effectuer selon des critères déterminés spécialement pour chaque expérimentation ;

– le recours à un système de reconnaissance faciale ou d’identification vocale est exclu ;

– si les agents du PEReN peuvent créer des comptes sur les plateformes en ligne, ils ne peuvent les utiliser pour entrer en contact avec d’autres détenteurs de comptes ou pour diffuser des contenus ;

– la liste des données à caractère personnel susceptibles d’être collectées est dressée à l’article 5 du même décret et comporte les données d’identification déclarées par les titulaires de comptes ouverts et les contenus diffusés relayés au moyen de ces comptes, ainsi que les métadonnées liées à ces deux types de données ;

– les données collectées qui ne sont pas nécessaires à la poursuite de l’expérimentation et les données sensibles doivent être détruites immédiatement après leur collecte.

Le PEReN a lancé cinq projets expérimentaux en 2022. Deux de ces expérimentations sont présentées dans son rapport d’activité 2022 :

– l’analyse du type de réseau routier proposé aux automobilistes par les calculateurs d’itinéraires : l’expérimentation doit permettre de développer un outil pour vérifier que les calculateurs d’itinéraires respectent les obligations qui leur ont été fixées par la loi n° 2021-1104 dite « climat et résilience » ([120]) ; 

– le développement d’outils pour explorer le phénomène de « bulle de filtre », qui se produit lorsque les algorithmes de recommandation restreignent la diversité des contenus proposés par une plateforme à un utilisateur.

Le sixième alinéa de l’article 36 de la loi n° 2021-1382 du 25 octobre 2021 autorise également le PEReN à conduire, à son initiative, des activités de recherche publique répondant aux objectifs listés à l’article L. 112-1 du code de la recherche ([121]). L’objectif de cette activité de recherche, mis en avant par le Gouvernement dans l’exposé sommaire de l’amendement précité, est de mieux comprendre le fonctionnement des plateformes numériques et de produire des connaissances générales, utiles à l’ensemble des autorités publiques chargées de réguler ces plateformes.

● L’accès aux données des très grandes plateformes prévu par le règlement sur les services numériques (RSN)

L’article 40 du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 sur les services numériques ([122]) (RSN) encadre l’accès et le contrôle des données des fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne ([123]). Le paragraphe 12 de l’article 40 prévoit expressément qu’un accès à ces données soit donné aux chercheurs, en vue de recherches contribuant à la détermination et à la compréhension des risques systémiques dans l’Union tels que mentionnés au paragraphe 1 de l’article 34 du même règlement ([124]).

II.   LE DISPOSITIF PROPOSé

Le 1° du présent article complète le cinquième alinéa de l’article 36 de la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique : il élargit le pouvoir de collecte de données du PEReN ; ce dernier pourra collecter des données à la fois pour ses activités d’expérimentation mais également pour ses activités de recherche publique, dans les mêmes conditions.

Le 2° de l’article autorise le PEReN à conduire des projets qui contribuent à la détection, à la détermination et à la compréhension des risques systémiques pour l’Union, tels que décrits au paragraphe 1 de l’article 34 du RSN. Il prévoit explicitement que le PEReN ait accès aux données des fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne dans les conditions prévues au paragraphe 12 de l’article 40 du même règlement.

Enfin, le 3° du présent article procède à une coordination légistique.

III.   Les modifications apportées par le Sénat

Le Sénat a adopté trois amendements du rapporteur M. Chaize en commission.

● L’amendement COM-124 procède à deux modifications.

En premier lieu, il élargit la liste des opérateurs pouvant être sollicités pour la collecte de données, en y incluant les fournisseurs de systèmes d’exploitation qui conservent les données des plateformes. Cet ajout vise à résoudre les difficultés rencontrées par le PEReN lorsque les données sont détenues non pas par la plateforme, mais par une tierce personne.

En second lieu, il opère une distinction entre la durée de conservation des données à des fins d’expérimentation, maintenue à neuf mois, et celle relative aux activités de recherche publique, qu’il allonge à cinq ans. Cette modification fait suite au constat dressé par le PEReN lors de son audition par la commission spéciale du Sénat d’une durée de conservation des données trop courte pour permettre de conduire une activité de recherche.

● Les amendements COM-123 et COM-125 sont des amendements de précision rédactionnelle.

IV.   La position de la commission

La commission spéciale a adopté l’amendement CS317, déposé par M. Andy Kerbrat (LFI-NUPES), qui précise que les partenaires des plateformes et leurs sous-traitants ne peuvent pas refuser l’accès du PEReN à leurs interfaces de programmation ou s’opposer à l’extraction des bases de leurs données publiquement accessibles.

Elle a également adopté l’amendement CS889 de la rapporteure, qui ajoute les éditeurs de contenus utilisant un système d’intelligence artificielle dans le périmètre de compétence du PEReN.

Article 17
Centralisation des données devant être transmises par les opérateurs numériques aux communes en matière de location de meublés de tourisme

Adopté par la commission avec modifications

Le présent article instaure la centralisation des données communiquées par les intermédiaires de location aux communes qui en font la demande. Cette centralisation sera gérée par un organisme unique, chargé de collecter les données et d’y donner accès aux communes.

Il a été adopté par le Sénat après modification des modalités d’accès des communes à la plateforme.

La commission spéciale a élargi le champ des données qui devront être transmises par les plateformes et a prévu que ces données seront accessibles, une fois agrégées, en source ouverte. La commission spéciale a également créé un comité chargé de suivre la mise en œuvre de la plateforme, comportant notamment des représentants des communes ayant accès aux données.

  1.   Le droit en vigueur

L’encadrement de la location de meublés de tourisme est prévu à la fois par le code du tourisme et le code de la construction et de l’habitation (CCH).

● La déclaration préalable en mairie

Le II de l’article 324-1-1 du code du tourisme prévoit l’obligation, pour toute personne qui offre à la location un meublé de tourisme, de le déclarer préalablement au maire de la commune où est situé le meublé. Le deuxième alinéa de l’article prévoit que les résidences principales sont exemptées de cette déclaration préalable.

Une résidence principale au sens de l’article 2 de la loi n° 89-462 du 6 juillet 1989 tendant à améliorer les rapports locatifs et portant modification de la loi n° 86-1290 du 23 décembre 1986 est entendue comme « le logement occupé au moins huit mois par an, sauf obligation professionnelle, raison de santé ou cas de force majeure, soit par le preneur ou son conjoint, soit par une personne à charge au sens du code de la construction et de l’habitation ». Un logement qui est loué plus de quatre mois dans l’année, soit plus de cent-vingt jours, n’est pas considéré comme une résidence principale.

● La réglementation du changement d’usage

Il existe une procédure de changement d’usage prévue aux articles L. 631‑7 à L. 631-9 du CCH, qui vise à lutter contre la pénurie de logements : tout changement d’usage de locaux destinés à l’habitation est soumis à une autorisation préalable délivrée par la mairie. L’article 16 de la loi n° 2014-366 du 24 mars 2014 pour l’accès au logement et un urbanisme rénové a élargi ce dispositif à la location d’un logement comme meublé de tourisme.

La mise en œuvre de cette procédure est obligatoire pour les communes de plus de 200 000 habitants ([125]) et pour celles des départements des Hauts-de-Seine, de la Seine-Saint-Denis et du Val-de-Marne.

L’article L. 631-9 du CCH ouvre la possibilité pour les autres communes de mettre en œuvre cette procédure, soit par décision du préfet sur proposition du maire, soit, pour les communes situées en « zones tendues » listées par décret ([126]), par une délibération de l’organe délibérant de l’établissement public de coopération intercommunale compétent en matière de plan local d’urbanisme. La liste des communes situées en « zone tendue » a été actualisée par le décret n° 2023-822 du 25 août 2023 modifiant le décret n° 2013-392 du 10 mai 2013 relatif au champ d’application de la taxe annuelle sur les logements vacants instituée par l’article 232 du code général des impôts.

Le dernier alinéa de l’article précise que louer un logement pour de courtes durées constitue bien un changement d’usage : « Le fait de louer un local meublé destiné à l’habitation de manière répétée pour de courtes durées à une clientèle de passage qui n’y élit pas domicile constitue un changement d’usage au sens du présent article ».

Le I de l’article L. 324-2-1 du code du tourisme prévoit l’obligation pour les intermédiaires de location ([127]) d’informer le loueur des obligations de déclaration ou d’autorisation préalables. Le non-respect de cette obligation est passible d’une amende civile plafonnée à 500 euros par meublé de tourisme objet du manquement (premier alinéa du III du même article).

● Numéro d’enregistrement

À cette procédure de déclaration de changement d’usage s’ajoute un dispositif qui permet un contrôle et un suivi renforcés sur les meublés de tourisme : la mise en place d’un numéro d’enregistrement, dispositif créé par l’article 51 de la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.

Le III de l’article L. 324-1-1 du code du tourisme ouvre ainsi la faculté, pour les communes ayant mis en œuvre une procédure de changement d’usage, de soumettre toute location d’un meublé de tourisme à une déclaration préalable soumise à enregistrement. Cette déclaration doit indiquer si le bien offert à la location constitue la résidence principale du loueur. Un numéro d’enregistrement est délivré au loueur à la réception de la déclaration.

Cette procédure d’enregistrement a notamment pour objectif de vérifier le respect du plafond des cent-vingt jours de location pour les résidences principales. Le troisième alinéa de l’article L. 324-2-1 du code de tourisme associe les intermédiaires de location au contrôle du respect de cette obligation : ils doivent retirer du marché de la location tout meublé de tourisme déclaré comme résidence principale qui serait loué plus de cent-vingt jours au cours d’une même année civile. Le non-respect de cette obligation est passible d’une amende civile dont le montant ne peut excéder 50 000 euros par annonce faisant l’objet du manquement (troisième alinéa du III de l’article L. 324-2-1 du code de tourisme).

Il convient de souligner que les plateformes n’ont pas accès à la liste des numéros d’enregistrement délivrés par les communes : ce sont les communes qui sont en mesure de repérer les numéros frauduleux.

L’Union nationale pour la promotion de la location de vacances ([128]) (UNPLV) recensait, au 31 décembre 2022, 193 communes ayant introduit une procédure de changement d’usage et une procédure de déclaration donnant lieu à enregistrement ([129]).

● Demande annuelle d’informations aux plateformes

L’article 145 de la loi n° 2018-1021 du 23 novembre 2018 portant évolution du logement, de l’aménagement et du numérique (dite « Elan ») a créé au II de l’article L. 324-2-1 du code du tourisme une procédure de transmission d’informations par les intermédiaires de location aux communes qui en font la demande.

Cette possibilité est ouverte uniquement pour les communes ayant mis en place le numéro d’enregistrement. Elles ont alors la possibilité de demander plusieurs informations à un intermédiaire de location sur les meublés de tourisme dont il assure la mise en location : le nombre de jours pour lesquels le meublé a fait l’objet d’une location, le nom du loueur, l’adresse du meublé, le numéro de déclaration et, le cas échéant, le fait que ce meublé constitue ou non la résidence principale du loueur.

L’intermédiaire de location dispose d’un délai d’un mois pour transmettre ces informations. Le non-respect de cette obligation est passible d’une amende civile plafonnée à 50 000 euros par meublé de tourisme objet du manquement.

Les plateformes de location auditionnées par la rapporteure ont souligné la charge de travail importante liée à cette transmission de données, qui sont extraites manuellement puis envoyées sous format Excel.

● La proposition de règlement européen sur la location meublée touristique

La Commission européenne a présenté le 7 novembre 2022 une proposition de règlement concernant la collecte et le partage des données relatives aux services de location et de logements de courte durée ([130]). Cette proposition a notamment pour objectif d’harmoniser les règles relatives à l’enregistrement des hôtes et de leurs locations de courte durée et d’obliger les plateformes numériques à partager avec les autorités publiques les données sur les activités spécifiques des hôtes. La création de « points d’entrée numériques uniques » par les autorités publiques pour recevoir ces données est également prévue.

Le Conseil de l’Union européenne a arrêté sa position sur cette proposition de règlement le 2 mars 2023 ([131]) : cette orientation générale donne mandat à la présidence du Conseil pour négocier avec le Parlement européen une fois la position de ce dernier arrêtée.

Si le présent article s’inscrit dans la réforme souhaitée par la Commission européenne, l’étude d’impact précise bien qu’il ne couvre pas l’ensemble des situations prévues par la proposition de règlement et que le droit français devra de nouveau être adapté une fois le règlement adopté.

● Le dispositif expérimental « API meublés »

L’utilisation d’une plateforme en ligne pour faciliter la transmission des données par les intermédiaires de location a été expérimentée du 1er février au 4 octobre 2022. Cinq territoires pilotes (Bordeaux, Lyon, La Rochelle, Nice et Strasbourg), et cinq plateformes de location de meublés (Airbnb, Booking, Expedia, Leboncoin, Clévacances) ont participé à cette expérimentation, sous le pilotage de la direction générale des entreprises.

L’étude d’impact annexée au présent projet de loi indique que le bilan de l’expérimentation s’est révélé positif. Les intermédiaires de location ont mis en avant la nécessité de faciliter la vérification de la légalité des demandes des communes et l’automatisation des flux de données. Quant aux communes, elles ont souligné qu’il leur était essentiel de disposer de données fiables pour les exploiter et prendre des décisions éclairées.

II.   LE dispositif proposÉ

Le présent article modifie le code du tourisme pour instaurer un dispositif de centralisation des données relatives à la location de meublés de tourisme. Un organisme unique sera chargé de collecter ces données auprès des plateformes et de les communiquer aux communes qui en font la demande.

L’article 17 modifie ainsi le II de l’article L. 324-2-1 du code du tourisme qui prévoit la possibilité, pour les communes ayant mis en œuvre la procédure d’enregistrement, de solliciter les plateformes de location de meublés de tourisme pour avoir connaissance du nombre de jours de location des meublés loués par leur intermédiaire.

Le 1° de l’article 17 modifie le premier alinéa du II de l’article L. 324-2-1 dudit code. À la possibilité pour les communes de solliciter directement les plateformes, il substitue la faculté pour elles de demander la transmission des données à un organisme unique, chargé de collecter les données de manière électronique auprès des intermédiaires de location participant à la location des meublés de tourisme. Ces données sont de nature à permettre aux communes concernées de contrôler le respect des obligations pesant sur les loueurs.

Par cohérence, le 1° supprime l’obligation faite aux intermédiaires de location de meublés de tourisme de transmettre les informations dans un délai d’un mois aux communes qui en font la demande.

Le 2° de l’article 17 modifie le troisième alinéa du II de l’article L. 324-2-1 du code du tourisme pour modifier les modalités qui doivent être précisées par décret en Conseil d’État. L’organisme unique chargé de collecter les informations et de les transmettre aux communes sera désigné par décret. Ce décret devra également préciser :

– la nature des données collectées ;

– la durée de conservation des données ;

– les délais de réponse auxquels sera soumis l’organisme, la fréquence et les modalités techniques de transmission des données.

L’étude d’impact annexée au présent projet de loi formule l’hypothèse que 350 communes pourraient bénéficier de ce dispositif de centralisation de données.

Le VII de l’article 36 du présent projet de loi prévoit que l’entrée en vigueur de l’article 17 sera fixée par décret, et en tout état de cause au plus tard douze mois à compter de la publication de la loi. Cette entrée en vigueur différée doit permettre de finaliser les développements informatiques nécessaires au fonctionnement de la plateforme.

III.   Les modifications apportÉes par le SÉnat

Le Sénat a adopté un amendement, déposé par le rapporteur M. Chaize en commission. L’amendement COM-126 modifie le 1° de l’article 17 : elle substitue à la possibilité, pour les communes, de demander la transmission des données à l’organisme, un accès direct de celles-ci à ces données. L’objectif du rapporteur est de garantir un accès effectif des communes aux données, en leur évitant d’avoir à formuler fréquemment des demandes.

IV.   La position de la commission

La commission spéciale a adopté trois amendements (CS318 ([132]), CS355 ([133])  et CS875 ([134])), avec un avis favorable de la rapporteure, visant à préciser que l’organisme chargé de collecter les données des plateformes sera un organisme public.

Sur proposition de la rapporteure, la commission spéciale a adopté plusieurs amendements pour apporter des précisions sur les données transmises par les plateformes :

– l’amendement CS891 élargit le spectre des données qui pourront être transmises aux données utiles à la conduite d’une politique publique de tourisme et de logement, qui seront définies par décret ;

– l’amendement CS892 précise que les données doivent être transmises sous un format standardisé ;

– l’amendement CS893 prévoit que les données gérées par l’organisme unique seront disponibles en source ouverte pour une durée de deux ans une fois qu’elles auront été agrégées.

La commission spéciale a également adopté l’amendement CS928 de la rapporteure, qui complète le dispositif de centralisation des données par un mécanisme d’alerte lorsqu’un meublé a été loué plus de 120 jours. L’objectif est de repérer les meublés qui sont des résidences principales et qui ne respectent pas le plafond de 120 jours de location par an.

Enfin, la rapporteure a fait adopter l’amendement CS896, qui crée un comité pour suivre la mise en œuvre du dispositif. Ce comité devra comporter des représentants de l’administration de l’État et des représentants des communes ayant demandé l’accès aux données.

L’éventualité de permettre à l’ensemble des communes d’avoir accès aux données sans distinction a été écartée par la commission spéciale, considérant que le dispositif n’était pas suffisamment mature pour prévoir un élargissement de cette ampleur.

titre VI
Renforcer la gouvernance de la régulation du numérique

Article 18
Coopération du coordinateur pour les services numériques avec le Pôle d’expertise de la régulation numérique

Adopté par la commission avec modifications

Le présent article formalise la collaboration entre le Pôle d’expertise de la régulation numérique (PEReN) et l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) au titre des missions qu’elle exerce en tant que coordinateur pour les services numériques pour la France : l’Arcom pourra ainsi s’appuyer sur lui pour mener ses missions, et le PEReN pourra également proposer son expertise lorsqu’il l’estime pertinent.

La commission spéciale a apporté une précision sur l’indépendance du PEReN lorsqu’il conduit des travaux avec le coordinateur pour les services numériques.

  1.   LE DROIT EN VIGUEUR

A.   La collaboration entre le PEReN et l’ARCOM

Les compétences du Pôle d’expertise de la régulation numérique (PEReN) sont détaillées dans le commentaire de l’article 16.

L’article 4 du décret n° 2020-1102 du 31 août 2020 portant création du PEReN prévoit que celui-ci peut conclure des conventions avec les services de l’État intervenant dans la régulation des plateformes numériques, pour fixer les conditions de leur collaboration.

Le I de l’article 36 de la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique a complété les pouvoirs du PEReN : celui-ci peut maintenant être sollicité par les autorités administratives et les autorités publiques indépendantes qui interviennent dans la régulation des opérateurs de plateformes en ligne dans le cadre de conventions. La liste des autorités qui peuvent s’appuyer sur l’expertise du PEReN, fixée par décret ([135]), est la suivante :

– Autorité de la concurrence (ADLC) ;

– Autorité des marchés financiers (AMF) ;

– Autorité nationale des jeux (ANJ) ;

– Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) ;

– Autorité de régulation de la communication audiovisuelle et numérique (Arcom) ;

– Autorité de régulation des transports (ART) ;

– Commission nationale de l’informatique et des libertés (Cnil) ;

– Défenseur des droits (DDD).

L’Arcom est ainsi l’une des huit autorités qui peut aujourd’hui solliciter le PEReN. Leurs relations sont formalisées dans une convention cadre. L’Arcom propose des projets à inscrire sur la feuille de route du PEReN, qui sont ensuite arbitrés par les ministres de tutelle du PEReN.

Le directeur adjoint du PEReN, M. Lucas Verney, a ainsi évoqué lors d’une audition au Sénat ([136]) la conduite de projets en partenariat avec l’Arcom concernant la modération d’offres illégales et la désinformation.

B.   Les exigences du rÈglement europÉen sur les services numÉriques (RSn)

Le deuxième paragraphe de l’article 49 du règlement (UE) 2022/2065 du Parlement européen et du Conseil relatif à un marché unique des services numériques (RSN) prévoit que les États membres désignent un coordinateur pour les services numériques. Ce dernier a pour mission d’assurer la coordination au niveau national sur ces questions et de contribuer à l’exécution efficace du règlement dans l’Union.

Il peut également être sollicité par la Commission pour apporter son expertise technique : le paragraphe 2 de l’article 64 du RSN prévoit ainsi que la Commission, en coopération avec les coordinateurs pour les services numériques, « coordonne l’évaluation des questions systémiques et émergentes relatives aux très grandes plateformes en ligne ou aux très grands moteurs de recherche en ligne qui se posent dans l’ensemble de l’Union en ce qui concerne les matières relevant du présent règlement ». Les coordinateurs pour les services numériques des différents États membres pourront être sollicités pour soutenir l’évaluation de ces questions (paragraphe 3 du même article).

L’article 25 du présent projet de loi modifie la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) pour désigner l’Arcom comme coordinateur pour les services numériques et préciser le périmètre de ses nouvelles missions (voir infra, commentaire de l’article 25).

II.   lE DISPOSITIF PROPOSÉ

Le présent article insère un nouvel article 7-1 au sein de la LCEN. Ce nouvel article organise les relations entre le PEReN et le coordinateur pour les services numériques. L’objectif de cet article est de garantir que l’Arcom, en tant que coordinateur pour les services numériques, ait accès à une expertise pour mener à bien ses nouvelles missions. Pour sécuriser ce partenariat, il a été jugé nécessaire d’en formaliser le cadre dans la loi.

Le premier alinéa de l’article 7-1 de la LCEN prévoit ainsi qu’une convention conclue entre le PEReN et l’Arcom permettra à cette dernière, dans l’exercice de ses missions de coordinateur pour les services numériques, de recourir à l’assistance technique du PEReN, notamment pour des questions liées à cinq sujets identifiés :

– les analyses de données ;

– les codes sources ;

– les programmes informatiques ;

– les traitements algorithmiques ;

– l’audit des algorithmes.

La convention conclue entre le PEReN et l’Arcom au titre des missions de coordinateur pour les services numériques de cette dernière devra comporter les modalités de coopération et les dispositifs mis en place pour garantir la confidentialité des informations échangées (dernier alinéa de l’article 7-1).

Le deuxième alinéa de l’article prévoit explicitement que le PEReN peut proposer son expertise technique à l’Arcom lorsque cela s’avère pertinent dans la conduite de sa mission de coordinateur pour les services numériques.

L’Arcom, en sa qualité de coordinateur pour les services numériques, veillera à associer le PEReN aux missions de coopération mentionnées à l’article 64 du règlement RSN (troisième alinéa).

Le quatrième alinéa de l’article 7-1 précise que lorsqu’il est sollicité au titre de cet article, le PEReN conduit ses travaux en toute indépendance. Il lui revient d’assurer la confidentialité des données recueillies dans l’exercice de ses missions et de limiter leur utilisation aux seules fins nécessaires à ses missions.

III.   Les modifications apportÉes par le SÉnat

Le Sénat a adopté cet article sans modification.

IV.   La position de la commission spÉciale

Sur proposition de la rapporteure, la commission spéciale a adopté l’amendement CS894 qui précise que le PEReN, lorsqu’il propose à l’Arcom de l’assister dans ses missions de coordinateur pour les services numériques, conduit également ses travaux en toute indépendance.

titre VII
CONTRÔLE DES OPÉRATIONS DE TRAITEMENT DE DONNÉES À CARACTÈRE PERSONNEL EFFECTUÉES PAR LES JURIDICTIONS DANS L’EXERCICE DE LEUR FONCTION JURIDICTIONNELLE

Article 19
Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par le tribunal des conflits et les juridictions de l’ordre administratif

Adopté par la commission avec modifications

Le présent article institue une autorité de contrôle au sein du Conseil d’État chargée d’examiner les opérations de traitement des données à caractère personnel effectuées dans l’exercice de leur fonction juridictionnelle par le Tribunal des conflits et l’ensemble des juridictions administratives. Sont en revanche exclues les institutions telles que le Conseil supérieur de la magistrature dans l’exercice de ses fonctions disciplinaires, ainsi que la Cour des comptes, les autres juridictions régies par le code des juridictions financières et leur ministère public.

Combiné avec les articles 20 et 21, il met le droit français en conformité avec le droit européen tel qu’interprété par la Cour de justice de l’Union européenne dans son arrêt X et Z contre Autoriteit Persoonsgegevens du 24 mars 2022 (affaire C-245/20).

Le Sénat a adopté le présent article après y avoir apporté plusieurs modifications. Il a procédé à une clarification rédactionnelle pour préciser que l’autorité de contrôle disposera de pouvoirs équivalents à ceux dévolus au président et à la formation restreinte de la Commission nationale de l’informatique et des libertés (Cnil). Il a également prévu la remise d’un rapport public annuel par l’autorité de contrôle pouvant comprendre des observations et des recommandations.

Le présent article a été adopté par la commission modifié par des amendements de portée rédactionnelle ou de précision.

I.   le droit en vigueur

A.   le droit européen

L’article 16 du traité sur le fonctionnement de l’Union européenne (TFUE) stipule que « toute personne a droit à la protection des données à caractère personnel la concernant ». Il prévoit que le Parlement européen et le Conseil fixent les règles pour garantir la protection des personnes physiques en matière de traitement des données à caractère personnel. Il mentionne que le respect de ces règles doit être soumis au contrôle d’autorités indépendantes.

Le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 ‒ dit « RGDP » ‒ impose ainsi à chaque État membre de désigner une ou plusieurs autorités de contrôle.

Toutefois, pour préserver l’indépendance des juridictions, le RGPD prévoit que l’autorité nationale de contrôle ne peut pas exercer ses fonctions pour examiner « les opérations de traitement effectuées par les juridictions dans l’exercice de leur fonction juridictionnelle » (paragraphe 3 de l’article 55 du RGPD).

Pour autant, dans son arrêt X et Z contre Autoriteit Persoonsgegevens du 24 mars 2022 (affaire C-245/20), la Cour de justice de l’Union européenne (CJUE) a estimé que le RGDP n’a pas entendu soustraire à tout contrôle les opérations de traitement effectuées par les juridictions dans l’exercice de leur fonction juridictionnelle. Selon l’interprétation de la CJUE, le RGPD a seulement exclu que le contrôle de ces opérations puisse être confié à l’autorité de contrôle de droit commun.

Il en résulte donc l’obligation pour les États membres de prévoir des mécanismes de contrôle des opérations de traitement effectuées par les juridictions dans l’exercice de leur fonction juridictionnelle.

B.   le droit interne

● En France, la Commission nationale de l’informatique et des libertés (Cnil) a été désignée comme autorité nationale de contrôle par la loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles.

La Cnil est chargée de superviser la conformité des traitements de données à caractère personnel effectués par les organismes publics et privés. Elle assure également le respect des droits des personnes concernées, notamment en enquêtant sur les violations de données et en imposant des sanctions en cas de non-respect des dispositions du RGPD.

La Cnil, composée de dix-huit membres, comprend une formation restreinte composée d’un président et de cinq autres membres élus par la Commission en son sein.

L’article 16 de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés – ci-après loi « informatique et libertés » – attribue un pouvoir de sanction à la formation restreinte de la Cnil à l’encontre des responsables de traitements de données, ou de leurs sous-traitants, en cas de manquement à leurs obligations.

Le V de l’article 19 de la loi « informatique et libertés » dispose que « la Commission nationale de l’informatique et des libertés n’est pas compétente pour contrôler les opérations de traitement effectuées, dans l’exercice de leur fonction juridictionnelle, par les juridictions ».

La Cnil reste en revanche compétente pour le contrôle des traitements de données qui ne relèvent pas des activités juridictionnelles (par exemple pour le fichier judiciaire automatisé des auteurs d’infractions sexuelles et violentes ‒ Fijais ‒, la plateforme nationale des interceptions judiciaires ‒ Pnij ‒ ou encore le fichier de suivi des bracelets électroniques).

● Il n’existe donc pas d’autorité instituée par la loi pour contrôler les opérations de traitement des données à caractère personnel effectuées par les juridictions dans l’exercice de leur fonction juridictionnelle.

Toutefois, le Conseil d’État a désigné un délégué à la protection des données, chargé de veiller à l’application du RGPD par les juridictions administratives. Il traite d’éventuelles réclamations. Il n’effectue aucun contrôle sur les traitements des juridictions administratives spécialisées autres que la Cour nationale du droit d’asile (CNDA).

À ce jour, le titre Ier du livre Ier du code de justice administrative consacré aux attributions du Conseil d’État ne comporte aucune disposition sur le rôle et les prérogatives de ce délégué à la protection des données.

II.   le Dispositif proposé

Le présent article complète le titre Ier du livre Ier du code de justice administrative par un chapitre V intitulé : « Contrôle des opérations de traitement de données à caractère personnel effectué par les juridictions administratives dans l’exercice de leur fonction juridictionnelle ».

Ce nouveau chapitre comprend un seul article, numéroté L. 115-1.

Il institue une autorité constituée d’un membre du Conseil d’État, élu par l’assemblée générale, pour une durée de trois années, renouvelable une fois, chargée du contrôle des opérations de traitement des données à caractère personnel effectuées, dans l’exercice de leur fonction juridictionnelle, par les juridictions administratives et le Tribunal des conflits.

Combiné avec les articles 20 et 21 du présent projet de loi, il met le droit français en conformité avec le droit européen tel qu’interprété par la CJUE dans son arrêt C-245/20 du 24 mars 2022.

Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions

Dispositif proposé

Article 19

Article 20

Article 21

Champ d’application

Tribunal des conflits.

 

Juridictions administratives.

Juridictions de l’ordre judiciaire et leur ministère public.

 

Formation disciplinaire du Conseil supérieur de la magistrature.

Juridictions financières et leur ministère public.

Composition

Membre du Conseil d’État élu par l’assemblée générale.

Conseiller à la Cour de cassation désigné par le premier président.

Magistrat de la Cour des comptes élu par la chambre du conseil.

Source : commission spéciale.

Dans son avis, le Conseil d’État avait suggéré, comme l’a retenu le projet du Gouvernement, que l’autorité soit constituée par un membre du Conseil d’État élu par l’assemblée générale (point n° 48).

Par exception, la compétence de l’autorité instituée ne s’étend pas : 

– à la Cour des comptes et aux autres juridictions régies par le code des juridictions financières, ainsi qu’à leur ministère public ;

– et à la formation disciplinaire du Conseil supérieur de la magistrature (CSM).

Dans son avis, le Conseil d’État a également approuvé le choix du Gouvernement d’avoir exclu du dispositif la formation disciplinaire du CSM et d’avoir en revanche intégré dans son champ les traitements du Tribunal des conflits, qui, dans la pratique, sont effectués par les services du Conseil d’État (point n° 47).

À l’exception du prononcé de sanctions pécuniaires, cette autorité dispose des mêmes pouvoirs que ceux dont dispose actuellement la Cnil.

Les voies de recours ouvertes à l’encontre des décisions de cette autorité relèvent du domaine réglementaire.

Enfin, conformément à une suggestion du Conseil d’État formulée dans son avis (point n° 49), le présent article comporte un alinéa qui énonce que l’autorité « dispose des ressources humaines, matérielles et techniques nécessaires à l’exercice de ses fonctions ».

III.   les Modifications apportées par le sénat

Le Sénat a adopté le présent article modifié par trois amendements adoptés lors de l’examen du texte en commission spéciale.

Deux de ces amendements ont été présentés par M. Loïc Hervé, rapporteur :

– l’un a une portée rédactionnelle (COM-127) ;

– l’autre précise que l’autorité de contrôle disposera des pouvoirs dévolus aussi bien au président de la Cnil qu’à sa formation restreinte (COM-128).

Le troisième amendement, présenté par M. Jérôme Durain (Socialiste, Écologiste et Républicain), a prévu la possibilité, pour l’autorité de contrôle, d’adresser des recommandations, et l’obligation pour celle-ci de présenter un rapport public annuel (COM-53).

IV.   Les modifications apportÉes par la commission

Le présent article a été adopté par la commission modifié par un amendement rédactionnel (CS593) et un amendement prévoyant la transmission du rapport annuel de l’autorité au Parlement, au lieu d’une présentation à celui-ci (CS595), tous deux présentés par les rapporteurs.

Article 20
Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions de l’ordre judiciaire et le Conseil supérieur de la magistrature

Adopté par la commission avec modifications

Le présent article institue une autorité de contrôle au sein de la Cour de cassation chargée d’examiner les opérations de traitement des données à caractère personnel effectuées dans l’exercice de leur fonction juridictionnelle par l’ensemble des juridictions de l’ordre judiciaire et par le Conseil supérieur de la magistrature dans l’exercice de ses fonctions disciplinaires.

Combiné avec les articles 19 et 21, il met le droit français en conformité avec le droit européen tel qu’interprété par la Cour de justice de l’Union européenne dans son arrêt X et Z contre Autoriteit Persoonsgegevens du 24 mars 2022 (affaire C-245/20).

Le Sénat a adopté le présent article après y avoir apporté plusieurs modifications. Il a procédé à une clarification rédactionnelle pour préciser que l’autorité de contrôle disposera de pouvoirs équivalents à ceux dévolus au président et à la formation restreinte de la Commission nationale de l’informatique et des libertés (Cnil). Il a également prévu la remise d’un rapport public annuel par l’autorité de contrôle pouvant comprendre des observations et des recommandations et devant être transmis au procureur général près la Cour de cassation. Enfin, il a prévu l’élection du conseiller de la Cour de cassation amené à exercer les fonctions d’autorité de contrôle, en lieu et place de sa désignation par le premier président de la Cour.

La commission a adopté le présent article modifié par des amendements rédactionnels ou de précision ainsi que par un amendement ayant pour but d’ouvrir la composition de l’autorité aux magistrats hors hiérarchie du parquet général.

I.   le droit en vigueur

Le droit en vigueur est exposé plus en détail dans le commentaire relatif à l’article 19.

Comme cela a été mentionné dans ce commentaire, le V de l’article 19 de la loi « informatique et libertés » dispose que « la Commission nationale de l’informatique et des libertés n’est pas compétente pour contrôler les opérations de traitement effectuées, dans l’exercice de leur fonction juridictionnelle, par les juridictions ».

Il n’existe donc pas à ce jour d’autorité instituée par la loi pour contrôler les opérations de traitement des données à caractère personnel effectuées par les juridictions dans l’exercice de leur fonction juridictionnelle.

Certes, la Cour de cassation a désigné un délégué à la protection des données, chargé de veiller à l’application du RGPD, qui est destinataire de toutes les requêtes des particuliers. Cependant, cette fonction de délégué à la protection des données ne s’applique qu’à la Cour de cassation et non aux autres juridictions judiciaires. Elle n’est pas non plus prévue dans le code de l’organisation judiciaire.

II.   Le Dispositif proposé

● Le I du présent article insère, dans le code de l’organisation judiciaire, un nouveau chapitre intitulé : « Contrôle des opérations de traitement de données à caractère personnel effectué par les juridictions judiciaires dans l’exercice de leur fonction juridictionnelle ».

Ce nouveau chapitre comprend deux articles, numérotés L. 453 et L. 454.

Le II procède à une coordination légistique au sein de la loi « informatique et libertés » afin d’exclure explicitement de la compétence de la Cnil le contrôle des opérations de traitement des données à caractère personnel effectuées par le ministère public dans l’exercice de ses fonctions juridictionnelles.

● Ce faisant, en insérant le nouvel article L. 453 précité, le présent article institue une autorité dont les fonctions sont exercées par un conseiller à la Cour de cassation désigné pour une durée de trois années, renouvelable une fois, chargée du contrôle des opérations de traitement des données à caractère personnel effectuées, dans l’exercice de leur fonction juridictionnelle, par les juridictions de l’ordre judiciaire et leur ministère public, et par le Conseil supérieur de la magistrature (CSM) dans l’exercice de ses fonctions disciplinaires.

Combiné avec les articles 19 et 21, il met le droit français en conformité avec le droit européen tel qu’interprété par la Cour de justice de l’Union européenne dans son arrêt X et Z contre Autoriteit Persoonsgegevens du 24 mars 2022 (affaire C-245/20).

Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions

Dispositif proposé

Article 19

Article 20

Article 21

Champ d’application

Tribunal des conflits.

 

Juridictions administratives.

Juridictions de l’ordre judiciaire et leur ministère public.

 

Formation disciplinaire du Conseil supérieur de la magistrature.

 

Juridictions financières et leur ministère public.

Composition

Membre du Conseil d’État élu par l’assemblée générale.

Conseiller à la Cour de cassation désigné par le premier président.

Magistrat de la Cour des comptes élu par la chambre du conseil.

Source : commission spéciale.

Dans son avis, le Conseil d’État a approuvé le choix du Gouvernement d’avoir placé la formation disciplinaire du CSM sous le contrôle de l’autorité instituée auprès de la Cour de cassation (point n° 47).

À l’exception du prononcé de sanctions pécuniaires, cette autorité dispose des mêmes pouvoirs que ceux dont dispose actuellement la Cnil.

Conformément à une suggestion du Conseil d’État formulée dans son avis (point n° 49), le présent article comporte un alinéa qui énonce que l’autorité « dispose des ressources humaines, matérielles et techniques nécessaires à l’exercice de ses fonctions ».

Enfin, en insérant le nouvel article L. 454 précité, le présent article organise le régime des voies de recours ouvertes à l’encontre des décisions rendues par l’autorité.

Il prévoit que la Cour de cassation connaît :

– des recours formés par toute personne contre une décision de l’autorité de contrôle qui lui fait grief ;

– et des recours formés par toute personne concernée en cas d’abstention de l’autorité de contrôle de traiter une réclamation ou d’informer son auteur, dans un délai de trois mois, de l’état de l’instruction ou de l’issue de cette réclamation.

Dans son avis, le Conseil d’État a estimé que « cette dérogation au principe de contrôle des actes administratifs par le juge administratif [paraissait] ici pleinement justifiée par les objectifs poursuivis par le projet de loi » (point n° 50).

III.   les Modifications apportées par le sénat

Le Sénat a adopté le présent article modifié par quatre amendements adoptés lors de l’examen du texte en commission spéciale, et un amendement adopté en séance.

Deux de ces amendements ont été présentés par M. Loïc Hervé, rapporteur, en commission :

– le premier précise que l’autorité de contrôle dispose des pouvoirs dévolus aussi bien au président de la Cnil qu’à sa formation restreinte (COM-131) ;

– le second a prévu l’élection du conseiller exerçant les fonctions d’autorité de contrôle par l’assemblée des magistrats du siège hors hiérarchie de la Cour de cassation, au lieu de sa désignation par le premier président de celle-ci (COM-130).

Un autre amendement présenté par M. Jérôme Durain (Socialiste, Écologiste et Républicain) a été adopté en commission. Il a prévu la possibilité, pour l’autorité de contrôle, d’adresser des recommandations ainsi que l’obligation de présenter un rapport public annuel (COM-54).

Toujours en commission, a été adopté un amendement de Mme Vanina Paoli-Gagin (Les Indépendants – République et Territoires), présentant une portée rédactionnelle (COM-82 rect. bis).

Enfin, un dernier amendement présenté en séance par le rapporteur, et ayant recueilli un avis favorable du Gouvernement, a prévu la transmission de ce rapport d’activité au procureur général près la Cour de cassation (n° 140 rect.).

IV.   Les modifications apportÉes par la commission

La commission a adopté le présent article modifié par un amendement rédactionnel (CS608), un amendement prévoyant la transmission du rapport annuel de l’autorité au Parlement, au lieu d’une présentation à celui-ci (CS607), ainsi qu’un amendement ayant pour but d’ouvrir la composition de l’autorité aux magistrats hors hiérarchie du parquet général (CS599), tous trois présentés par les rapporteurs.

L’adoption de ce dernier amendement se justifie par le fait que la commission a considéré qu’aucune raison objective, au regard des objectifs poursuivis, n’imposait que seul un magistrat du siège de la Cour de cassation puisse être élu pour exercer les fonctions d’autorité de contrôle.

Article 21
Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions financières

Adopté par la commission avec modifications

Le présent article institue une autorité de contrôle au sein de la Cour des comptes chargée d’examiner les opérations de traitement des données à caractère personnel effectuées dans l’exercice de leur fonction juridictionnelle par les juridictions relevant du code des juridictions financières.

Combiné avec les articles 20 et 21, il met le droit français en conformité avec le droit européen tel qu’interprété par la Cour de justice de l’Union européenne dans son arrêt X et Z contre Autoriteit Persoonsgegevens du 24 mars 2022 (affaire C-245/20).

Le Sénat a adopté le présent article après y avoir apporté plusieurs modifications. Il a procédé à une clarification rédactionnelle pour préciser que l’autorité de contrôle disposera de pouvoirs équivalents à ceux dévolus au président et à la formation restreinte de la Commission nationale de l’informatique et des libertés (Cnil). Il a également prévu la remise d’un rapport public annuel par l’autorité de contrôle pouvant comprendre des observations et des recommandations.

Le présent article a été adopté par la commission modifié par des amendements rédactionnels ou de précision.

I.   le droit en vigueur

Le droit en vigueur est exposé plus en détail dans le commentaire relatif à l’article 19.

Comme cela a été mentionné dans ce commentaire, le V de l’article 19 de la loi « informatique et libertés » dispose que « la Commission nationale de l’informatique et des libertés n’est pas compétente pour contrôler les opérations de traitement effectuées, dans l’exercice de leur fonction juridictionnelle, par les juridictions ».

Il n’existe donc pas à ce jour d’autorité instituée par la loi pour contrôler les opérations de traitement des données à caractère personnel effectuées par les juridictions dans l’exercice de leur fonction juridictionnelle.

Toutefois, la Cour des comptes a désigné un délégué à la protection des données, chargé de veiller à l’application du RGPD par les juridictions financières. Il traite d’éventuelles réclamations. Il anime un réseau de référents RGDP désignés au sein de chaque chambre de la Cour des comptes et de chaque chambre régionale des comptes (CRC).

II.   le Dispositif proposé

Le présent article insère une nouvelle section dans le code des juridictions financières intitulée : « Contrôle des opérations de traitement de données à caractère personnel effectué par les juridictions régies par le présent code dans l’exercice de leur fonction juridictionnelle ».

Cette nouvelle section comprend un seul article, numéroté L. 111-18.

Il institue une autorité dont les fonctions sont exercées par un magistrat de la Cour des comptes, élu par la chambre du conseil, pour une durée de trois années, renouvelable une fois, chargée du contrôle des opérations de traitement des données à caractère personnel effectuées, dans l’exercice de leur fonction juridictionnelle, par les juridictions financières et par leur ministère public.

Combiné avec les articles 20 et 21, il met le droit français en conformité avec le droit européen tel qu’interprété par la Cour de justice de l’Union européenne dans son arrêt X et Z contre Autoriteit Persoonsgegevens du 24 mars 2022 (affaire C-245/20).

Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions

Dispositif proposé

Article 19

Article 20

Article 21

Champ d’application

Tribunal des conflits.

 

Juridictions administratives.

Juridictions de l’ordre judiciaire et leur ministère public.

 

Formation disciplinaire du Conseil supérieur de la magistrature.

 

Juridictions financières et leur ministère public.

Composition

Membre du Conseil d’État élu par l’assemblée générale.

Conseiller à la Cour de cassation désigné par le premier président.

Magistrat de la Cour des comptes élu par la chambre du conseil.

Source : commission spéciale.

À l’exception du prononcé de sanctions pécuniaires, cette autorité dispose des mêmes pouvoirs que ceux dont dispose actuellement la Cnil.

Les voies de recours ouvertes à l’encontre des décisions de cette autorité relèvent du domaine réglementaire.

Enfin, conformément à une suggestion du Conseil d’État formulée dans son avis (point n° 49), le présent article comporte un alinéa qui énonce que l’autorité « dispose des ressources humaines, matérielles et techniques nécessaires à l’exercice de ses fonctions ».

III.   les Modifications apportées par le sénat

Le Sénat a adopté le présent article modifié par deux amendements adoptés lors de l’examen du texte en commission spéciale.

Le premier amendement a été présenté par M. Loïc Hervé, rapporteur. Il a précisé que l’autorité de contrôle dispose des pouvoirs dévolus aussi bien au président de la Cnil qu’à sa formation restreinte (COM-32).

Le second amendement, présenté par M. Jérôme Durain (Socialiste, Écologiste et Républicain), a prévu la possibilité, pour l’autorité de contrôle, d’adresser des recommandations et l’obligation pour celle-ci de présenter un rapport public annuel (COM-55).

IV.   Les modifications apportées par la commission

Outre un amendement rédactionnel des rapporteurs (CS610), la commission a adopté deux amendements identiques présentés par les rapporteurs et par Mme Christine Engrand (RN) prévoyant la transmission du rapport annuel de l’autorité au Parlement, au lieu d’une présentation à celui-ci (CS8 et CS609).

titre viii
adaptations du droit national

Chapitre Ier
Mesures d’adaptation de la loi n° 2004-575 du 21 juin 2004 pour la
confiance dans l’économie numérique

Article 22
Adaptation de la loi pour la confiance dans l’économie numérique (LCEN)

Adopté par la commission avec modifications

L’article 22 adapte la loi pour la confiance dans l’économie numérique (LCEN) au contenu du règlement européen sur les services numériques.

Cet article a été modifié en commission spéciale au Sénat par des amendements de précision juridique et de coordination.

Il a également été modifié en séance publique afin d’insérer en son sein les définitions juridiques relatives aux « boutiques d’applications logicielles » et à la notion « d’application logicielle ».

Les sénateurs ont également inséré au sein de cet article une obligation supplémentaire pour les plateformes en ligne : saisies d’un signalement effectué par un mineur de moins de quinze ans, elles devront mettre hors d’accès sans délai et jusqu’à l’aboutissement de la procédure de traitement du signalement tout contenu litigieux mentionnant ce même mineur .

L’article 6 de la LCEN a enfin été complété, à la même occasion, pour contraindre les professionnels éditeurs de services en ligne à indiquer dans leurs mentions légales non seulement l’identité de l’hébergeur de leur site web, mais également les identités des hébergeurs des données personnelles ou non personnelles confiées par les utilisateurs du service, ou auxquelles ils accèdent à travers le service édité.

L’article 22 a également été modifié lors de son examen par la commission spéciale de l’Assemblée nationale. Deux amendements ont été adoptés, afin de créer un droit de réponse numérique au profit des associations de lutte contre les discriminations sur internet, et de préciser que les produits contrefaits et les médicaments falsifiés doivent faire l’objet d’une information de la part des fournisseurs d’accès à internet à leurs abonnés quant au caractère illégal de leur vente ou de leur acquisition à distance, ainsi que des sanctions encourues par les auteurs se livrant à ces pratiques.

  1.   Le droit en vigueur : une adaptation nécessaire de la loi pour la confiance dans l’économie numérique (LCEN) aprÈs l’adoption définitive du règlement sur les services numériques (RSN)

La loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) transpose la directive européenne du 8 juin 2000 relative au commerce électronique ([137]) et une partie de la directive européenne du 12 juillet 2002 relative à la protection des données personnelles dans les communications électroniques ([138]).

Cette loi constitue le socle de la régulation du numérique au sein de notre droit national. Elle pose en effet les grands principes de régulation de l’économie numérique que sont, notamment :

– le principe de la responsabilité limitée des hébergeurs de services de communication au public en ligne ;

– l’absence de surveillance générale des données ;

– le principe dit « du pays d’origine », les prestataires de services de la société de l’information devant se conformer à la législation du pays dans lequel ils sont établis.

Néanmoins, depuis les années 2000, l’évolution des pratiques et du marché numérique, avec l’apparition des réseaux sociaux, a conduit à l’émergence de nouvelles problématiques dont la prise en compte était insuffisante.

Face à l’émergence de législations nationales spécifiques visant à traiter ces nouveaux enjeux, et donc à un risque accru de fragmentation juridique au sein de l’Union européenne, la Commission européenne a présenté, en décembre 2020, une proposition de règlement relatif à un marché intérieur des services numériques.

Ce règlement européen horizontal est dit « d’harmonisation maximale ». En conséquence, les États membres ne devraient pas adopter ou maintenir des exigences nationales supplémentaires dans les domaines relevant du champ d’application de ce règlement, sauf si cela est expressément prévu.

L’article 22 du projet de loi modifie, en l’espèce, plusieurs dispositions de la LCEN afin de tirer les conséquences de l’application du RSN.

II.   Le dispositif proposÉ

L’article 22 du présent projet de loi procède à des modifications significatives de la LCEN.

Ces évolutions répondent principalement à trois objectifs :

– abroger des dispositions redondantes avec le RSN ou devenues obsolètes ;

– actualiser et compléter la LCEN par des dispositions supplémentaires lorsque cela est nécessaire, pour assurer la bonne application du RSN.

– tirer profit de ces évolutions pour procéder à certaines modifications de cohérence afin de renforcer la clarté et la lisibilité des dispositions de la loi précitée.

A.   La création de deux nouveaux articles 1-1 et 1-2 au sein de la LCEN

En premier lieu, l’article 22 crée deux nouveaux articles au sein du chapitre Ier intitulé « La communication au public en ligne » du titre Ier de la loi précitée. Ces deux articles sont situés après l’article 1er.

Le nouvel article 1-1 (alinéas 3 à 16) reprend les dispositions des III, IV et V de l’article 6 de la LCEN dans leur version actuelle. Ces dispositions portent respectivement sur la mise à disposition du public de certaines informations dans un standard ouvert, sur l’exercice du droit de réponse auprès du directeur de la publication d’un éditeur ainsi que sur l’application des dispositions de la loi du 29 juillet 1881 sur la liberté de la presse.

Le nouvel article 1-2 (alinéas 17 à 21) reprend les dispositions du VI de l’article 6 de la LCEN dans sa version actuelle. Pour mémoire, ces dispositions fixent le régime de sanctions applicable en cas de méconnaissance des obligations prévues au nouvel article 1-1 par un éditeur de service de communication au public en ligne.

B.   La création d’un nouvel article 5-1 au sein de la LCEN

En deuxième lieu, l’article 22 du projet de loi procède aux modifications complémentaires suivantes :

– la modification de l’intitulé du chapitre II du titre Ier, la formule « Les fournisseurs de services intermédiaires » venant se substituer à l’intitulé précédent – « Les prestataires techniques » –, moins précis et dont les termes ne sont pas conformes à ceux employés au sein du RSN (alinéa 19) ;

– la création d’une section I au sein de ce même chapitre II, intitulée « Définitions et obligations relatives aux fournisseurs de services intermédiaires » (alinéa 20) ;

– la création d’un nouvel article 5-1 dont l’objet est de reprendre les définitions des services de la société de l’information et des « services intermédiaires », retenues respectivement par l’article 1er de la directive (UE) 2015/1535 du Parlement européen et du Conseil du 9 septembre 2015 prévoyant une procédure d’information dans le domaine des services de la société de l’information, et l’article 3 du règlement 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques modifiant la directive 2000/31/CE (alinéas 21 à 23).

C.   La réécriture de l’article 6 de la LCEN

Enfin, l’article 22 du projet de loi procède à une refonte importante de l’article 6 de la LCEN (alinéas 24 à 59).

Dans sa nouvelle rédaction, plusieurs alinéas de l’article 6 sont abrogés, car redondants ou excédant le champ du RSN.

Il s’agit notamment des dispositions relatives :

– aux conditions dans lesquelles la connaissance des faits litigieux est présumée acquise, dans le cadre du régime de responsabilité des hébergeurs (portée supérieure aux dispositions du RSN) ;

– à l’interdiction des obligations générales de surveillance (redondance) ;

– aux obligations de transparence et de mise en place d’un système de signalement (redondance) ;

– au signalement des activités illicites de jeux d’agent (abrogation pour obsolescence).

L’article 6, dans sa nouvelle rédaction, aligne également avec le droit européen les définitions d’un ensemble de termes juridiques relatifs aux services numériques.

Cet article regroupe en outre, désormais :

– les dispositions de l’actuel article 6-5 de la LCEN, qui prévoit une obligation pour les plateformes en ligne d’informer les utilisateurs mineurs des risques auxquels ils s’exposent en cas de diffusion de contenus haineux (placé désormais au VII du nouvel article 6) ;

– le contenu de l’actuel article 7 de la LCEN, déplacé au III de l’article 6.

Au total, la nouvelle structure générale de l’article 6 est donc la suivante :

– les définitions ;

– les obligations des services d’accès à internet et les sanctions associées aux manquements ;

– les obligations des hébergeurs et les sanctions associées aux manquements ;

– les obligations applicables à la fois aux services d’accès à internet et aux hébergeurs, ainsi que les sanctions associées à celles-ci ;

– les obligations applicables aux services de plateforme en ligne ;

– les obligations applicables aux réseaux sociaux ;

– le régime de sanctions pour signalement abusif.

III.   Les modifications apportées par le Sénat

A.   En commission

Deux amendements ont été adoptés lors de l’examen de cet article par la commission spéciale du Sénat :

– un amendement COM-133, rédactionnel, présenté par le rapporteur M. Patrick Chaize ;

– un amendement COM-134 du rapporteur M. Loïc Hervé, qui procède aux coordinations nécessaires en lien avec les modifications adoptées à l’article 5 du projet de loi.

B.   En séance publique

Trois amendements ont été adoptés à cet article lors de son examen en séance publique :

– un amendement n° 112 rect., présenté par Mme Morin-Desailly, insérant les définitions des « boutiques d’applications logicielles » et de la notion « d’application logicielle » telles que retenues au sein du règlement sur les marchés numériques ;

– un amendement n° 72 rect. quater présenté par Mme Bourrat, obligeant les plateformes en ligne, lorsqu’elles sont saisies par un mineur de moins de quinze ans, à retirer ou à suspendre tout contenu litigieux mentionnant ce même mineur immédiatement et pendant toute la durée de la procédure de traitement du signalement, que celle-ci soit opérée par les modérateurs du réseau social ou par le juge ;

– un amendement n° 1 rect., présenté par M. Levi, complétant l’obligation de transparence prévue à l’article 6 de la LCEN en contraignant les professionnels éditeurs de services en ligne à indiquer dans leurs mentions légales non seulement l’identité de l’hébergeur de leur site web, mais également les identités des hébergeurs des données personnelles ou non personnelles confiées par les utilisateurs du service, ou auxquelles ils accèdent à travers le service édité.

IV.   les modifications apportées par la commission

L’article 22 a été modifié à la suite de l’adoption, en commission spéciale, des deux amendements suivants :

– un amendement CS33, de M. Raphaël Gérard (RE), qui a ajouté au sein de l’article un droit de réponse numérique au profit des associations de lutte contre les discriminations sur internet ;

– un amendement CS746, de M. Christophe Blanchet, qui a précisé que les fournisseurs d’accès à internet doivent informer leurs abonnés de l’interdiction de procéder en France métropolitaine et dans les départements d’outre‑mer à des opérations de vente à distance, d’acquisition, d’introduction en provenance d’un autre État membre de l’Union européenne ou d’importation en provenance de pays tiers de produits contrefaits et de médicaments falsifiés , ainsi que des sanctions légalement encourues pour de tels actes.

Article 23
Dispositions relatives au retrait des contenus terroristes et pédopornographiques

Adopté par la commission avec modifications

Le présent article aménage le dispositif administratif de retrait des contenus terroristes et pédopornographiques en ligne.

Outre diverses coordinations et clarifications rédactionnelles, le présent article :

– augmente le montant de l’amende encourue en cas de manquement d’un hébergeur à l’obligation d’informer immédiatement les autorités lorsqu’il a connaissance d’un contenu à caractère terroriste présentant une menace imminente pour la vie ;

– et supprime les conclusions du rapporteur public lors de l’audience d’examen accéléré de certains recours formés contre les injonctions de retrait des contenus terroristes.

Le Sénat a adopté le présent article modifié par un amendement qui a rétabli les conclusions du rapporteur public.

La commission a adopté le présent article modifié par un amendement rédactionnel.

I.   le droit en vigueur

A.   Le blocage administratif des contenus terroristes et pÉdopornographiques

● Les articles 6-1 à 6-1-5 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN ») organisent un dispositif de blocage des contenus terroristes ou pédopornographiques en ligne à l’initiative d’une autorité administrative.

Le Conseil constitutionnel a validé ce dispositif après avoir relevé les diverses garanties dont il était assorti, et rappelé que les atteintes portées à l’exercice de la liberté d’expression et de communication étaient nécessaires, adaptées et proportionnées à l’objectif poursuivi (décision n° 2022-841 DC du 13 août 2022, considérant n° 8).

● L’autorité administrative, désignée par décret, compétente pour ordonner ces blocages de contenus en ligne, est l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), rattaché à la direction générale de la police nationale (DGPN) et gestionnaire des plateformes Pharos ([139]) et Thesee ([140]) qui permettent le signalement de contenus et le dépôt de plainte.

L’OCLCTIC peut ainsi demander aux éditeurs de contenus ou aux hébergeurs de retirer, sous vingt-quatre heures, les contenus terroristes ou pédopornographiques qu’elle détecte. Le délai est réduit à une heure pour les contenus terroristes relevant du règlement (UE) 2021/784 du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne.

En l’absence de retrait de ces contenus, l’OCLCTIC peut faire bloquer les sites concernés en notifiant sa demande aux fournisseurs d’accès à internet qui doivent mettre en œuvre le blocage sans délai.

Un blocage immédiat, sans attendre l’expiration du délai de vingt-quatre heures ou d’une heure est aussi possible, lorsque l’éditeur du site n’a pas mis à la disposition du public les informations permettant de l’identifier.

L’OCLCTIC peut également notifier les adresses électroniques des sites litigieux aux moteurs de recherche ou aux annuaires, lesquels doivent prendre toute mesure utile destinée à faire cesser leur référencement.

● Trois grandes garanties sont prévues pour encadrer ce dispositif administratif : le contrôle par une personnalité qualifiée, un examen accéléré des recours, et la remise d’un rapport public annuel.

En premier lieu, les demandes de retrait sont soumises à un contrôle a posteriori d’une personnalité qualifiée, désignée en son sein par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pour la durée de son mandat. La personnalité qualifiée s’assure de la régularité des demandes de retrait. Si elle constate une irrégularité, elle peut à tout moment recommander à l’autorité administrative d’y mettre fin. Si l’autorité administrative ne suit pas cette recommandation, la personnalité qualifiée peut saisir la juridiction administrative compétente, en référé ou sur requête.

Cette personnalité qualifiée est aussi l’autorité administrative désignée pour statuer sur les demandes de retrait transfrontières. Elle statue par décision motivée.

En deuxième lieu, pour les contenus suspectés de terrorisme, des délais accélérés d’examen des recours sont obligatoires dans certaines circonstances, prévues aux I et II de l’article 6-1-5 de la LCEN, sans préjudice des recours de droit commun.

Pour bénéficier de l’examen accéléré, le recours doit avoir été introduit par un fournisseur de service d’hébergement, un fournisseur de contenus ou la personnalité qualifiée de l’Arcom auprès du président du tribunal administratif, dans un délai de quarante-huit heures à compter de la notification de l’injonction de retrait pour en demander l’annulation.

Dans ce cas, il est prévu que la juridiction doit statuer dans un délai de soixante-douze heures à compter de la saisine. En cas d’appel, la juridiction d’appel est tenue de statuer dans le délai d’un mois.

Ces délais d’examen accéléré des recours sont également prévus en matière d’injonction de retrait transfrontière.

Enfin, en troisième lieu, la personnalité qualifiée rend public chaque année un rapport d’activité sur les conditions d’exercice et les résultats de son activité, qui précise notamment le nombre de demandes de retrait, le nombre de contenus qui ont été retirés, les motifs de retrait et le nombre de recommandations faites à l’autorité administrative.

Ce rapport est remis au Gouvernement et au Parlement.

B.   L’obligation pour les hébergeurs d’informer immédiatement les autorités s’agissant des contenus terroristes présentant une menace imminente

Le 5 de l’article 14 du règlement (UE) 2021/784 du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne dispose que « lorsque les fournisseurs de services d’hébergement prennent connaissance d’un contenu à caractère terroriste présentant une menace imminente pour la vie, ils en informent immédiatement les autorités compétentes pour les enquêtes et les poursuites en matière d’infractions pénales dans les États membres concernés ».

L’article 6-1-3 de la LCEN punit la méconnaissance de cette obligation d’informer immédiatement les autorités d’un an d’emprisonnement et de 250 000 euros d’amende. Lorsque l’infraction est commise de manière habituelle par une personne morale, le montant de l’amende peut être porté à 4 % de son chiffre d’affaires mondial pour l’exercice précédent.

II.   le Dispositif proposÉ

● Le III du présent article augmente le montant de l’amende encourue en cas de manquement d’un hébergeur à l’obligation d’informer immédiatement les autorités lorsqu’il a connaissance d’un contenu à caractère terroriste présentant une menace imminente pour la vie.

Il prévoit que le montant de l’amende peut être porté à 6 % de son chiffre d’affaires mondial pour l’exercice précédent, au lieu de 4 % en l’état du droit, lorsque l’infraction est commise de manière habituelle par une personne morale.

Pour ce faire, il modifie l’article 6-1-3 de la LCEN.

● Le IV supprime les conclusions du rapporteur public lors de l’audience d’examen accéléré des recours qui doit se tenir dans les soixante-douze heures à la suite du recours formé dans les quarante-huit heures de la notification d’une injonction de retrait de contenus suspectés de terrorisme.

L’étude d’impact justifie cette suppression en raison « des délais extrêmement resserrés » d’examen des recours.

Il précise que cette audience est publique.

● Le I, II et V procèdent à des coordinations ou des clarifications rédactionnelles au sein de la LCEN.

Le I insère, après l’article 6 de la LCEN, une section intitulée « Dispositions relatives à la lutte contre les contenus terroristes et pédopornographiques ».

Cette section comprend, d’une part, les actuels articles 6-1 à 6-1-5 de la LCEN, et, d’autre part, les nouveaux articles 6-2 et 6-2-1 tels qu’ils résultent de l’article 3 du présent projet de loi.

Les II et V procèdent à plusieurs coordinations au sein de l’article 6-1 de la LCEN en lien avec l’article 22 du présent projet de loi.

III.   les Modifications apportÉes par le sénat

Le Sénat a adopté le présent article modifié par un amendement présenté par le rapporteur M. Loïc Hervé lors de l’examen du texte en commission.

Outre diverses clarifications rédactionnelles, cet amendement a maintenu les conclusions du rapporteur public lors de l’audience qui se déroule devant le président du tribunal administratif pour l’examen accéléré des recours formés en matière d’injonction de retrait des contenus terroristes (COM-135).

Le rapporteur a en effet fait valoir que « l’article R. 732-1-1 du code de justice administrative prévoit d’ores et déjà la possibilité pour le magistrat statuant seul de dispenser le rapporteur public, sur sa proposition, de prononcer des conclusions à l’audience pour ce contentieux ». Il a dès lors considéré qu’il convenait « de conserver le caractère facultatif de la dispense de conclusions du rapporteur public et de laisser ce choix entre les mains des magistrats ».

IV.   Les modifications apportées par la commission

La commission a adopté le présent article modifié par un amendement rédactionnel présenté par les rapporteurs (CS930).

Article 24
Dispositions relatives au retrait judiciaire des contenus illicites et aux obligations des opérateurs de plateforme en ligne

Adopté par la commission avec modifications

Le présent article insère et réécrit, dans une nouvelle section de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN »), sans changer l’état du droit, les dispositions relatives au blocage judiciaire des contenus illicites en ligne.

Il supprime également les obligations imposées par la LCEN à certains opérateurs de plateforme en ligne en matière de lutte contre la diffusion de contenus illicites.

Le Sénat a adopté cet article sans modification.

La commission a adopté le présent article modifié, outre par des amendements rédactionnels, par un amendement ayant conféré le statut de signaleur de confiance aux acteurs effectuant des notifications de contenus sportifs diffusés illicitement.

I.   le Droit en vigueur

A.   Le blocage judiciaire des contenus illicites en ligne

Le 8 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN ») prévoit un dispositif général permettant au président du tribunal judiciaire, statuant selon la procédure accélérée au fond, de prescrire « à toute personne susceptible d’y contribuer toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne ».

La procédure accélérée au fond – qui a remplacé depuis le 1er janvier 2020 la procédure « en la forme des référés » – n’exige ni qu’une urgence soit démontrée ni que le trouble invoqué soit manifeste ou évident.

Le président du tribunal judiciaire peut enjoindre aux fournisseurs d’accès à internet de mettre en œuvre toutes mesures propres à empêcher l’accès au contenu illicite, à partir du territoire français.

Il doit apprécier, au regard de la gravité du dommage causé par le contenu jugé illicite, si la mesure de filtrage est proportionnée afin de préserver un juste équilibre avec la liberté d’expression. Ainsi, la jurisprudence tend plutôt à rejeter les demandes de blocage justifiées par une diffamation ([141]) et, à l’inverse, à l’accepter pour des faits très graves comme une contestation de crimes contre l’humanité ([142]).

Le juge peut également mettre le coût des mesures de blocage à la charge des fournisseurs d’accès à internet dès lors que malgré leur irresponsabilité de principe, ils sont tenus, en application du 7 du I de l’article 6 précité de la LCEN, de concourir à la lutte contre plusieurs infractions prévues par ce texte.

Enfin, pour lutter contre la pratique des « sites miroirs », le juge peut déterminer les fournisseurs d’accès à internet auxquels l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) pourra adresser une demande afin d’empêcher l’accès à tout service de communication au public en ligne qu’elle aura préalablement identifié comme reprenant le contenu illicite, en totalité ou de manière substantielle (par application de l’article 6-3 de la LCEN).

B.   Les obligations concernant la lutte contre la diffusion de contenus illicites

1.   Le droit interne

● L’article 6-4 de la LCEN impose à certains opérateurs de plateforme en ligne diverses obligations en vue de concourir à la lutte contre la diffusion de certains contenus illicites.

Il s’agit des opérateurs de plateforme en ligne définis à l’article L. 111-7 du code de la consommation qui proposent un service de communication au public en ligne reposant sur le classement, le référencement ou le partage de contenus mis en ligne par des tiers et dont l’activité sur le territoire français dépasse un seuil de nombre de connexions déterminé par décret.

Par décret n° 2022-32 du 14 janvier 2022, le seuil de connexions qui déclenche l’applicabilité des obligations prévues au I de l’article 6-4 de la LCEN a été fixé à « 10 millions de visiteurs uniques par mois depuis le territoire français […] calculé sur la base de la dernière année civile ».

Ce même décret a fixé, pour l’application d’obligations complémentaires prévues au II de l’article 6-4 de la LCEN, un seuil à 15 millions de visiteurs uniques par mois depuis le territoire français, calculé sur la base de la dernière année civile.

 

● Les obligations instituées sont nombreuses :

– pour les plateformes en ligne dépassant le seuil de 10 millions de visiteurs uniques mensuels, ces obligations vont de la mise en place des moyens humains proportionnés à la désignation d’un point de contact unique pour l’utilisateur, ou encore prévoient la mise en place d’un dispositif, aisément accessible et facile d’utilisation, permettant à toute personne de porter à leur connaissance, par voie électronique, les contenus litigieux ;

– pour les plateformes en ligne dépassant le seuil de 15 millions de visiteurs uniques mensuels, ces obligations comprennent également une évaluation annuelle des risques systémiques liés au fonctionnement et à l’utilisation de leurs services ainsi que la mise en place de mesures raisonnables pour remédier aux risques identifiés.

● Les contenus illicites visés sont ceux contrevenant aux dispositions mentionnées au troisième alinéa du 7 du I de l’article 6 de la LCEN ainsi qu’aux troisième et quatrième alinéas de l’article 33 de la loi du 29 juillet 1881 sur la liberté de la presse.

Plus spécifiquement, il s’agit :

– d’une part : de l’apologie, de la négation ou de la banalisation des crimes contre l’humanité, de la provocation à la commission d’actes de terrorisme et de leur apologie, de l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation sexuelle, de leur identité de genre ou de leur handicap ainsi que de la pornographie enfantine, de l’incitation à la violence, notamment l’incitation aux violences sexuelles et sexistes, ainsi que des atteintes à la dignité humaine (7 du I de l’article 6 de la LCEN) ;

– d’autre part : de l’injure publique (article 33 de la loi du 29 juillet 1881 sur la liberté de la presse).

2.   Le droit européen

Le règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (dit règlement « RSN », ou « DSA » en anglais pour Digital Services Act) vise à responsabiliser les fournisseurs de services intermédiaires en matière de lutte contre la diffusion de contenus illicites.

À compter du 17 février 2024, les services d’hébergement dont les fournisseurs de plateformes en ligne – sous-catégorie des fournisseurs des services intermédiaires – devront proposer aux internautes un outil leur permettant de signaler facilement les contenus illicites (article 16 du RSN). Une fois le signalement effectué, elles devront rapidement retirer ou bloquer l’accès au contenu illégal.

Les fournisseurs de plateformes en ligne devront également coopérer avec des « signaleurs de confiance » (article 22 du RSN). Ce statut sera attribué dans chaque pays à des entités ou organisations en raison de leur expertise et de leurs compétences. Leurs notifications seront traitées en priorité.

D’autres mesures sont imposées aux « très grandes plateformes » et aux « très grands moteurs de recherche » depuis le 25 août 2023.

Ces derniers doivent notamment :

– analyser chaque année les risques systémiques qu’ils génèrent et prendre les mesures nécessaires pour atténuer ces risques ;

– effectuer chaque année des audits indépendants de réduction des risques, sous le contrôle de la Commission européenne ;

– et accorder un accès aux données clés de leurs interfaces aux chercheurs pour qu’ils puissent mieux analyser l’évolution des risques en ligne.

Les très grandes plateformes et très grands moteurs de recherche sont désignés par l’article 33 du RSN comme ceux ayant « un nombre mensuel moyen de destinataires actifs du service dans l’Union égal ou supérieur à 45 millions », soit environ 10 % de la population de l’Union européenne.

Le 25 avril 2023, une première liste renseignant ces grands acteurs en ligne a été publiée sur le site de la Commission européenne, comprenant :

– dix-sept très grandes plateformes : Alibaba AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube et Zalando ;

– et deux très grands moteurs de recherche : Bing et Google Search.

II.   le Dispositif proposé

● Le présent article insère dans la LCEN, après l’article 6-2-1, une nouvelle section intitulée « Dispositions relatives à l’intervention de l’autorité judiciaire ».

Cette nouvelle section comprend les articles 6-3 à 6-5 dans une nouvelle rédaction résultant du présent article pour les articles 6-3 et 6-4, et de l’article 23 du présent projet de loi pour l’article 6-5.

Ces modifications ont pour effet de déplacer, sans les modifier, les dispositions relatives au blocage judiciaire de certains contenus illicites qui figurent actuellement, pour l’essentiel, au 8 du I de l’article 6 de la LCEN.

Sur ce point, le présent article n’emporte aucun changement par rapport au droit existant.

● En revanche, ces modifications ont également pour effet de supprimer les diverses obligations, applicables aux opérateurs de plateforme en ligne, prévues par l’article 6-4 de la LCEN.

Le Gouvernement justifie cette proposition de suppression par le fait que le règlement RSN prévoit une série d’obligations similaires pour les opérateurs de plateforme en ligne.

Il convient toutefois de souligner que certaines de ces obligations – dont l’évaluation annuelle des risques systémiques – ne s’appliqueront qu’aux « très grandes plateformes en ligne » qui atteignent un « nombre mensuel moyen de destinataires actifs du service dans l’Union égal ou supérieur à 45 millions » au lieu de 15 millions de visiteurs uniques mensuels en droit interne.

III.   les Modifications apportÉes par le sénat

Le Sénat a adopté le présent article sans modification.

IV.   Les modifications apportÉes par la commission

La commission a adopté le présent article modifié, outre par trois amendements rédactionnels présentés par les rapporteurs (CS938, CS939 et CS940), par un amendement de Mme Violette Spillebout (RE), ayant recueilli un avis favorable des rapporteurs et dont l’objet est de conférer le statut de signaleur de confiance aux acteurs effectuant des notifications de contenus sportifs diffusés illicitement (CS116).

Article 25
Adaptation de la loi du 21 juin 2004 pour la confiance dans l’économie numérique et désignation de l’Arcom en tant que coordinateur national pour les services numériques pour la France

Adopté par la commission avec modifications

En adaptant la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, le présent article désigne l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) en tant que « coordinateur des services numériques » pour la France, responsable de la coopération entre les trois autorités chargées de la mise en œuvre règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (dit « RSN », ou « DSA » en anglais pour Digital Services Act), à savoir : l’Arcom, la direction générale chargée de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) et la Commission nationale pour l’informatique et les libertés (Cnil).

Les missions et les compétences de l’Arcom sont adaptées et les modalités de la coopération avec les deux autres autorités sont précisées, conformément à plusieurs articles du RSN.

Le présent article a été adopté par le Sénat avec plusieurs modifications apportant des précisions sur les compétences de l’Arcom en matière de coordination des services numériques.

Il a été adopté par la commission avec deux modifications. La première a trait aux conventions qui fixeront les modalités de mise en œuvre de la coopération entre les autorités désignées au présent article : elles ne porteront pas sur l’organisation d’une communication unifiée entre elles. La seconde est relative à la saisine, par ces mêmes autorités, du comité européen des services numériques préalablement à la mise en œuvre de toute décision susceptible de générer des obligations additionnelles applicables aux seules plateformes dont l’établissement principal est situé en France ou dont le représentant légal est établi en France.

  1.   Le droit en vigueur

A.   Le droit européen

Les articles 22 à 25 du présent projet de loi ont pour objet principal de tirer les conséquences en droit interne des dispositions du règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (ci-après « RSN »). L’essentiel des nouvelles obligations découle directement de l’application du règlement mais celui‑ci accorde aux États membres certaines marges de manœuvre en matière de gouvernance. Il leur revient de désigner les autorités compétentes pour la supervision des obligations prévues par le règlement au niveau national, et de désigner parmi ces autorités une autorité de coordination. Il leur revient également de définir les missions de ces autorités et de prévoir les modalités de leur coopération.

Le rôle et le fonctionnement des autorités compétentes et des coordinateurs pour les services numériques sont décrits aux articles 49 à 60 du RSN.

1.   Les autorités compétentes pour appliquer le règlement sur les services numériques et le coordinateur pour les services numériques

L’article 49 du RSN prévoit que les États membres désignent les autorités compétentes responsables de la surveillance des fournisseurs de services intermédiaires et de l’exécution de ce même règlement.

Ce même article 49 prévoit que « les États membres désignent une des autorités compétentes comme leur coordinateur pour les services numériques [CSN]. Le [CSN] est responsable de toutes les questions en lien avec la surveillance et l’exécution du présent règlement dans cet État membre, sauf si l’État membre concerné a assigné certaines missions ou certains secteurs spécifiques à d’autres autorités compétentes. Le [CSN] a, en tout état de cause, la responsabilité d’assurer la coordination au niveau national vis-à-vis de ces questions et de contribuer à une surveillance et une exécution efficaces et cohérentes du présent règlement dans toute l’Union. »

La désignation des CSN par chaque État membre doit intervenir au plus tard le 17 février 2024.

En application de l’article 50 de ce même règlement les autorités compétentes et le CSN « accomplissent leurs missions au titre du présent règlement de manière impartiale, transparente et en temps utile », les États membres devant veiller à ce qu’ils « disposent de toutes les ressources nécessaires à l’accomplissement de leurs missions, y compris des ressources techniques, financières et humaines suffisantes pour surveiller correctement tous les fournisseurs de services intermédiaires relevant de leur compétence » ; cela passe notamment par une autonomie de gestion de leur budget, condition de leur indépendance.

Cette indépendance est capitale : les autorités « restent libres de toute influence extérieure, directe ou indirecte, et ne sollicitent ni n’acceptent aucune instruction d’aucune autre autorité publique ou partie privée ». Elle s’exerce sans préjudice des exigences de coopération entre autorités et elle n’empêche pas l’exercice d’un contrôle juridictionnel, ces autorités étant pleinement responsables dans la conduite de leurs activités.

En application des articles 51 et 52 de ce même règlement, les autorités disposent de pouvoirs d’enquête, d’exécution et de sanction, afin de contraindre les fournisseurs de services intermédiaires ([143]) à respecter leurs obligations. En vertu de l’article 53, les CSN sont quant à eux destinataires des plaintes invoquées au titre d’une infraction au règlement et à l’encontre de fournisseurs de services intermédiaires.

Les CSN sont destinataires, à leur demande, des documents justificatifs des risques que les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent en conséquence de la conception ou du fonctionnement de leurs services (article 34 du même règlement). Ces risques portent sur :

– la diffusion de contenus illicites par l’intermédiaire des services de ces plateformes ;

–  tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier du droit fondamental à la dignité humaine, au respect de la vie privée et familiale, à la protection des données à caractère personnel, à la liberté d’expression et d’information, des droits fondamentaux relatifs aux droits de l’enfant et du droit fondamental à un niveau élevé de protection des consommateurs ;

–  tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique ;

–  tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

2.   Le Comité européen pour les services numériques

Le rôle et le fonctionnement du Comité européen pour les services numériques, groupe consultatif indépendant composé de CSN, sont détaillés aux articles 61 à 63 du RSN. Le comité se compose des CSN et est présidé par la Commission européenne.

Son rôle est de conseiller les CSN et la Commission européenne dans la mise en œuvre du règlement précité. Le comité doit soutenir la coopération des coordinateurs – et leur assistance mutuelle (article 57 du même règlement) – et de la Commission européenne afin qu’elles soient cohérentes et efficaces. Le comité doit les assister dans leurs analyses et l’établissement de lignes directrices.

Surtout, le comité constitue un réseau de contrôle européen supervisant les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne. Le seuil permettant d’identifier les très grandes plateformes en ligne est fixé par le règlement à 45 millions d’utilisateurs actifs par mois, c’est‑à-dire un nombre équivalent à 10 % de la population de l’Union européenne ([144]).

B.   Le droit interne

 La loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.

Le RSN modifie la directive 2000/31/CE sur le commerce électronique ([145]) (dite « e-commerce ») qui a été transposée en France par la loi du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN »).

Le RSN étant d’application directe dans l’ensemble des États membres, les dispositions de la LCEN issues de la transposition de la directive « e-commerce » doivent être modifiées.

 L’Arcom

Créée le 1er janvier 2022 par la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique, l’Arcom est une autorité publique indépendante issue de la fusion du Conseil supérieur de l’audiovisuel (CSA), créé en 1989, et de la Haute autorité pour la diffusion des œuvres et la protection des droits sur l’internet (Hadopi), créée en 2009.

L’Arcom comprend un collège de neuf personnes : son président et huit membres, quatre hommes et quatre femmes, nommés pour six ans. Cinq autorités distinctes ([146]) procèdent à ces nominations, pour garantir leur indépendance et favoriser la diversité des profils. Les membres du collège sont choisis pour leurs compétences en matière économique, juridique ou technique, ou en raison de leur expérience professionnelle dans le domaine de la communication, notamment dans le secteur audiovisuel, ou des communications électroniques.

L’Arcom est garante de la liberté de communication issue de la loi n° 861067 du 30 septembre 1986 relative à la liberté de communication. Elle a notamment pour mission de veiller aux responsabilités démocratiques et sociétales des médias audiovisuels et des plateformes en ligne (réseaux sociaux, moteurs de recherche, plateformes de partage de vidéos notamment), de garantir le pluralisme des médias audiovisuels d’information et l’indépendance de l’audiovisuel public, d’assurer les équilibres économiques du secteur et de soutenir la création.

Au sein de l’Erga, le groupe des régulateurs européens des services de médias audiovisuels (en anglais European Regulators Group for Audiovisual Media Services), l’Arcom a contribué aux travaux préparatoires au RSN.

II.   Le dispositif proposé

Le I du présent article 25 crée au sein de la LCEN, après l’article 6-5, une section 4 intitulée « Coordinateur pour les services numériques et coopération entre les autorités compétentes » qui comprend les articles 7 à 9-2, l’article 7 étant nouvellement rédigé et les articles 7-2, 7-3, 8-1, 9-1 et 9-2 insérés par le présent article 25.

Un article 7-1 est créé au sein de cette nouvelle section 4 de la LCEN par l’article 18 du présent projet de loi. Les articles 8 et 9 de la LCEN ne sont pas modifiés.

A.   L’article 7 de la LCEN

Le II du présent article 25 réécrit intégralement l’article 7 de la LCEN qui concerne aujourd’hui une mention obligatoire relative au piratage ([147]).

L’article 7 dans la rédaction proposée par le présent projet de loi tire les conséquences de l’article 49 du RSN en désignant les « autorités compétentes », à savoir l’Arcom, l’autorité administrative chargée de la concurrence et de la consommation (la DGCCRF) et la Cnil. Parmi ces autorités, l’Arcom est désignée « coordinateur des services numériques » (CSN).

B.   Les articles 7-2 et 7-3 de la LCEN

Le III du présent article 25 insère après l’article 7-1 de la LCEN deux nouveaux articles 7-2 et 7-3.

En conséquence de l’article 57 du RSN, l’article 7-2 de la LCEN organise la coopération et l’assistance mutuelle des autorités désignées à l’article 7. Le CSN veille à ce que ces autorités coopèrent étroitement et se prêtent assistance mutuelle dans la mise en œuvre du RSN avec cohérence et efficacité. Pour ce faire, les autorités se communiquent librement et spontanément les informations dont elles disposent et se consultent mutuellement sans que puissent être opposés ni le secret des affaires, ni le secret de l’instruction, ni la protection des données personnelles. Ces modalités de coopération et d’assistance devront être précisées par la signature de conventions entre ces mêmes autorités.

En conséquence de l’article 61 du RSN, l’article 7-3 de la LCEN précise que l’Arcom, en tant que CSN, siège au comité européen des services numériques. Elle pourra être accompagnée, en fonction des questions examinées, par l’autorité compétente concernée.

Afin d’exercer les compétences prévues aux articles 63, 64 et 65 du même règlement, à savoir l’appui à la surveillance, les enquêtes, l’exécution et le contrôle, par le comité précité, des fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne, l’Arcom assure une mission de veille et d’analyse des risques systémiques tels que mentionnés à l’article 34 dudit règlement.

C.   L’article 8-1 de la LCEN

Le IV du présent article 25 insère après l’article 8 de la LCEN un nouvel article 8-1.

Cet article 8-1 décrit le périmètre de compétence de l’Arcom eu égard au RSN. Elle a ainsi pour tâche de contrôler :

– l’ensemble des fournisseurs de services intermédiaires (voir définition supra) dans leur lutte contre les contenus illicites et le respect de leurs obligations de diligence et de transparence ;

– les fournisseurs de services d’hébergement (les hébergeurs) dans leur obligation de signalement des contenus illicites et la mise en place des mesures de restrictions liées ;

– les plateformes en ligne dans leur traitement des réclamations, des actions des signaleurs de confiance ([148]), des suspensions de comptes, des règles relatives aux publicités, des recommandations et de la protection des mineurs en ligne.

D.   Les articles 9-1 et 9-2 de la LCEN

Les V et VI du présent article 25 insèrent après l’article 9 de la LCEN deux nouveaux articles 9-1 et 9-2 qui précisent les pouvoirs de l’Arcom pour l’accomplissement des missions confiées par la section IV précitée.

Le I de l’article 9-1 prévoit que l’Arcom dispose des pouvoirs d’enquête et d’exécution à l’égard de la conduite des fournisseurs de services intermédiaires relevant de la compétence de la France. Elle dispose en complément du pouvoir de recueillir, auprès de ces mêmes fournisseurs, les informations nécessaires à son travail de coopération transfrontalière avec les autres CSN et de coordination avec le comité européen pour les services numériques.

Le II de ce même article 9-1 dote les agents habilités et assermentés de l’Arcom d’un pouvoir de visite dans les locaux des fournisseurs de services intermédiaires. Ce pouvoir s’exerce dans les mêmes conditions que celui dont bénéficie la Cnil auprès des responsables de données à caractère personnel : inspections entre six heures et vingt-et-une heures afin d’examiner, de saisir, de prendre ou d’obtenir des copies d’informations.

Des garanties procédurales sont prévues. S’il existe un soupçon de conservation d’informations dans un domicile privé, l’autorisation du juge des libertés et de la détention (JLD) du tribunal judiciaire est requise. Le responsable du local est informé de son droit d’opposition à la visite sauf en cas d’urgence ou lorsque la gravité des faits à l’origine du contrôle ou le risque de destruction ou de dissimulation de documents le justifie. En cas d’opposition à la visite, celle-ci ne peut se dérouler qu’après l’autorisation et sous l’autorité du JLD du tribunal judiciaire, en présence de l’occupant des lieux ou de son représentant, qui peut se faire assister d’un conseil de son choix ou, à défaut, en présence de deux témoins qui ne sont pas placés sous l’autorité des personnes chargées de procéder au contrôle.

L’ordonnance ayant autorisé la visite est exécutoire dès présentation de l’original, sans avoir besoin de la signifier à la partie concernée. Elle mentionne que le juge ayant autorisé la visite peut être saisi à tout moment d’une demande de suspension ou d’arrêt de cette visite. Elle indique le délai et la voie de recours applicables. Elle peut faire l’objet, suivant les règles prévues par le code de procédure civile, d’un appel devant le premier président de la cour d’appel concernée.

Pour exercer son contrôle, l’Arcom peut enjoindre au fournisseur de services intermédiaires contrôlé de mettre fin aux manquements constatés, prononcer une astreinte, lui enjoindre de prendre toute mesure corrective appropriée et adopter des injonctions provisoires sur le manquement qui est susceptible de créer un dommage grave. L’Arcom peut aussi saisir l’autorité judiciaire dans des conditions prévues par voie réglementaire pour qu’elle ordonne ces mêmes mesures.

L’Arcom peut également accepter des engagements d’un fournisseur de nature à mettre fin au manquement puis les modifier ou les compléter selon la situation.

L’Arcom peut également « lorsque tous les autres pouvoirs prévus par le présent article pour parvenir à la cessation d’une infraction ont été épuisés, qu’il n’a pas été remédié à l’infraction ou que l’infraction se poursuit et qu’elle entraîne un préjudice grave » (point 3 de l’article 51 du RSN) enjoindre au fournisseur de services intermédiaires de soumettre un plan d’action pour mettre fin au manquement, veiller à ce que ces mesures soient prises, et rendre un rapport sur celles-ci. Si ce même fournisseur ne met pas fin aux manquements, l’Arcom peut saisir l’autorité judiciaire afin qu’elle ordonne une mesure de restriction temporaire de l’accès au service du fournisseur concerné.

Un décret en Conseil d’État fixe les modalités d’application du présent article et précise les voies de recours contre les mesures prononcées.

L’article 9-2 de la LCEN inséré par le VI du présent article précise les pouvoirs de sanction dont dispose l’Arcom à l’égard des fournisseurs de services intermédiaires.

Le I de ce même article 9-2 de la LCEN prévoit ainsi que l’Arcom puisse mettre en demeure un fournisseur de services intermédiaires de se conformer, dans un délai qu’elle fixe, aux obligations mentionnées à l’article 8-1 de la même loi. Elle peut également prononcer une injonction éventuellement assortie d’une astreinte lorsque le fournisseur concerné ne satisfait pas aux mesures d’enquête mentionnées aux I à III de l’article 9-1 de cette même loi.

Au II, il est prévu que si le fournisseur de services intermédiaires ne se conforme pas à la mise en demeure, à l’injonction ou aux mesures prises en application des pouvoirs d’exécution mentionnés aux IV et V de ce même article 9‑1, l’Arcom puisse prononcer une sanction pécuniaire dans les conditions prévues à l’article 42-7 de la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication, c’est-à-dire sous la responsabilité d’un rapporteur nommé par le vice-président du Conseil d’État, après avis de l’Arcom. Ce rapporteur assure l’engagement des poursuites et l’instruction préalable au prononcé des sanctions.

Le montant de l’astreinte et celui de la sanction pécuniaire prennent en considération différents critères objectifs : la nature, la gravité et la durée du manquement (), l’intentionnalité ou la négligence (), les manquements commis précédemment par le fournisseur (), sa situation financière (), sa coopération avec les autorités (), sa nature et sa taille () et son degré de responsabilité en tenant compte des mesures techniques et opérationnelles qu’il a prises pour se conformer au RSN ().

Le III prévoit le plafond de la sanction pécuniaire : son montant ne peut excéder 6 % du chiffre d’affaires mondial hors taxes réalisé par le fournisseur de services intermédiaires au cours de l’exercice précédant la sanction (par dérogation, ce taux est porté à 1 % en cas de refus de déférer aux demandes du régulateur dans le cadre de l’application des I à III de l’article 9-1 de la LCEN).

S’agissant du plafond de l’astreinte, son montant journalier ne peut excéder 5 % des revenus ou du chiffre d’affaires mondial hors taxes journalier moyen du fournisseur concerné, constaté sur l’exercice précédent l’astreinte, calculé à compter de la date spécifiée dans la décision de l’Arcom.

Le IV prévoit que l’Arcom puisse rendre publiques les mises en demeure et les sanctions qu’elle prononce selon des modalités – déterminées dans sa décision – qui tiennent compte de la gravité du manquement ou ordonner de les insérer dans des publications, journaux et supports qu’elle désigne, et ce aux frais du fournisseur mis en demeure ou sanctionné.

III.   Les modifications apportées par le Sénat

L’article 25 du projet de loi a été adopté avec modifications par le Sénat.

● À l’initiative de son rapporteur M. Patrick Chaize, la commission spéciale a adopté trois amendements.

Un premier amendement ([149]) précise que le rôle attribué à l’Arcom en matière de coordination des services numériques (article 7 de la LCEN) s’exerce sans préjudice des compétences des autorités administratives compétentes qui concourent à la mise en œuvre du RSN.

Un deuxième amendement ([150]) procède à plusieurs modifications de coordination rédactionnelle avec la procédure d’enquêtes domiciliaires de la Cnil, et les dispositions de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés dans sa rédaction résultant de l’article 32 du présent projet de loi. À l’article 9-1 de la LCEN, le même amendement :

– substitue aux diverses occurrences du mot « local » les mots « lieux, local, enceinte, installation ou établissement » afin de mieux couvrir la typologie des domiciles susceptibles d’être visités ;

– ajoute une obligation d’information du procureur de la République territorialement compétent préalable à la visite ;

– précise également qu’il est dressé un procès‑verbal des vérifications et visites menées avec, le cas échéant, la liste des documents saisis. Ce procès‑verbal est dressé contradictoirement lorsque les vérifications et visites sont effectuées sur place ou sur convocation. Les documents saisis sont restitués sur décision du procureur de la République, d’office ou sur requête, dans un délai maximal de six mois à compter de la visite ;

– prévoit enfin que la proposition d’engagements des fournisseurs de services intermédiaires de nature à mettre un terme au manquement constaté doit être suffisamment détaillée, notamment en ce qui concerne le calendrier et la portée de la mise en œuvre de ces engagements, ainsi que leur durée.

À l’article 9-2 de la LCEN, le montant de l’astreinte ne pourra excéder 5 % du chiffre d’affaires précité, la mention des revenus étant supprimée.

Le troisième amendement est d’ordre rédactionnel et de précision ([151]).

En séance publique, le Sénat a adopté un amendement ([152]) précisant à l’article 7-2 de la LCEN que les conventions entre les autorités compétentes pour mettre en œuvre le RSN comprennent « l’organisation d’une communication unifiée ». Selon son exposé sommaire, « l’articulation entre tous les textes récents (et à venir), ainsi que leur complexité nécessitent de renforcer la lisibilité et la cohérence de la mise en œuvre des évolutions sur lesquelles les régulateurs ont des compétences spécifiques et liées ». Sur cet amendement, le Gouvernement a formulé une demande de retrait.

IV.   Les modifications apportÉes par la commission

La commission spéciale a adopté cet article modifié par seize amendements rédactionnels et deux amendements du rapporteur général.

● L’amendement CS840 a trait aux conventions qui fixeront les modalités de mise en œuvre de la coopération entre les autorités désignées au présent article. Ces conventions ne porteront pas sur l’organisation d’une communication unifiée entre elles.

● L’amendement CS836 prévoit la saisine, par ces mêmes autorités, du comité européen des services numériques préalablement à la mise en œuvre de toute décision susceptible de générer des obligations additionnelles applicables aux seules plateformes dont l’établissement principal est situé en France ou dont le représentant légal est établi en France.

Chapitre II
Modification du code de la consommation

Article 26
Mise en cohérence du code de la consommation avec le règlement européen sur les services numériques (RSN)

Adopté par la commission sans modification

L’article 26 procède à l’adaptation du code de la consommation au contenu du règlement européen sur les services numériques.

Cet article a été modifié par le Sénat par des amendements rédactionnels et de précision juridique.

Cet article a été adopté par la commission spéciale de l’Assemblée nationale sans modification.

  1.   Le droit en vigueur : une adaptation nécessaire de certaines dispositions du code de la consommation après l’adoption définitive du règlement sur les services numériques (RSN)

L’adoption définitive du règlement 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (RSN) modifie en profondeur le droit européen de la régulation numérique.

Ce règlement fait notamment évoluer le périmètre de certaines catégories juridiques clefs pour la régulation (définition des notions de plateformes en ligne, des moteurs de recherche, etc.) et complète les obligations spécifiques aux places de marché en ligne. Ces dernières se voient ainsi assujetties à des obligations additionnelles d’identification des vendeurs exerçant une activité sur leur plateforme, de vérification et de contrôle vis-à-vis des informations relatives aux annonces postées en ligne, ainsi que d’information des consommateurs en cas de produit non conforme ou dangereux.

Le code de la consommation, dans sa rédaction actuelle, qui procède notamment, dans ce domaine, de la transposition de certaines directives européennes et d’initiatives nationales (loi n° 2016-3121 du 7 octobre 2016 pour une République numérique), doit être adapté, en particulier afin de garantir la sécurité juridique des dispositions mises en œuvre par l’administration (direction générale de la concurrence, de la consommation et de la répression des fraudes – DGCCRF).

II.   Le dispositif proposé

A.   Une harmonisation de certaines définitions prévues par le code de la consommation

L’article 26 procède, d’abord, à l’adaptation de certaines définitions prévues par le code de la consommation, dont le contenu et le périmètre ne recouvrent qu’imparfaitement les définitions prévues au sein du RSN.

Il harmonise en particulier la définition de la notion de plateforme en ligne ([153]) avec celle retenue au sein de l’article 3 du RSN.

En effet, en l’état actuel du droit, le code de la consommation encadre les plateformes au sens large (en intégrant notamment les réseaux sociaux, les marketplaces, les moteurs de recherche, etc.) alors que le RSN distingue spécifiquement les plateformes en ligne des moteurs de recherche. En outre, les comparateurs en ligne, qui sont inclus dans la définition actuelle de l’article L. 111- 7, ne relèvent pas du champ d’application du RSN.

En conséquence, afin de mettre en cohérence ces définitions, le présent article procède aux adaptations suivantes :

– la définition d’une « plateforme en ligne » telle que prévue à l’article L. 111-7 du code de consommation est remplacée par la définition qu’en donne l’article 3 du RSN et replacée au sein de l’article liminaire du code de la consommation ;

– l’article liminaire du code de la consommation est complété par la définition de la notion de « moteur de recherche en ligne » afin de bien la distinguer de la notion de « plateforme en ligne », conformément aux dispositions de l’article 3 du RSN.

En outre, pour des raisons de clarté et de lisibilité du droit, la définition des comparateurs en ligne telle que prévue au sein de l’article L. 111-7 du code de la consommation, qui n’entre pas dans le champ de la régulation du RSN, est déplacée au sein de ce même article liminaire.

B.   Une mise en cohérence des obligations existantes

Le RSN prévoit un certain nombre d’obligations complémentaires pour les plateformes qui impliquent de modifier le code de la consommation.

Ce règlement étant d’harmonisation maximale, les États membres doivent se conformer strictement à son contenu, sans possibilité d’adaptation ou d’insertion complémentaire. Le RSN prévoit néanmoins, à titre d’exception, que peuvent être maintenues les dispositions existantes poursuivant des finalités différentes du RSN ou constituant la transposition d’actes juridiques de l’Union européenne en matière de protection des consommateurs.

En conséquence, l’article 26 procède à plusieurs modifications significatives au sein du code de la consommation :

en restreignant la portée de l’actuel article L. 111-7 aux seuls fournisseurs de places de marché et aux comparateurs en ligne (ces derniers étant en dehors du champ de la régulation du RSN) ;

en abrogeant l’article L. 111-7-1, qui prévoit que les opérateurs de plateforme en ligne qui dépassent un seuil de connexions défini par décret (5 millions) doivent élaborer et diffuser aux consommateurs des bonnes pratiques visant à renforcer les obligations de clarté, transparence, et loyauté. Le seuil concerné est désormais fixé directement par le RSN (45 millions de connexions par mois) ;

en modifiant l’article L. 111-7-3 afin de limiter l’obligation de réaliser un audit de cybersécurité aux seuls fournisseurs de plateformes en ligne, moteurs de recherche en ligne et comparateurs en ligne.

C.   La désignation nécessaire de la DGCCRF comme entité de contrôle du bon respect des obligations incombant aux opérateurs de places de marché

L’article 26 crée un nouvel article L. 511-7 au sein du code de la consommation qui habilite spécifiquement les agents de la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) pour rechercher et constater les infractions au RSN.

D.   La définition d’un régime de sanctions conforme au RSN

L’article 26 crée également un régime de sanctions à l’encontre des fournisseurs de plateforme en ligne qui ne respecteraient pas certaines obligations prévues au sein du RSN.

Ce dispositif, figurant à l’article L. 133-1 du code de la consommation, fixe une peine d’emprisonnement pouvant aller jusqu’à deux ans et une amende de 300 000 euros, dont le montant peut être porté à 6 % du chiffre d’affaires mondial pour une personne morale ([154]) .

Il a vocation à sanctionner tout manquement :

– à l’interdiction, pour les plateformes en ligne, de concevoir des dark patterns, soit une interface en ligne visant à altérer le consentement du consommateur (article 25 du RSN) ;

– aux obligations de traçabilité des professionnels (article 30 du RSN) ;

– aux obligations de conformité, dès sa conception, de l’interface en ligne (article 31 du RSN) ;

– aux obligations d’information des consommateurs (article 32 du RSN).

Deux nouveaux articles viennent compléter ce régime de sanctions :

– un article L. 133-2 du code de la consommation qui prévoit une injonction avec astreinte journalière en cas d’infraction par un fournisseur de plateforme en ligne vis-à-vis des dispositions de l’article L. 133-1 du même code. Cet article prévoit la possibilité pour la juridiction civile, à la demande de l’autorité administrative compétente (DGCCRF), après avoir avisé le parquet, d’enjoindre le fournisseur concerné de se mettre en conformité. Cette injonction peut être assortie d’une astreinte journalière dont le montant maximum ne peut excéder 5 % du chiffre d’affaires mondial (article 52 du RSN) ;

– un article L. 133-3 du code de la consommation qui crée un régime de sanctions complémentaire pour les personnes physiques en infraction au regard des dispositions de l’article L. 133-1 du même code (interdiction d’exercice d’une activité professionnelle ou d’une fonction publique, dans les conditions prévues par le droit actuel).

L’article 26 prévoit, enfin, que les personnes morales puissent faire l’objet de sanctions, temporaires ou définitives, sur le fondement de l’article L. 131-39 du code pénal, lorsqu’elles sont considérées comme pénalement responsables de délits punis à l’article L. 133-1 du code de la consommation.

E.   L’adaptation des pouvoirs d’enquête et de sanction

L’article 26 crée une nouvelle section IV au sein du chapitre II du titre Ier du livre V du code de la consommation afin de permettre la mise en œuvre effective des actions de recherche et de contrôle menées par les agents de la DGCCRF.

Sont ainsi insérées, au sein du code de la consommation des dispositions :

– garantissant la conformité de ces actions avec les conditions d’indépendance prévues actuellement en droit (article L. 512-66 du même code) ;

– garantissant la capacité de la DGCCRF à accéder aux données de certaines plateformes dans le but de veiller à la bonne application du règlement (article L. 512-67) ;

– déterminant les modalités de la coopération entre les agents de la DGCCRF et des agents du coordinateur des services numériques (article L. 512-68) ;

– et prévoyant la sanction en cas d’entraves à l’enquête (article L. 531-7).

Enfin, l’article L. 521-3 du code de la consommation est adapté pour élargir le champ des situations dans lesquelles la DGCCRF peut avoir recours à la réquisition des plateformes en ligne.

Cet élargissement concerne les cas suivants :

– le manquement ou l’infraction aux règles relatives à la conformité et à la sécurité non seulement des produits, mais aussi des services ;

– l’absence de mise en conformité d’un professionnel consécutive à une injonction en matière de sécurité des produits et des services ;

– les cas d’infractions mettant en jeu la sécurité ou la santé des consommateurs lorsque l’auteur n’a pas déféré à une injonction.

III.   Les modifications apportées par le Sénat

A.   En commission

Deux amendements présentés par M. Patrick Chaize, rapporteur, ont été adoptés lors de l’examen de cet article en commission spéciale :

– un amendement COM-139 de précision rédactionnelle qui détermine l’amende maximale pouvant être prononcée pour sanctionner des manquements aux obligations des fournisseurs de plateformes en ligne en fonction du chiffre d’affaires mondial hors taxes de la personne morale contrôlée ;

– un amendement COM-140 de précision juridique rappelant que les pouvoirs de contrôle de la DGCCRF vis-à-vis des fournisseurs de plateformes en ligne au regard de leurs obligations s’exercent conformément au principe du pays d’origine.

B.   En séance publique

Un amendement n° 65 rect bis présenté par Mme Delattre a été adopté par le Sénat en séance publique, afin de garantir la conformité de la rédaction proposée au contenu du RSN.

IV.   les modifications apportées par la commission

L’article 26 n’a pas fait l’objet de modification lors de son examen en commission spéciale.

Chapitre III
Modification du code du commerce

Article 27
Adaptation du Code de commerce au règlement européen sur les marchés numériques

Adopté par la commission sans modification

L’article 27 adapte le code de commerce au contenu du règlement européen sur les marchés numériques.

Cet article n’a pas été modifié par le Sénat.

Cet article a été adopté par la commission spéciale de l’Assemblée nationale sans modification.

  1.   Le droit en vigueur : une adaptation nécessaire du code de commerce aprÈs l’adoption définitive du règlement sur les marches numériques (RMN)

L’adoption définitive du règlement 2022/1925 du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur du numérique, implique de modifier certaines dispositions du code de commerce afin de garantir sa conformité avec la nouvelle régulation européenne mise en œuvre dans ce cadre.

II.   Le dispositif proposé

L’article 27 procède à l’adaptation de plusieurs dispositions du code de commerce afin de donner aux autorités nationales compétentes la capacité de conduire des investigations et de coopérer avec la Commission européenne sur les pratiques des contrôleurs d’accès.

En conséquence :

– la rédaction de l’article L. 420-7 du code de commerce est modifiée, pour actualiser les références au droit européen qu’il contient, et prévoit que les litiges relatifs à l’application des règles prévues au sein du RMN ou dans lesquels les dispositions de ce règlement sont invoquées sont attribuées aux juridictions spécialisées en charge du contentieux de la concurrence (alinéas 2 à 5) ;

– un nouvel article, L. 450-11, est inséré au sein du code de commerce, afin de consacrer en droit le rôle de l’Autorité de la concurrence et des administrations compétentes, telles qu’habilitées par le ministre en charge de l’économie concernant l’application des règles prévues au paragraphe 6 de l’article 1er du RMN (alinéa 6) ;

– la rédaction de l’article L. 420-12 du code de commerce est également adaptée afin, comme pour l’article L. 420-7 du même code, d’actualiser les références au droit européen qu’il contient, mais aussi de consacrer la compétence de principe de l’Autorité de la concurrence et du ministre en charge de l’économie pour les missions d’assistance à la Commission européenne prévue par le RSN (pouvoir d’audition, capacité de recueillir des déclarations, pouvoir d’inspection et conduite d’enquête de marché), ainsi que la capacité de ces autorités à ouvrir et conduire des enquêtes en cas de non-respect éventuel des obligations imposées aux contrôleurs d’accès (alinéas 7 à 13) ;

– un nouvel article L. 462-9-2 est créé au sein du code de commerce, qui précise que les autorités précitées peuvent recevoir les renseignements émanant de tiers concernant toute pratique ou comportement des contrôleurs d’accès relevant du champ d’application du RMN (alinéas 14 et 15).

Enfin, l’article 27 modifie également la rédaction de l’article L. 490-9 du code de commerce, afin de prévoir spécifiquement la compétence du ministre chargé de l’économie pour adresser à la Commission européenne une demande d’ouverture d’enquête de marché en application de l’article 41 du RMN (alinéas 16 et 17).

III.   Les modifications apportées par le Sénat

L’article 27 n’a pas fait l’objet de modification lors de son examen au Sénat.

IV.   les modifications apportées par LA COMMISSION

L’article 27 n’a pas fait l’objet de modification lors de son examen en commission spéciale.

 

Chapitre IV
Mesures d’adaptation de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication

Article 28
Adaptations de la loi du 30 septembre 1986 relative à la liberté de communication au règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques

Adopté par la commission avec modifications

 

Le présent article procède à plusieurs adaptations de la terminologie utilisée dans la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication afin de tenir compte des notions utilisées dans le règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (ci-après « RSN »).

Il tire également les conséquences des compétences dévolues à l’Arcom en application du RSN en matière de lutte contre la désinformation et de lutte contre les contenus haineux.

Le présent article a été adopté par le Sénat avec plusieurs modifications apportant des précisions sur les compétences de l’Arcom.

Il a été adopté par la commission avec des modifications rédactionnelles.

  1.   Le droit en vigueur

A.   La terminologie utilisée dans les droits français et européen

 Les services de plateforme en ligne

Le i) de l’article 3 du RSN donne la définition suivante de la plateforme en ligne : « un service d’hébergement qui, à la demande d’un destinataire du service, stocke et diffuse au public des informations, à moins que cette activité ne soit une caractéristique mineure et purement accessoire d’un autre service ou une fonctionnalité mineure du service principal qui, pour des raisons objectives et techniques, ne peut être utilisée sans cet autre service, et pour autant que l’intégration de cette caractéristique ou de cette fonctionnalité à l’autre service ne soit pas un moyen de contourner l’applicabilité du présent règlement ».

Le droit français renvoie à une définition sensiblement différente, prévue à l’article L. 111-7 du code de la consommation, à savoir tout « service de communication au public en ligne reposant sur :

1° Le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers ;

2° Ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service. »

Les grands opérateurs de plateforme en ligne sont mentionnés à l’article L. 163‑1 du code électoral qui renvoie aux opérateurs mentionnés à l’article L. 111‑7 du code de la consommation « dont l’activité dépasse un seuil déterminé de nombre de connexions sur le territoire français ». Le décret n° 2017-1435 du 29 septembre 2017 a fixé ce seuil à cinq millions de visiteurs uniques par mois s’étant connectés à partir du territoire français.

Les articles L. 111-7 du code de la consommation et L. 163-1 du code électoral sont respectivement modifiés par les articles 26 et 30 du projet de loi.

 Les services de moteurs de recherche en ligne

Le j) de l’article 3 du RSN précité donne la définition suivante du moteur de recherche en ligne : « un service intermédiaire qui permet aux utilisateurs de formuler des requêtes afin d’effectuer des recherches sur, en principe, tous les sites internet ou tous les sites internet dans une langue donnée, sur la base d’une requête lancée sur n’importe quel sujet sous la forme d’un mot-clé, d’une demande vocale, d’une expression ou d’une autre entrée, et qui renvoie des résultats dans quelque format que ce soit dans lesquels il est possible de trouver des informations en rapport avec le contenu demandé ».

 Les services de plateforme de partage de vidéos

Les services de plateforme de partage de vidéos ne sont pas mentionnés dans le RSN. C’est le règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique (ci‑après « RMN ») et la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication qui en donnent les définitions.

L’article 2 du règlement RMN renvoie à la définition mentionnée à l’article 1er, paragraphe 1, point a bis([155]), de la directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels, soit : « un service […] pour lequel l’objet principal du service proprement dit ou d’une partie dissociable de ce service ou une fonctionnalité essentielle du service est la fourniture au grand public de programmes, de vidéos créées par l’utilisateur, ou des deux, qui ne relèvent pas de la responsabilité éditoriale du fournisseur de la plateforme de partage de vidéos, dans le but d’informer, de divertir ou d’éduquer, par le biais de réseaux de communications électroniques […] et dont l’organisation est déterminée par le fournisseur de la plateforme de partage de vidéos, à l’aide notamment de moyens automatiques ou d’algorithmes, en particulier l’affichage, le balisage et le séquencement ».

Les alinéas 7 à 11 de l’article 2 de la loi n° 86-1067 du 30 septembre 1986 en donnent une définition similaire puisque cet article est issu de la transposition de cette même directive, à savoir tout service répondant aux quatre conditions cumulatives suivantes :

« 1° Le service est fourni au moyen d’un réseau de communications électroniques ;

2° La fourniture de programmes ou de vidéos créées par l’utilisateur pour informer, divertir ou éduquer est l’objet principal du service proprement dit ou d’une partie dissociable de ce service, ou représente une fonctionnalité essentielle du service ;

3° Le fournisseur du service n’a pas de responsabilité éditoriale sur les contenus mentionnés au 2° mais en détermine l’organisation ;

4° Le service relève d’une activité économique. »

Les plateformes de partage de vidéos ne peuvent être considérées comme couvertes par le RSN (en tant que plateformes en ligne) que si elles stockent des contenus. L’étude d’impact annexée au présent projet de loi met en exergue cette différence de définition entre le RSN et le droit national : « toutes les plateformes de partage de vidéo[s] (PPV) ne sont pas nécessairement couvertes par le [RSN] car la définition des PPV ne mentionne pas le stockage des contenus (ex. une PPV de pur live streaming qui ne stocke pas les contenus qu’elle diffuse n’est pas strictement un hébergeur au sens du [RSN] et pourrait prétendre échapper aux obligations du règlement applicables aux hébergeurs/plateformes en ligne) ».

B.   Les « contrats climats »

L’article 14 de la loi n° 2021-1104 du 22 août 2021 portant lutte contre le dérèglement climatique et renforcement de la résilience face à ses effets (ci‑après « loi climat et résilience ») a chargé l’Arcom ([156]) de promouvoir des « codes de bonne conduite sectoriels et transversaux, appelés "contrats climats", afin de favoriser des pratiques plus responsables en matière de communications commerciales. Ces codes ont deux objectifs principaux :

– la réduction significative des communications commerciales relatives à des biens et services ayant un impact négatif sur l’environnement, en particulier en termes d’émissions de gaz à effet de serre, d’atteintes à la biodiversité et de consommation de ressources naturelles sur l’ensemble de leur cycle de vie ;

– la prévention des communications commerciales présentant favorablement l’impact environnemental de ces mêmes biens ou services (écoblanchiment, ou greenwashing).

Cet impact est mesuré au moyen de l’affichage environnemental prévu à l’article L. 541-9-11 du code de l’environnement, lorsque cet affichage environnemental est généralisé.

Selon un premier bilan de l’Arcom ([157]) publié en janvier 2023, 141 acteurs de la chaîne de valeur de la publicité avaient souscrit un contrat climat.

Le 12° de l’article 18 de la loi n° 86-1067 du 30 septembre 1986 précitée prévoit que le rapport annuel d’activité établi par l’Arcom comprend un bilan de l’efficacité des contrats climats, réalisé avec le concours de l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe). Ce bilan exhaustif sera réalisé en 2023 ([158]).

C.   Le contrôle des obligations des plateformes par l’Arcom

L’article 33 de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information confie à l’Arcom – à l’article 58 de la loi n° 86-1067 du 30 septembre 1986 – le soin de publier des recommandations aux opérateurs de plateforme en ligne afin d’améliorer la lutte contre la diffusion des fausses informations en période électorale. Elle assure leur suivi et publie un bilan périodique de leur application en recueillant auprès des opérateurs toutes les informations utiles à cette mission.

L’article 60 de la loi n° 86-1067 confie à l’Arcom la responsabilité de la supervision des activités des plateformes de partage de vidéos. Elle s’assure qu’ils mettent bien en œuvre, de façon transparente et équilibrée, leurs obligations de signalement et de modération des contenus.

L’article 42 de loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République qui assure une forme de pré-transposition du RSN dans le droit national en confiant à l’Arcom la supervision des plateformes en ligne en matière de lutte contre les contenus haineux (article 6-4 de la LCEN et article 62 de la loi n° 86-1067 du 30 septembre 1986) est applicable jusqu’au 31 décembre 2023. Cette date de fin d’application anticipée était justifiée par la nécessité de ne pas empiéter sur la date d’entrée en vigueur du RSN, initialement prévue au 1er janvier 2024.

II.   Le dispositif proposé

Le I de l’article 28 comporte diverses mesures d’adaptation de la loi n° 86‑1067 du 30 septembre 1986.

Aux et , l’article 28 procède à des modifications terminologiques au sein des articles 14 et 58 de la loi n° 86-1067, notamment pour substituer à la notion d’« opérateurs de plateforme en ligne », les notions utilisées dans le RSN (« fournisseurs de plateformes en ligne », « moteurs de recherche en ligne ») et à l’article 2 de la même loi (« plateformes de partage de vidéos »). À l’article 14 de la même loi sont ainsi citées ces trois notions (1°). Au premier alinéa de l’article 58 de la même loi, ce sont les deux notions utilisées dans le RSN qui sont citées (4°).

Ce même adapte également les deux autres alinéas de ce même article 58 au RSN en réaffirmant la compétence de l’Arcom dans la supervision des très grandes plateformes et des très grands moteurs de recherche s’agissant de l’évaluation et de l’atténuation du risque systémique de désinformation qu’ils doivent assurer et de la conformité de leurs engagements à ce titre. Ce contrôle se fait sur la base des informations communiquées par la Commission européenne, des audits indépendants évaluant ces engagements et des informations recueillies auprès de ces acteurs. Bien que la référence à la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information soit supprimée, l’Arcom conserve sa mission de publication d’un bilan périodique de l’application et de l’effectivité de ces mesures de conformité, puisqu’elle découle désormais du RSN.

Au , qui modifie l’article 18 de la loi n° 86-1067 du 30 septembre 1986, c’est la référence aux « contrats climats » qui est substituée à la définition de ces mêmes codes de bonne conduite.

Le supprime la référence à l’article L. 163-1 du code électoral dans l’intitulé du chapitre 1er du titre IV de la loi n° 86-1067 du 30 septembre 1986.

Le complète l’article 60 de la même loi afin de confirmer la compétence de l’Arcom pour superviser, y compris en utilisant ses pouvoirs d’enquête et d’injonction, le respect par les plateformes de partage de vidéos de leurs obligations prévues à la section IV du chapitre II du titre Ier de la LCEN.

Le II de l’article 28 modifie la date de fin d’application des dispositions prévues à l’article 42 de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République afin de tenir compte de la date d’entrée en vigueur du RSN le 17 février 2024.

III.   Les modifications apportées par le Sénat

L’article 28 du projet de loi a été adopté par le Sénat, modifié par trois amendements adoptés en commission spéciale à l’initiative de son rapporteur M. Loïc Hervé :

– un premier amendement ([159]) complète l’article 58 de la loi n° 86-1067 du 30 septembre 1986 afin d’étendre les compétences de l’Arcom décrites supra aux plateformes de partage de vidéos, par miroir avec les dispositions du projet de loi modifiant l’article 14 de la loi du 30 septembre 1986. Toutefois, cet amendement intègre à l’article 58 une définition des plateformes de partage de vidéos qui fait référence au RMN, définition par conséquent différente de celle prévue à l’article 14 qui fait référence à la définition de l’article 2 de la loi n° 86-1067 du 30 septembre 1986 ;

– un deuxième amendement ([160]) modifie également l’article 58 précité afin de préciser les contours du bilan périodique publié par l’Arcom en matière de lutte contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou d’altérer la sincérité d’un des scrutins mentionnés au premier alinéa de l’article 33‑1‑1 de la loi relative à la liberté de communication, c’est-à-dire l’élection du Président de la République, les élections générales des députés, l’élection des sénateurs, l’élection des représentants au Parlement européen et les opérations référendaires. Cet amendement complète également les mentions du RSN ;

un troisième amendement ([161]) modifie l’article 60 de la loi relative à la liberté de communication afin d’étendre la compétence de l’Arcom à la régulation de toutes les plateformes de partage de vidéos, y compris celles qui ne sont pas considérées comme des plateformes en ligne au sens du RSN parce qu’elles ne stockent pas de contenus.

IV.   Les modifications apportÉes par la commission

La commission spéciale a adopté l’article 28 modifié par quatre amendements rédactionnels du rapporteur général.

Chapitre V
Mesures d’adaptation de la loi relative à la lutte contre la
manipulation de l’information

Article 29
Abrogation de trois dispositifs de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information

Adopté par la commission avec modifications

 

Le présent article, dans sa version initiale, abroge les articles 11, 13 et 14 de la loi n° 2018‑1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information dont les dispositions sont couvertes par le règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (ci-après « RSN »).

Le présent article a été adopté par le Sénat avec une modification qui maintient l’obligation, pour les plateformes en ligne, de mettre en place un dispositif de signalement des fausses informations.

Par l’adoption d’un amendement de rédaction globale du dispositif présenté par le rapporteur général, la commission spéciale a rétabli le présent article dans sa version résultant du projet de loi initialement déposé par le Gouvernement.

  1.   Le droit en vigueur

A.   Le droit européen

Le considérant 9 du RSN rappelle qu’un des objets de ce règlement est d’ « harmonise[r] pleinement les règles applicables aux services intermédiaires dans le marché intérieur dans le but de garantir un environnement en ligne sûr, prévisible et de confiance, en luttant contre la diffusion de contenus illicites en ligne et contre les risques pour la société que la diffusion d’informations trompeuses ou d’autres contenus peuvent produire, et dans lequel les droits fondamentaux consacrés par la Charte ([162]) sont efficacement protégés et l’innovation est facilitée. »

Ainsi, le RSN enjoint aux fournisseurs de services intermédiaires d’agir contre les contenus illicites (article 9) et de fournir des informations sur les destinataires des services concernés (article 10). Ces injonctions sont assorties d’obligations de coopération (article 11) et de transparence (article 15).

Le considérant 9 précité rappelle également la nécessité d’adapter le droit national concernant ces matières. Il précise ainsi que « les États membres ne devraient pas adopter ou maintenir des exigences nationales supplémentaires concernant les matières relevant du champ d’application du présent règlement, sauf si le présent règlement le prévoit expressément, car cela porterait atteinte à l’application directe et uniforme des règles pleinement harmonisées applicables aux fournisseurs de services intermédiaires conformément aux objectifs du présent règlement. Cela ne devrait pas empêcher l’application éventuelle d’une autre législation nationale applicable aux fournisseurs de services intermédiaires […] lorsque les dispositions du droit national poursuivent d’autres objectifs légitimes d’intérêt général que ceux poursuivis par le présent règlement. »

B.   la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information

Le titre III de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information comprenant les articles 11 à 15 est relatif au devoir de coopération des opérateurs de plateforme en ligne en matière de lutte contre la diffusion de fausses informations.

L’article 11 contraint les opérateurs de plateforme en ligne à mettre en œuvre des mesures en vue de lutter contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou d’altérer la sincérité d’un des scrutins mentionnés au premier alinéa de l’article 33-1-1 de la loi n° 86-1067 30 septembre 1986 ([163]). À cette fin, ils mettent en place un dispositif permettant à leurs utilisateurs de signaler de telles informations, notamment lorsqu’elles sont issues de comptes de tiers.

Les mêmes opérateurs doivent également mettre en œuvre diverses mesures de régulation et de transparence sur leurs algorithmes, la promotion de contenus sponsorisés, la lutte contre les comptes propageant massivement de fausses informations, l’information des utilisateurs sur l’identité des personnes physiques ou morales leur versant des rémunérations en contrepartie de la promotion de contenus d’information se rattachant à un débat d’intérêt général, l’information des utilisateurs sur la nature, l’origine et les modalités de diffusion des contenus, l’éducation aux médias et à l’information. Ces mesures, ainsi que les moyens qu’ils y consacrent, sont rendus publics, ces informations étant transmises chaque année à l’Arcom.

L’article 13 prévoit que les opérateurs désignent un représentant légal exerçant les fonctions d’interlocuteur référent sur le territoire français pour l’application de leurs obligations de coopération en matière de lutte contre la diffusion de fausses informations et s’agissant de certaines infractions portant gravement atteinte à l’ordre public, constitutives de la haine en ligne ([164]). Pour ces infractions, la LCEN soumet les opérateurs à un régime de responsabilité renforcée en posant un principe de coopération de ces prestataires à la lutte contre les contenus les plus gravement réprimés.

L’article 14 contraint les opérateurs qui recourent à des algorithmes de recommandation, classement ou référencement de contenus d’information se rattachant à un débat d’intérêt général à publier des statistiques agrégées sur leur fonctionnement. Cette publication mentionne, d’une part, la part d’accès direct, sans recours aux algorithmes de recommandation, classement ou référencement, et, d’autre part, les parts d’accès indirects imputables à l’algorithme du moteur de recherche interne de la plateforme le cas échéant mais également aux autres algorithmes de recommandation, classement ou référencement de la plateforme qui sont intervenus dans l’accès aux contenus.

Ces statistiques sont publiées en ligne et accessibles à tous, dans un format libre et ouvert.

II.   Le dispositif proposé

L’article 29 du présent projet de loi abroge les articles 11, 13 et 14 de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information dont plusieurs dispositions sont couvertes par l’adoption du RSN.

III.   Les modifications apportées par le Sénat

L’article 29 du projet de loi a été adopté avec modifications par le Sénat.

Par l’adoption d’un amendement ([165]) du rapporteur M. Loïc Hervé, la commission spéciale a maintenu, dans le droit national, l’obligation – prévue aux deux premiers alinéas de l’article 11 de la loi n° 2018-1202 du 22 décembre 2018 précitée –, pour les plateformes en ligne, de mettre en place un dispositif de signalement des fausses informations.

Le rapporteur a estimé que le dispositif adopté devait constituer un signal pour plaider pour une « définition large de la notion de contenu illicite », conformément au considérant 12 du RSN.

IV.   Les modifications apportÉes par la commission

La commission spéciale a rétabli l’article 29 dans sa version résultant du projet de loi initial du Gouvernement. Un amendement de rédaction globale du dispositif, présenté par le rapporteur général (CS839), a en effet abrogé les articles 11, 13 et 14 du titre III de la loi  20181202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information.

Le règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (dit RSN) est d’harmonisation maximale, empêchant ainsi les États membres de conserver ou d’adopter des règles qui diffèrent ou vont au-delà de ce qu’il prescrit sur les sujets qu’il traite, ce qui comprend notamment les moyens de lutte contre la désinformation sur les plateformes en ligne. À cet égard, le RSN harmonise, à son article 16, les obligations relatives à la mise en place d’un système de signalement de contenus. Les deux premiers alinéas de l’article 11 de la loi n° 2018‑1202 du 22 décembre 2018 précitée ne peuvent donc être conservés dès lors qu’ils divergent d’avec l’article 16 du RSN.

Cette abrogation ne constitue pas un recul. En effet, même si le RSN n’impose pas de permettre le signalement de contenus de désinformation, cela est prescrit par le code de bonnes pratiques en matière de désinformation, dont le respect peut être rendu obligatoire pour les très grandes plateformes en application du RSN. Or, le champ des plateformes couvertes par l’article 11 de la loi n° 2018-1202 du 22 décembre 2018 précitée coïncide avec la liste des très grandes plateformes en ligne publiée par la Commission européenne. Ces plateformes devront donc continuer à permettre le signalement de contenus de désinformation après l’abrogation de la disposition en cause.

Chapitre VI
Mesures d’adaptation du code électoral

Article 30
Rehaussement du seuil de connexions à partir duquel s’applique l’obligation, en période électorale, de tenue par les opérateurs de plateforme en ligne d’un registre public assurant la transparence sur les commanditaires de la publicité en ligne

Adopté par la commission sans modification

Le présent article met en cohérence l’article L. 163-1 du code électoral avec le règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (dit règlement « RSN », ou « DSA » en anglais pour Digital Services Act).

Il a pour effet de rehausser le seuil de connexions à partir duquel les opérateurs de plateforme en ligne sont obligés de tenir un registre public, en période électorale, pour la transparence de la publicité en ligne.

Il vise également à enrichir le contenu de ce registre public.

Cet article a été adopté par le Sénat sans modification.

Il a également été adopté par la commission sans modification.

I.   le droit en vigueur

Le droit interne comme le droit européen imposent des obligations de transparence aux opérateurs de plateforme concernant la publicité en ligne.

Il est notamment prévu la tenue d’un registre public en vue d’assurer la transparence des commanditaires de la publicité en ligne :

– par le droit interne, en période électorale, lorsque l’activité de l’opérateur dépasse 15 millions de visiteurs uniques mensuels à partir du territoire français ;

– et par le droit européen, lorsque l’activité de l’opérateur dépasse 45 millions de destinataires actifs mensuels à partir du territoire de l’Union européenne (UE).

A.   L’OBLIGATION de transparence des plateformes en ligne, prévue par le code électoral, en matière de publicité

● L’article L. 163-1 du code électoral a été créé par la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information (dite « loi Infox »).

Il soumet les plus grands opérateurs de plateforme en ligne à des obligations de transparence relatives aux commanditaires qui leur versent des rémunérations en contrepartie de la promotion de contenus d’information se rattachant à un débat d’intérêt général. Ces obligations s’appliquent pendant les trois mois précédant le premier jour du mois d’élections générales des députés et jusqu’à la date du tour de scrutin où celles-ci sont acquises.

Elles sont également applicables, au cours de la même période :

– aux élections sénatoriales (par renvoi de l’article L. 306 du code électoral) ;

– aux élections européennes (par renvoi de l’article 14-2 de la loi n° 77-729 du 7 juillet 1977 relative à l’élection des représentants au Parlement européen) ;

– aux opérations référendaires (par renvoi de l’article L.558-46 du code électoral) ;

– et à l’élection du Président de la République (en application de l’article 3, ayant valeur organique, de la loi n° 62-1292 du 6 novembre 1962 relative à l’élection du Président de la République au suffrage universel).

● Les opérateurs de plateforme en ligne visés sont tenus de fournir à l’utilisateur une information loyale, claire et transparente :

– sur l’identité de la personne physique ou morale qui leur verse des rémunérations en contrepartie de la promotion de contenus d’information se rattachant à un débat d’intérêt général ;

– et sur l’utilisation de ses données personnelles dans le cadre de la promotion d’un contenu d’information se rattachant à un débat d’intérêt général.

Ils doivent aussi rendre public le montant des rémunérations reçues en contrepartie de la promotion de tels contenus d’information.

Ces informations sont agrégées au sein d’un registre mis à la disposition du public par voie électronique, dans un format ouvert, et régulièrement mis à jour au cours de la période précédant le scrutin.

Ce dispositif de transparence s’applique aux opérateurs de plateforme en ligne dont l’activité dépasse un seuil – déterminé par le décret n° 2017-1435 du 29 septembre 2017 – de cinq millions de visiteurs uniques par mois s’étant connectés à partir du territoire français.

En application de l’article L. 112 du code électoral, les personnes physiques ne satisfaisant pas aux règles fixées à l’article L. 163-1 du même code encourent une peine d’un an d’emprisonnement et de 75 000 euros d’amende. Pour les personnes morales, le montant de l’amende peut atteindre le quintuple de celui prévu pour les personnes physiques.

B.   l’obligation de Transparence des plateformes en ligne prévue par le règlement sur les services numériques en matière de publicité

● L’article 26 du règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (dit RSN, ou DSA en anglais pour Digital Services Act) impose aux opérateurs de plateforme en ligne de publier les informations sur les personnes pour le compte desquelles une publicité est diffusée et sur les paramètres utilisés pour déterminer les personnes qui seront exposées à cette publicité.

L’article 26 du RSN entrera en vigueur le 17 février 2024.

● L’article 39 du RSN prévoit un dispositif de transparence renforcée pour les « très grandes plateformes en ligne » et les « très grands moteurs de recherche en ligne », avec notamment la tenue d’un registre mettant à disposition du public une liste d’informations, dont l’identité de la personne physique ou morale pour le compte de laquelle la publicité est présentée ainsi que le nombre total de destinataires du service atteint et, le cas échéant, les nombres totaux ventilés par État membre pour le ou les groupes de destinataires que la publicité ciblait spécifiquement.

La liste des informations devant figurer au registre public n’est pas limitative. L’article 39 précité accorde la faculté aux États membres de la compléter.

Les très grandes plateformes et les très grands moteurs de recherche en ligne sont définis comme ceux « qui ont un nombre mensuel moyen de destinataires actifs du service dans l’Union égal ou supérieur à 45 millions » (article 33 du RSN).

L’article 39 du RSN est entré en vigueur le 25 août 2023.

Le 25 avril 2023, une première liste renseignant ces grands acteurs en ligne a été publiée sur le site de la Commission européenne, comprenant :

– dix-sept très grandes plateformes : Alibaba AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube et Zalando ;

– et deux très grands moteurs de recherche : Bing et Google Search.

II.   le Dispositif proposé

● Le Gouvernement a d’abord envisagé de proposer au Parlement de supprimer l’article L. 163-1 du code électoral dans la mesure où le RSN prévoit un dispositif de transparence pour la publicité en ligne, rendant en partie sans objet le dispositif spécifique de droit interne prévu en période électorale.

Dans son avis (point n° 67), le Conseil d’État a toutefois souligné que, dans le règlement européen, « aucune obligation spécifique […] n’est mise à la charge de ces acteurs en période électorale sur les questions se rattachant à un débat d’intérêt général ».

Il a dès lors estimé qu’il était « préférable […] de ne pas procéder à l’abrogation de l’article L. 163-1 » du code électoral. Il a proposé « sa modification afin qu’il prévoi[e], jusqu’à l’entrée en vigueur du futur cadre européen de la publicité politique, que la liste non limitative des informations figurant au sein du registre prévu par l’article 39 du règlement « DSA » est complétée, ainsi que le permet ce règlement lorsqu’un intérêt général est, comme ici, présent, durant les périodes électorales, par les informations supplémentaires qu’il énumère ».

Le dispositif proposé par le Gouvernement retient la suggestion du Conseil d’État et modifie l’article L. 163-1 du code électoral pour le mettre en cohérence avec le RSN.

 En premier lieu, il remplace dans l’article L. 163-1 la notion d’« opérateurs de plateforme en ligne au sens de l’article L 111-7 du code de la consommation » par celle de « très grandes plateformes en ligne et [de] très grands moteurs de recherche en ligne au sens de l’article 33 » du RSN.

Une telle modification a dès lors pour effet de réserver ce dispositif de transparence aux opérateurs qui atteignent un nombre mensuel moyen de destinataires actifs du service dans l’Union européenne égal ou supérieur à 45 millions.

Pour les autres opérateurs, seul le dispositif de transparence de l’article 26 du RSN s’appliquera, à compter du 17 février 2024, si bien qu’ils ne seront plus contraints de tenir un registre public.

Le présent article a donc pour effet d’opérer un rehaussement du seuil de connexions à partir duquel les opérateurs de plateforme en ligne seront obligés de tenir un registre public, en période électorale, pour la transparence de la publicité en ligne (45 millions de destinataires actifs par mois sur le territoire de l’UE au lieu de 5 millions de visiteurs uniques mensuels sur le territoire français).

Il convient toutefois de rappeler qu’un règlement européen relatif à la transparence et au ciblage de la publicité à caractère politique sera bientôt adopté et devrait prévoir des obligations spécifiques en période électorale s’appliquant à davantage d’opérateurs de plateforme en ligne, dont la tenue d’un registre.

 En second lieu, le présent article mentionne le « registre prévu à l’article 39 de ce règlement », lequel devra comprendre les informations complémentaires énumérées à l’article L. 163-1 du code électoral.

Il s’ensuit que les très grandes plateformes et très grands moteurs de recherche en ligne devront tenir un registre au contenu renforcé par rapport à celui prévu par le droit européen à l’article 39 du RSN, conformément à la suggestion du Conseil d’État.

Ce registre devra ainsi mentionner, en application des alinéas maintenus de l’article 163-1 du code électoral, le montant des rémunérations reçues en contrepartie de la promotion des contenus publicitaires ainsi qu’une information loyale, claire et transparente sur l’utilisation des données personnelles de l’utilisateur. Ces deux informations ne sont pas prévues par l’article 39 du RSN.

III.   les Modifications apportées par le sénat

Le présent article a été adopté par le Sénat sans modification.

IV.   Les modifications apportÉes par la commission

La commission a adopté cet article sans modification.

Chapitre VII
Mesures d'adaptation de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés

Article 31
Adaptations de la loi « informatique et libertés » au règlement européen portant sur la gouvernance européenne des données

Adopté par la commission avec modifications

Le présent article adapte la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés au règlement (UE) 2022/868 du Parlement européen et du Conseil du 30 mai 2022 portant sur la gouvernance européenne des données et modifiant le règlement (UE) 2018/1724.

Il désigne la Commission nationale de l’informatique et des libertés (Cnil) comme autorité nationale responsable du contrôle des « organisations altruistes en matière de données » instituées par le règlement européen précité. Il lui confie à ce titre de nouvelles attributions, dont la responsabilité d’un « registre public national des organisations altruistes en matière de données reconnues ».

Le présent article a été adopté par le Sénat modifié par un amendement ayant apporté des clarifications rédactionnelles et précisé les nouvelles prérogatives de la Cnil.

Le présent article a été adopté par la commission modifié par des amendements de portée rédactionnelle.

I.   le droit en vigueur

A.   le Droit interne

Les données à caractère personnel font l’objet d’une protection constitutionnelle au titre du droit au respect à la vie privée, lequel découle de la liberté proclamée comme droit naturel et imprescriptible de l’homme par l’article 2 de la Déclaration des droits de l’homme et du citoyen du 26 août 1789 ([166]).

La loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés –  ci-après « loi informatique et libertés » – définit le régime de protection en droit interne des données à caractère personnel.

L’article 8 de la loi « informatique et libertés » a institué une Commission nationale de l’informatique et des libertés (Cnil), autorité administrative indépendante qui a notamment pour mission de contrôler les traitements de données à caractère personnel.

La Cnil, composée de dix-huit membres, comprend une formation restreinte composée d’un président et de cinq autres membres élus par la Commission en son sein (article 9 de la loi « informatique et libertés »).

L’article 16 de cette même loi attribue un pouvoir de sanction à la formation restreinte de la Cnil à l’encontre des responsables de traitements de données, ou de leurs sous-traitants, en cas de manquement à leurs obligations. Les articles 20 et suivants de la même loi prévoient diverses mesures correctrices et de sanction et définissent le rôle du président de la Cnil.

B.   le Droit européen

Le règlement (UE) 2022/868 du Parlement européen et du Conseil du 30 mai 2022 portant sur la gouvernance européenne des données et modifiant le règlement (UE) 2018/1724 (ci-après « Data Gouvernance Act » ou DGA) est entré en vigueur le 24 septembre 2023.

À rebours d’autres réglementations européennes qui tendent à en limiter les usages, le DGA autorise une plus large circulation des données personnelles à des fins d’intérêt général, sous réserve du consentement des personnes concernées.

Le DGA a pour objectif de « contribuer à l’émergence de réserves de données d’une taille suffisante mises à disposition sur le fondement de l’altruisme en matière de données pour permettre l’analyse des données et l’apprentissage automatique » (point n° 45).

Il prévoit la création d’un label « organisation altruiste en matière de données reconnue dans l’Union » permettant à des entités, inscrites sur un registre public, d’exploiter des données personnelles communiquées par les personnes concernées en ayant exprimé un consentement altruiste.

Pour ce faire, le DGA prévoit :

– l’obligation pour chaque État membre de désigner une ou plusieurs autorités responsables du registre public national des organisations altruistes en matière de données reconnues (article 23) ;

– et la mise en place d’un formulaire européen de consentement à l’altruisme en matière de données (article 25).

II.   le Dispositif proposé

Le présent article modifie la loi « informatique et libertés » pour l’adapter au DGA.

Il complète l’article 8 de la loi « informatique et libertés » pour confier à la Cnil le rôle d’autorité nationale responsable du registre public national des organisations altruistes en matière de données.

Il ajoute dans la même loi un nouveau titre intitulé « Dispositions relatives à l’altruisme en matière de données ».

Ce nouveau titre comporte trois articles, numérotés de 124-1 à 124-3.

L’article 124-1 dispose que la Cnil est responsable du registre public national et qu’elle traite les demandes d’enregistrement à ce registre.

L’article 124-2 prévoit que la Cnil peut contrôler les organisations altruistes en matière de données et les sanctionner en cas de manquement.

Enfin, l’article 124-3 énonce que la Cnil reçoit et instruit les réclamations présentées par toute personne concernant l’altruisme en matière de données.

III.   les Modifications apportées par le sénat

Le Sénat a adopté le présent article modifié par un amendement présenté par le rapporteur M. Loïc Hervé lors de l’examen du texte en commission (COM-145 rect.).

L’amendement adopté a procédé à diverses clarifications rédactionnelles aux articles 8 et 16 de la loi « informatique et libertés » concernant les prérogatives de la Cnil et de sa formation restreinte.

Ce même amendement a complété le dispositif en insérant un article 20-1 dans la loi « informatique et libertés » qui :

– instaure un droit de communication au bénéfice des membres et agents habilités de la Cnil pour le contrôle de l’application du DGA ;

– organise une procédure contradictoire pour la constatation des manquements, avec des possibilités de recours ;

– et prévoit un régime de sanctions comprenant les sanctions prévues par le DGA (perte du label et radiation du registre des organisations altruistes, amendes administratives) ; le montant maximal de l’amende administrative est celui prévu au 4 de l’article 83 du règlement général sur la protection des données (RGPD), soit 10 millions d’euros ou, dans le cas d’une entreprise, 2 % du chiffre d’affaires annuel mondial.

IV.   Les modifications apportÉes par la commission

La commission a adopté le présent article modifié par deux amendements rédactionnels présentés par les rapporteurs (CS612 et CS613).

Article 32
Adaptations de la loi « informatique et libertés » au règlement européen sur les services numériques

Adopté par la commission avec modifications

Le présent article adapte la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés au règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (dit RSN, ou DSA en anglais pour Digital Services Act).

Il confie à la Commission nationale de l’informatique et des libertés (Cnil) diverses attributions nouvelles pour contrôler le respect par les fournisseurs de plateforme en ligne des obligations instituées par le RSN en matière de ciblage publicitaire.

Le présent article a été adopté par le Sénat avec plusieurs modifications.

La commission a adopté le présent article avec plusieurs modifications sur le régime de l’astreinte journalière que la Cnil peut imposer dans le cadre d’une injonction provisoire.

I.   le droit en vigueur

A.   le Droit européen

Le règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (dit RSN, ou DSA en anglais pour Digital Services Act) entrera en vigueur le 17 février 2024.

Il prévoit, aux articles 26 et 28, trois obligations nouvelles, imposées aux fournisseurs de plateforme en ligne, relatives à l’usage de données en matière de ciblage publicitaire :

– une obligation de transparence sur les paramètres de ciblage publicitaire ;

– une interdiction du ciblage publicitaire basé sur des données personnelles sensibles ;

– et une interdiction du ciblage publicitaire à destination des mineurs.

L’article 49 impose aux États membres de désigner une ou plusieurs autorités compétentes pour l’application du règlement.

B.   le Droit interne

Les données à caractère personnel font l’objet d’une protection constitutionnelle au titre du droit au respect à la vie privée, lequel découle de la liberté proclamée comme droit naturel et imprescriptible de l’Homme par l’article 2 de la Déclaration des droits de l’homme et du citoyen du 26 août 1789 ([167]).

La loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés –  ci-après désignée « loi informatique et libertés » – définit le régime de protection en droit interne des données à caractère personnel.

Comme cela a été rappelé dans le cadre du commentaire de l’article 31, plusieurs articles de cette loi portent sur la Commission nationale de l’informatique et des libertés (Cnil), autorité administrative indépendante :

– l’article 8 lui confie notamment pour mission de contrôler les traitements de données à caractère personnel ;

– l’article 9 précise que la Cnil est composée de dix-huit membres et comprend une formation restreinte composée d’un président et de cinq autres membres élus par la commission en son sein ;

– l’article 16 lui attribue un pouvoir de sanction à la formation restreinte de la Cnil à l’encontre des responsables de traitements de données, ou de leurs sous-traitants, en cas de manquement à leurs obligations ;

– l’article 19 organise les modalités de contrôle, par les membres et les agents habilités de la Cnil, de la mise en œuvre des traitements de données ; il permet les visites de locaux ; le droit de visite s’exerce après information préalable du procureur de la République ou, si tout ou partie des lieux visités est affecté à un domicile privé, sur autorisation du juge des libertés et de la détention (JLD) ; le responsable des lieux est informé de la visite et dispose d’un droit d’opposition ; lorsqu’il exerce ce droit, la visite suppose l’autorisation du JLD ; la visite des locaux peut, par exception, être réalisée sans information préalable du responsable des lieux lorsque « l’urgence, la gravité à des faits à l’origine du contrôle ou le risque de destruction ou de dissimulation de documents » le justifie, et uniquement avec l’autorisation du JLD ; au cours de la visite, les agents de la Cnil peuvent avoir communication de tous documents nécessaires à l’accomplissement de leur mission ou encore accéder aux programmes informatiques et aux données ;

– les articles 20 et suivants prévoient diverses mesures correctrices et de sanction et définissent le rôle du président de la Cnil en la matière ;

– l’article 22 donne à la formation restreinte de la Cnil le pouvoir de prononcer des mesures de sanction, y compris des amendes, sur la base d’un rapport établi par l’un de ses membres ; elle peut rendre publiques ces mesures et exiger l’information des personnes concernées sur les violations constatées, aux frais de l’auteur du manquement ;

– enfin, l’article 22-1 permet au président de la Cnil d’engager des poursuites selon une procédure simplifiée dans certains cas spécifiques de manquement

II.   le Dispositif proposÉ

● Le présent article modifie la loi « informatique et libertés » pour l’adapter au RSN.

Il complète l’article 8 de la loi « informatique et libertés » pour confier à la Cnil le rôle d’autorité nationale responsable pour la surveillance des fournisseurs de plateformes en ligne au titre de leurs obligations issues du RSN en matière de ciblage publicitaire.

Il modifie les articles 19, 20, 22 et 22-1 de la même loi pour adapter les pouvoirs de la Cnil à cette nouvelle mission.

Il ajoute dans la même loi un nouveau titre intitulé « Dispositions applicables aux fournisseurs de plateformes relevant du règlement (UE) 2022/2065 du 19 octobre 2022 ».

Ce nouveau titre comporte deux articles numérotés 124-4 et 124-5.

L’article 124-4 énonce que le titre inséré s’applique sans préjudice des autres dispositions de la loi « informatique et libertés » et du RGDP.

L’article 124-5 désigne la Cnil en tant qu’autorité compétente pour veiller au respect par les fournisseurs de plateforme en ligne qui ont leur établissement principal en France, ou dont le représentant légal réside en France, des obligations énoncées par le RSN relatives à la transparence des paramètres de ciblage ainsi qu’à l’interdiction du ciblage publicitaire basé sur des données personnelles sensibles ou à destination des mineurs.

Il précise, pour ce faire, que la Cnil dispose des pouvoirs prévus aux articles 19, 20, 22 et 22-1 de la loi « informatique et libertés ».

● Il crée, ce faisant, des pouvoirs d’enquête particuliers, limités à la mise en œuvre du RSN, et un régime spécifique de sanctions.

En premier lieu, il accorde à la Cnil un pouvoir de saisie des documents pertinents ainsi que la possibilité d’entendre les membres du personnel du fournisseur et de ses sous-traitants, en enregistrant leurs réponses avec leur consentement.

En deuxième lieu, le présent article prévoit que le président de la Cnil peut émettre des « avertissements » en cas de soupçon de manquement. Il peut également accepter des engagements de mise en conformité des fournisseurs et les rendre contraignants.

En complément, à défaut de mise en conformité, le président de la Cnil peut saisir la formation restreinte pour prononcer les sanctions suivantes : rappel à l’ordre, injonction de mise en conformité avec astreinte (plafonnée à 5 % des revenus ou du chiffre d’affaires mondial journalier moyen du fournisseur concerné), et amende administrative (plafonnée à 6 % du chiffre d’affaires mondial de l’exercice précédent).

Enfin, le présent article permet au président de la Cnil d’adopter des injonctions à caractère provisoire en cas de manquement aux règles issues du RSN susceptibles de « créer un dommage grave ».

III.   les Modifications apportÉes par le sÉnat

Le Sénat a adopté le présent article modifié par neuf amendements présentés par le rapporteur M. Loïc Hervé lors de l’examen du texte en commission, et par un amendement en séance présenté par le même auteur.

Outre six amendements portant des clarifications rédactionnelles ([168]), la commission a adopté trois amendements.

Un premier amendement a étendu la possibilité donnée à la Cnil d’interroger les personnels des entités contrôlées (COM-148). Cet amendement confère cette prérogative à la Cnil pour le contrôle de l’ensemble de la loi « informatique et libertés », et non pas seulement pour les obligations issues du RSN.

Un deuxième amendement a étendu les modalités de prononcé de la nouvelle injonction à caractère provisoire par la Cnil (COM-154). Cette injonction pourra ainsi être prononcée pour tout manquement susceptible d’être sanctionné par la Cnil, et non pas seulement pour les obligations issues du RSN. Il a également précisé que ces injonctions provisoires pourront s’accompagner d’une astreinte, plafonnée à 10 000 euros par jour.

Un dernier amendement a encadré et étendu le nouveau pouvoir de saisie de la Cnil (COM-147). Il permet de généraliser le nouveau pouvoir de saisie confié à la Cnil afin qu’il puisse s’appliquer pour le contrôle de l’ensemble de la loi « informatique et libertés », et non pas seulement pour les obligations issues du RSN.

Selon le rapport de la commission spéciale du Sénat, « l’harmonisation des pouvoirs d’enquête et de sanction de la Cnil, conforme aux souhaits exprimés par la présidente de la Commission lors de son audition, facilitera l’exercice par ses agents de leurs prérogatives et permettra de disposer d’outils plus performants pour garantir le respect non seulement du RSN, mais aussi des règles nationales, du DGA et du RGPD ».

L’amendement adopté en séance (n° 141), avec avis favorable du Gouvernement, a précisé qu’en cas de saisie de données lors de la visite des locaux, la Cnil doit informer le procureur de la République ou, le cas échéant, le JLD si ce dernier a autorisé la visite. L’un comme l’autre peuvent s’opposer à la saisie.

IV.   Les modifications apportées par la commission

La commission a adopté le présent article modifié par deux amendements, ainsi que par un amendement rédactionnel présenté par les rapporteurs (CS614).

En premier lieu, la commission a adopté un amendement, présenté par Mme Clara Chassaniol (RE) ayant pour objet de réintroduire la possibilité, supprimée par le Sénat, de calculer le montant de l’astreinte journalière que peut imposer l’autorité de contrôle à un fournisseur de plateforme en ligne en fonction de ses revenus (CS827).

En second lieu, la commission a adopté un amendement, présenté par Mme Ségolène Amiot (LFI-NUPES), qui a porté le montant maximal de l’astreinte encourue au montant maximal de l’amende encoure, soit 5 % du chiffre d’affaires mondial hors taxes journalier moyen réalisé par le mis en cause au cours du dernier exercice clos, à compter de la date figurant dans l’injonction (CS470).

Chapitre VIII
Mesures d’adaptation de la loi n° 47-585 du 2 avril 1947 relative au statut des entreprises du groupage et de distribution des journaux et publications périodiques

Article 33
Adaptations de la loi du 2 avril 1947 relative au statut des entreprises du groupage et de distribution des journaux et publications périodiques

Adopté par la commission avec modification

Le présent article adapte la législation nationale au règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (ci-après « RSN ») au regard de la suppression de la définition des opérateurs de plateformes et de ses conséquences sur la loi n° 47-585 du 2 avril 1947 relative au statut des entreprises de groupage et de distribution de journaux et publications périodiques (ci-après « loi Bichet »), en particulier son article 15 qui porte sur la diffusion numérique de la presse via des kiosques numériques et des agrégateurs de presse en ligne.

Le présent article a été adopté par le Sénat sans modification.

Il a été adopté par la commission avec une modification rédactionnelle.

  1.   Le droit en vigueur

A.   La loi n° 47-585 du 2 avril 1947 relative au statut des entreprises de groupage et de distribution de journaux et publications périodiques

La loi n° 47-585 du 2 avril 1947 relative au statut des entreprises de groupage et de distribution de journaux et publications périodiques (« loi Bichet ») organise de façon très spécifique la distribution de la presse en France par rapport aux autres pays de l’Union européenne. Elle pose trois principes fondamentaux régissant l’organisation de la vente au numéro : la liberté de diffuser, le principe de groupage, et l’égalité de traitement entre les éditeurs.

La loi Bichet est une des grandes lois issues des travaux du Conseil national de la Résistance. Son objectif était de créer un cadre de distribution de la presse sans discrimination sur l’ensemble du territoire à une époque où la distribution papier de la presse constituait le principal canal de diffusion de l’information.

La loi n° 2019-1 063 du 18 octobre 2019 relative à la modernisation de la distribution de la presse distingue trois catégories de presses pour l’accès au réseau de distribution ([169]) :

– la presse d’information politique et générale (dite IPG), qui dispose d’un droit à être distribuée dans tout le réseau de vente, sans que le diffuseur puisse s’y opposer ;

– les publications enregistrées sur les registres de la commission paritaire des publications et agences de presse (CPPAP), qui sont distribuées dans le cadre de règles d’assortiment définies par les acteurs de la filière presse ;

– les magazines ne justifiant pas de numéro d’enregistrement CPPAP, qui voient leur accès au réseau de distribution soumis à un dialogue commercial entre les sociétés de distribution (les messageries de presse) et les points de vente.

Les éditeurs de presse bénéficient d’un système d’aides publiques au numéro porté par ces messageries de presse.

B.   L’article 15 de la loi Bichet issu de la lOI n° 2019-1 063 du 18 octobre 2019 relative à la modernisation de la distribution de la presse

 Les kiosques numériques

Le I de l’article 15 de la loi Bichet, dans sa rédaction issue de la loi n° 2019‑1063 du 18 octobre 2019 relative à la modernisation de la distribution de la presse, prévoit une application aux kiosques numériques des grands principes qui ne s’appliquaient jusqu’alors qu’aux seuls kiosques physiques.

Dès lors qu’ils n’ont pas vocation à diffuser les titres d’un seul éditeur et qu’ils diffusent déjà au moins un titre de presse IPG, les kiosques numériques sont tenus de diffuser tous les titres de presse IPG qui en feraient la demande. Les éditeurs demeurent libres de ne pas être diffusés par ce biais mais, s’ils le souhaitent, ils peuvent accéder à ces services à des conditions techniques et financières raisonnables.

Les kiosques numériques y sont par ailleurs définis juridiquement comme étant « les personnes qui proposent, à titre professionnel, un service de communication au public en ligne assurant la diffusion numérique groupée de services de presse en ligne ou de versions numérisées de journaux ou publications périodiques ». Tous les kiosques numériques ne sont donc pas concernés par cette même loi.

 Les agrégateurs de presse en ligne

Le II de l’article 15 de la loi Bichet impose des obligations de transparence renforcées aux agrégateurs d’informations en ligne à propos de leurs choix de classement et de référencement des contenus extraits de publications de presse IPG. Les agrégateurs sont ainsi soumis à des obligations d’information des internautes de façon loyale, claire et transparente :

– sur les conditions d’utilisation du service proposé et les modalités de référencement et de déréférencement des contenus ; sur l’existence d’une relation contractuelle, d’un lien capitalistique ou d’une rémunération à son profit, dès lors qu’ils influencent le classement ou le référencement des contenus ; sur la qualité de l’annonceur et les droits et obligations des parties (mentions prévues au II de l’article L. 111-7 du code de la consommation) ;

–  et sur l’utilisation qui est faite de leurs données personnelles dans le cadre du traitement algorithmique des contenus proposés à chacun.

Les agrégateurs établissent chaque année des éléments statistiques – qu’ils rendent publics –  relatifs aux titres, aux éditeurs et au nombre de consultations de ces contenus.

II.   Le dispositif proposé

Le présent article 33 modifie le II de l’article 15 de la loi n° 47‑585 du 2 avril 1947 précitée.

Le I de l’article L. 111-7 du code de la consommation est abrogé par l’article 26 du présent projet de loi. En conséquence, le 1° du présent article 33 modifie le premier alinéa du II de l’article de l’article 15 de la loi n° 47-585 du 2 avril 1947 précitée afin de substituer à la référence aux « opérateurs de plateformes en ligne mentionnés au I de l’article L. 111-7 du code de la consommation », la référence aux « personnes physiques ou morales proposant, à titre professionnel, un service de communication au public en ligne ». Contrairement aux autres articles du présent projet de loi qui comportent des substitutions terminologiques afin de couvrir les « services de plateformes en ligne » définis à l’article 3 du règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (RSN), le présent article 33 ne peut définir les agrégateurs comme des plateformes en ligne dès lors que ces agrégateurs participent à la diffusion de contenus mais sans assurer leur stockage.

Le 2° du présent article 33 complète la définition de l’agrégateur de presse afin de préciser que son fonctionnement repose sur le classement ou le référencement «au moyen d’algorithmes informatiques » de publications de presse (leur champ étant inchangé).

L’abrogation du I de l’article 111-7 du code de la consommation conduit par ailleurs à modifier la référence à ce même I au second alinéa du II de l’article 15 (3° du présent article 33).

L’article L. 111-7-1 du code de la consommation est abrogé par l’article 26 du présent projet de loi. En conséquence, au 4° du présent article 33, la référence à cet article au second alinéa du II de l’article 15 de la loi Bichet, qui désigne l’autorité compétente pour son application, est remplacée par la référence à l’article L. 522-1 du code de la consommation, qui mentionne explicitement l’autorité administrative chargée de la concurrence et de la consommation.

III.   Les modifications apportées par le Sénat

L’article 33 du projet de loi a été adopté sans modification par le Sénat.

IV.   Les modifications apportÉes par la commission

La commission spéciale a adopté l’article 33 modifié par un amendement rédactionnel du rapporteur général.

Chapitre IX
Mesures d’adaptation de la loi n° 2017-261 du 1er mars 2017 visant à préserver l’éthique du sport, à renforcer la régulation et la transparence du sport professionnel et à améliorer la compétitivité des clubs, du code de la propriété intellectuelle, de la loi  2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique et du code pénal

Article 34
Adaptations de la loi du 1er mars 2017 visant à préserver l’éthique du sport, du code de la propriété intellectuelle, de la loi du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles et du code pénal

Adopté par la commission avec modification

Le présent article adapte plusieurs articles à la terminologie utilisée dans le règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (RSN), à savoir des articles : de la loi n° 2017-261 du 1er mars 2017 visant à préserver l’éthique du sport, à renforcer la régulation et la transparence du sport professionnel et à améliorer la compétitivité des clubs ; du code de la propriété intellectuelle ; de la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère du numérique ; et du code pénal. Il s’agit pour l’essentiel de substituer la référence aux « opérateurs de plateforme en ligne » à plusieurs autres références.

Le présent article a été adopté par le Sénat avec une modification portant sur la « rémunération appropriée » des auteurs cédant leurs droits exclusifs pour l’exploitation de leurs œuvres, en lien avec la directive 2019/790 du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique.

Il a été adopté par la commission avec une modification rédactionnelle.

  1.   Le droit en vigueur

Le présent article procède à plusieurs coordinations juridiques afin de tenir compte, d’une part, de l’adoption du règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (ci-après « RSN ») et, d’autre part, des modifications du droit national opérées par les articles 22 et 26 du présent projet de loi (voir leurs commentaires supra).

L’article 22 du présent projet de loi réécrit l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (ci-après « LCEN ») afin de l’adapter au champ et aux définitions du RSN.

L’article 26 du présent projet de loi abroge le I de l’article L. 111-7 du code de la consommation qui définit les opérateurs de plateforme en ligne. La définition des « plateformes en ligne » mentionnée à l’article 3 du RSN est insérée à l’article liminaire du code de la consommation.

Par ailleurs, l’article 28 du présent projet de loi procédant à plusieurs modifications terminologiques, son commentaire (voir supra) fournit les définitions des « fournisseurs de plateformes en ligne », des « moteurs de recherche » et des « plateformes de partage de vidéo », qui couvrent actuellement, dans le droit national, le champ des « opérateurs de plateformes en ligne ».

● L’article 24 de la loi n° 2017-261 du 1er mars 2017 visant à préserver l’éthique du sport, à renforcer la régulation et la transparence du sport professionnel et à améliorer la compétitivité des clubs (ci-après «  loi visant à préserver l’éthique du sport ») prévoit que les détenteurs de droits d’exploitation sur des contenus audiovisuels, parmi lesquels peuvent figurer les opérateurs de plateformes en ligne définis à l’article L. 111-7 du code de la consommation, peuvent conclure un ou plusieurs accords relatifs aux mesures et bonnes pratiques qu’ils s’engagent à mettre en œuvre en vue de lutter contre la promotion, l’accès et la mise à la disposition au public en ligne, sans droit ni autorisation – en substance, le piratage –, de contenus audiovisuels dont les droits d’exploitation ont fait l’objet d’une cession.

● L’article L. 137-2 du code de la propriété intellectuelle précise les modalités d’exploitation d’œuvres par les fournisseurs de services de partage de contenus en ligne.

● L’article L. 219-2 du même code comprend des dispositions relatives à l’exploitation des objets protégés par un droit voisin par les fournisseurs de services de partage de contenus en ligne.

● L’article 36 de la loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique permet aux autorités administratives indépendantes et aux autorités publiques indépendantes qui interviennent dans la régulation des opérateurs de plateformes en ligne définis à l’article L. 111-7 du code de la consommation de recourir, dans le cadre de conventions, à l’expertise et à l’appui d’un service administratif de l’État désigné par décret en Conseil d’État, le pôle d’expertise de la régulation numérique (PEReN).

● L’article 323-3-2 du code pénal permet de sanctionner un opérateur de plateforme en ligne mentionné à l’article L. 111-7 du code de la consommation qui permettrait des transactions manifestement illicites en restreignant l’accès à sa plateforme en ligne aux personnes utilisant des techniques d’anonymisation des connexions ou en ne respectant pas ses obligations en matière de signalement – par ses utilisateurs – de contenus illicites.

II.   Le dispositif proposé

● Le I du présent article 34 modifie l’article 24 de la loi n° 2017-261du 1er mars 2017 loi visant à préserver l’éthique du sport afin de :

– remplacer la référence aux « opérateurs de plateforme en ligne » par une référence aux « services de plateforme en ligne » au sens du RSN, aux « moteurs de recherche » au sens de ce même règlement et aux « plateformes de partage de vidéos » au sens de l’article 2 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication (1°) ;

– remplacer l’expression « éditeurs de services » par celle de « personnes dont l’activité consiste à éditer un service », afin d’adapter la rédaction de cet article à celle de l’article 1-1 de la LCEN, créé par l’article 23 du présent projet de loi (2°).

– supprimer la mention du III de l’article 6 de la LCEN (3°) et modifier la seconde occurrence de la mention de cet article 6 (4°) ;

● De même le IV du présent article 34 substitue, à l’article 323-3-2 du code pénal, la référence faite aux « opérateurs de plateforme en ligne » par une référence aux « services de plateforme en ligne » au sens du RSN.

● De façon similaire au II de l’article L. 137-2 et au II de l’article L. 219-2 du code de la propriété intellectuelle, le II du présent article 34 remplace la référence au régime de responsabilité limitée des services d’hébergement prévue par l’article 6 de la LCEN par une référence aux dispositions du RSN.

●  Au I de l’article 36 de la loi n° 2021‑1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique, le III du présent article 34 remplace la référence faite aux « opérateurs de plateforme en ligne » par une référence à « toute personne physique ou morale proposant, à titre professionnel, de manière rémunérée ou non un service de plateforme essentiel tel que défini à l’article 2 du règlement (UE) 2022/1925 du Parlement européen et du Conseil du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur numérique et modifiant les directives (UE) 2019/1937 et (UE) 2020/1828 (règlement sur les marchés numériques) ou un service de communication au public en ligne reposant sur le traitement de contenus, de biens ou de services, au moyen d’algorithmes informatiques ».

 

III.   Les modifications apportées par le Sénat

L’article 34 du projet de loi a été adopté avec modifications par le Sénat.

En commission spéciale, un amendement ([170]) du sénateur Julien Bargeton a inséré un II bis modifiant l’article L. 131-4 du code de la propriété intellectuelle s’agissant des modalités de rémunération des auteurs cédant leurs droits exclusifs pour l’exploitation de leurs œuvres. Alors que, dans sa rédaction actuelle, cet article prévoit au profit de ceux-ci une « participation » proportionnelle aux recettes provenant de la vente ou de l’exploitation, l’amendement y substitue la notion de « rémunération appropriée ». Cette modification s’inscrit dans le prolongement de la directive 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique qui a créé un droit voisin du droit d’auteur pour les journalistes et les autres auteurs des œuvres présentes dans les publications de presse. L’article L. 218-5 du code de la propriété intellectuelle prévoit ainsi que ces auteurs ont « droit à une part appropriée et équitable de la rémunération » perçue par les éditeurs et des agences de presse au titre du droit voisin.

IV.   Les modifications apportÉes par la commission

La commission spéciale a adopté l’article 34 modifié par un amendement rédactionnel du rapporteur général.

Chapitre X
Dispositions transitoires et finales

Article 35
Habilitation à légiférer par ordonnance pour l’application dans les territoires ultramarins du projet de loi et de plusieurs règlements européens

Adopté par la commission sans modification

Le présent article habilite le Gouvernement à prendre par ordonnance les mesures relevant du domaine de la loi pour étendre et adapter aux territoires ultramarins les dispositions du présent projet de loi.

Le Sénat a adopté le présent article modifié par un amendement qui a réduit d’un an à six mois le délai d’habilitation.

La commission a adopté le présent article sans modification.

I.   Le dispositif proposÉ

Le I du présent article habilite le Gouvernement, pour une durée d’une année, à prendre les mesures relevant du domaine de la loi en vue de l’application dans certains territoires ultramarins ([171]) du présent projet de loi et des trois règlements européens suivants :

– règlement (UE) 2022/868 du 30 mai 2022 portant sur la gouvernance des données (RGD) ;

– règlement (UE) 2022/1925 du 14 septembre 2022 relatif aux marchés contestables et équitables dans le secteur du numérique (RMN) ;

– et règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques (RSN).

Les territoires ultramarins mentionnés sont ceux relevant de l’article 74 de la Constitution ainsi que la Nouvelle-Calédonie, territoires pour lesquels le principe de « spécialité législative » prévaut. En vertu de ce principe, les statuts de ces différentes collectivités fixent notamment les conditions dans lesquelles les lois et règlements sont applicables.

Le II du présent article prévoit que le projet de loi de ratification devra être déposé devant le Parlement dans un délai de trois mois à compter de la publication de l’ordonnance.

Dans son avis, le Conseil d’État a indiqué que ces dispositions n’appelaient pas d’observations particulières de sa part (point n° 71).

II.   Les modifications apportÉes par le Sénat

Le Sénat a adopté le présent article modifié par un amendement présenté en commission par le rapporteur Loïc Hervé qui a réduit d’un an à six mois le délai d’habilitation (COM-155).

III.   Les modifications apportÉes par la commission

La commission a adopté le présent article sans modification.

Article 36
Dispositions d’entrée en vigueur

Adopté par la commission avec modifications

Le présent article reporte ou aménage l’entrée en vigueur de certaines dispositions du présent projet de loi.

Il a été adopté par le Sénat modifié par plusieurs amendements qui ont, d’une part, supprimé l’entrée en vigueur anticipée du régime de responsabilité des services d’hébergement et, d’autre part, modifié le délai d’application des dispositions relatives à la suppression des frais de transfert liés à un changement de fournisseur de service d’informatique en nuage.

Le présent article a été adopté par la commission modifié par deux amendements reportant l’entrée en vigueur de deux dispositions introduites aux articles précédents par amendement.

I.   le Dispositif proposé

Le présent article reporte ou aménage l’entrée en vigueur de certaines dispositions du présent projet de loi. Il comprend sept divisions.

Le I porte sur l’article 2 qui transforme la procédure judiciaire de blocage des contenus pornographiques accessibles aux mineurs en procédure administrative. Il dispose que cet article entre en vigueur au 1er janvier 2024, sauf pour les procédures déjà engagées au 31 décembre 2023 qui demeurent régies par la procédure judiciaire de blocage, y compris si les décisions sont rendues après le 1er janvier 2024.

Le II est le III aménagent l’entrée en vigueur de plusieurs dispositions pour l’aligner sur l’entrée en vigueur des dispositions correspondantes du futur règlement européen sur les données.

Le II prévoit ainsi que la suppression des frais liés à un changement de fournisseur de service d’informatique en nuage, prévue à l’article 7, s’applique jusqu’au 15 février 2027. Le Gouvernement anticipe en effet qu’à compter de cette date la disposition correspondante du futur règlement européen sur les données sera en vigueur.

Le III dispose que les articles 8, 9 et 10, relatifs à l’interopérabilité des services d’informatique en nuage, s’appliquent jusqu’au 15 février 2026 c’est-à-dire, comme le précise l’étude d’impact annexée au présent projet de loi, jusqu’à « la date d’entrée en application anticipée des mesures portant sur le même objet prévues par le règlement 2022/0047 (COD) du Parlement européen et du Conseil fixant des règles harmonisées pour l’équité de l’accès aux données et de l’utilisation des données ».

Le IV reporte l’entrée en vigueur des articles 11 et 31 au 24 septembre 2023 pour l’aligner sur celle du règlement (UE) 2022/868 du 30 mai 2022 portant sur la gouvernance européenne des données (DGA).

Le V reporte l’entrée en vigueur de plusieurs dispositions au 17 février 2024 pour l’aligner sur celles des dispositions correspondantes du règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques, dit RSN ou DSA (pour partie le C du III de l’article 22, les articles 23, 24, 25 à l’exception de ses I, II et III, l’article 26, l’article 28 à l’exception de son II et les articles 29, 30, 31, 32, 34, 35, 36).

Il convient de souligner que, s’agissant de l’article 31, le IV et le V du présent article sont incompatibles en ce qu’ils prévoient des dates différentes d’entrée en vigueur.

Le VI dispose que le régime de responsabilité des services d’hébergement, défini au C du III de l’article 22, s’applique jusqu’au 17 février 2024, ce qui a pour effet de permettre une entrée en vigueur anticipée de ce régime de responsabilité relevant du RSN.

Enfin, le VII porte sur l’article 17 relatif à la centralisation des données de location de meublés de tourisme. Il dispose que l’article 17, entre en vigueur à une date fixée par décret. Ce report est justifié dans l’étude d’impact pour tenir compte des délais de développement informatique.

Aménagements de l’entrée en vigueur des dispositions du projet de loi (projet de loi initial)

Dispositions

Aménagements

Article 2

Entrée en vigueur reportée au 1er février 2024 sauf pour les procédures en cours.

III de l’article L. 442-12 du code de commerce, dans sa rédaction résultant de l’article 7

S’applique jusqu’au 15 février 2027.

Articles 8, 9 et 10

S’appliquent jusqu’au 15 février 2026.

Articles 11 et 31

Entrée en vigueur reportée au 24 septembre 2023.

Pour partie le C du III de l’article 22, les articles 23, 24, 25 à l’exception de ses I, II et III, l’article 26, l’article 28 à l’exception de son II et les articles 29, 30, 31, 32, 34, 35, 36

Entrée en vigueur reportée au 17 février 2024.

Pour partie le C du III de l’article 22

S’applique jusqu’au 17 février 2027.

Article 17

Entrée en vigueur reportée à une date fixée par décret et, au plus tard, douze mois à compter de la publication de la loi.

Source : commission spéciale.

Dans son avis, le Conseil d’État a estimé que ces dispositions n’appelaient pas d’observations particulières de sa part (point n° 71).

II.   les Modifications apportées par le sénat

Le Sénat a adopté le présent article modifié par trois amendements.

Un premier amendement, présenté en commission par le rapporteur M. Patrick Chaize, a prévu que la suppression des frais liés à un changement de fournisseur de service d’informatique en nuage, prévue à l’article 7, s’applique jusqu’à trois ans à compter de la date d’entrée en vigueur du règlement européen sur les données. Autrement dit, il a prévu une « date glissante » plutôt qu’une date fixe afin de parer à l’éventualité d’une adoption retardée du règlement européen sur les données (COM-156).

Un deuxième amendement, présenté par Mme Nathalie Delattre (Rassemblement démocratique social et européen) lors de l’examen du texte par la commission, a supprimé l’entrée en vigueur anticipée du régime de responsabilité des services d’hébergement, défini au C du III de l’article 22 (COM-69 rect.). Cet amendement a été modifié par un sous-amendement de coordination de M. Patrick Chaize, rapporteur (COM-164), qui a supprimé la mention redondante de l’article 31 au V du présent article.

Enfin, un troisième amendement, présenté en séance par le rapporteur M. Patrick Chaize au nom de la commission, a procédé à diverses coordinations juridiques (n° 142). Il a fait l’objet d’un avis défavorable du Gouvernement. Cet avis défavorable s’explique par le fait que le Gouvernement a présenté un amendement concurrent, qui n’a pas été adopté, tendant à revenir sur la modification des délais d’application de la suppression des frais liés à un changement de fournisseur de service d’informatique en nuage.

Aménagements de l’entrée en vigueur des dispositions du projet de loi (projet de loi adopté par le Sénat)

Dispositions

Aménagements

Article 2

Entrée en vigueur reportée au 1er février 2024 sauf pour les procédures en cours.

III de l’article L. 442-12 du code de commerce, dans sa rédaction résultant de l’article 7

S’applique jusqu’à trois ans à compter de la date d’entrée en vigueur de la proposition de règlement du Parlement européen et du Conseil fixant des règles harmonisées pour l’équité de l’accès aux données et de l’utilisation des données (règlement sur les données) – COM (2022) 68 final.

Articles 8, 9 et 10

S’appliquent jusqu’au 15 février 2026.

Articles 11 et 31

Entrée en vigueur reportée au 24 septembre 2023.

5° de l’article 22, les articles 23, 24, 25 à l’exception de ses 1°, 2° et 3°, l’article 26, l’article 28 à l’exception de son II et les articles 29, 30, 32, 34

Entrée en vigueur reportée au 17 février 2024.

Article 17

Entrée en vigueur reportée à une date fixée par décret et, au plus tard, douze mois à compter de la publication de la loi.

Source : commission spéciale.

III.   Les modifications apportÉes par la commission

La commission a adopté le présent article modifié par deux amendements.

Le premier amendement, présenté par les rapporteurs, conduit à reporter d’une année l’entrée en vigueur du dispositif résultant de l’article 2 bis s’agissant des mesures de blocage des applications logicielles permettant d’accéder aux services de réseaux sociaux (CS838).

Le second amendement, également présenté par les rapporteurs, a pour effet de reporter au 1er janvier 2025 l’entrée en vigueur de l’obligation, mise à la charge de l’autorité administrative, de publier la liste des sites concernés par le filtre « anti-arnaque » instauré à l’article 6 (CS954).

 

 

 

 

 

 


—  1  —

   TRAVAUX DE LA COMMISSION SPéciale

I.   Audition de M. Jean-noël barrot, ministre délégUé auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique, ET discussion générale

Lors de sa première réunion du mardi 19 septembre 2023 à 15 heures, la commission spéciale auditionne M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique, et procède à la discussion générale sur le projet de loi, adopté par le Sénat après engagement de la procédure accélérée, visant à sécuriser et réguler l’espace numérique (n° 1514 rect.) (M. Paul Midy, rapporteur général, Mme Mireille Clapot, Mme Anne Le Hénanff, M. Denis Masséglia, et Mme Louise Morel, rapporteurs).

1.    Première réunion du mardi 19 septembre 2023, 15 heures

Lien vidéo : https://assnat.fr/BCiTI1

M. le président Luc Lamirault. Je souhaite la bienvenue à M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique, ainsi qu’à Mme Marietta Karamanli, qui interviendra comme responsable du groupe Socialistes et apparentés, mais également au nom de la commission des affaires européennes, par laquelle elle a été chargée d’un rapport d’information portant observations sur le projet de loi.

Ce projet de loi, sur lequel le Gouvernement a engagé la procédure accélérée, a été déposé sur le bureau du Sénat le 10 mai dernier et adopté par nos collègues sénateurs en première lecture le 5 juillet.

À l’Assemblée nationale comme au Sénat, il a été renvoyé pour examen à une commission spéciale. Il sera examiné en séance publique à partir du mercredi 4 octobre après-midi.

Lors de notre réunion constitutive du 29 août ont été nommés rapporteurs M. Paul Midy, rapporteur général et rapporteur du titre VIII ; Mme Louise Morel, rapporteure des titres I et II ; Mme Anne Le Hénanff, rapporteure du titre III ; M. Denis Masséglia, rapporteur des titres IV et VII ; et Mme Mireille Clapot, rapporteure des titres V et VI.

Lors de la même réunion constitutive, nous nous étions accordés sur les modalités suivantes d’organisation de la discussion générale. Le rapporteur général, les rapporteurs thématiques et la rapporteure de la commission des affaires européennes disposeront d’un temps de parole de cinq minutes ; les orateurs des groupes disposeront de trois minutes et recevront chacun une réponse du ministre, d’une à deux minutes ; les orateurs inscrits à titre individuel disposeront d’une minute chacun et recevront une réponse groupée.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique. Merci du travail accompli pour préparer les débats. Les nombreux amendements déposés témoignent de l’intérêt des députés pour les questions qui nous occupent et de leur engagement.

Le texte, qui peut donner à première vue une impression de profusion, a pour seul fil rouge la protection des Français dans l’espace numérique. Tous les Français sont concernés, en particulier les plus vulnérables, les plus modestes, les plus jeunes comme les plus âgés et les plus éloignés du numérique. L’insécurité que vivent nos concitoyens sur internet sape leur confiance dans le numérique au moment où nous investissons massivement pour que la France tienne dans ce secteur son rang de grande nation.

Le projet de loi s’est formé à partir de trois affluents. Premièrement, deux règlements européens défendus par la France et adoptés en 2022 à la quasi-unanimité des groupes politiques du Parlement européen. Ils mettent fin à vingt années pendant lesquelles les géants du numérique se retranchaient derrière l’éclatement de nos législations nationales pour refuser toute responsabilité.

Le premier est le règlement sur les services numériques, qui fait entrer les grandes plateformes de réseaux sociaux et de places de marché dans l’ère de la responsabilité en leur imposant des obligations nouvelles : mettre des processus de signalement à la disposition des utilisateurs ; modérer et retirer les contenus illicites qui leur sont signalés ; partager leurs données avec les chercheurs et faire auditer leurs algorithmes ; proposer à leurs utilisateurs des algorithmes qui ne dépendent pas de l’historique de navigation ou des données personnelles. Certaines de ces évolutions se sont déjà matérialisées, comme on peut le voir sur les principaux réseaux sociaux.

Une obligation absolument nouvelle, qui n’existait dans aucune législation nationale, consiste pour les plateformes à analyser et à corriger le risque systémique qu’elles font peser sur la santé des utilisateurs – en particulier des jeunes et des enfants –, le discours civique – on pense à leur rôle dans la propagation de la désinformation – et la sécurité publique. Jusqu’à présent, seule la responsabilité des auteurs des messages ou des vendeurs des produits pouvait être engagée et les plateformes n’étaient considérées que comme des entrepôts, dénués de toute responsabilité quant à la manière dont les messages ou les produits y étaient entreposés.

Le second règlement, sur les marchés numériques, met fin à certaines pratiques commerciales déloyales par lesquelles les géants du numérique ont verrouillé des marchés, d’où deux conséquences délétères : tenir nos administrations, nos entreprises et nos collectivités dans un lien de dépendance ; fermer des marchés aux entreprises françaises et européennes. Ce règlement fixe vingt-six obligations ou interdictions nouvelles qui s’appliqueront quel que soit le lieu où l’entreprise est installée. Deux exemples : l’interdiction de commercialiser des ordiphones où sont préinstallés des navigateurs, des moteurs de recherche ou des assistants personnels pour empêcher la concurrence ; l’obligation faite à des messageries de communiquer avec d’autres messageries sans que le destinataire du message ait à télécharger celles-ci.

Le deuxième affluent, ce sont les travaux menés à l’Assemblée nationale et au Sénat ces six dernières années. Sans prétendre être exhaustif, je salue ceux de Guillaume Gouffier Valente et Bérangère Couillard sur l’exposition des mineurs à la pornographie, de Bruno Studer sur le contrôle parental et de Caroline Janvier, de Philippe Latombe sur la souveraineté numérique, d’Erwan Balanant et d’autres sur le harcèlement, enfin les textes défendus au printemps par Stéphane Vojetta et Arthur Delaporte au sujet des influenceurs, et par Laurent Marcangeli concernant la protection des mineurs en ligne.

Le troisième affluent se compose des consultations menées sous l’égide du Conseil national de la refondation. Dans ce cadre, nous avons notamment auditionné les créatrices de contenus en ligne au sujet de leurs difficultés avec les plateformes, qui ont conduit à l’inscription dans le texte de différentes mesures.

Le texte comporte des protections nouvelles pour nos concitoyens, nos enfants, nos entreprises et collectivités et pour la démocratie.

Nos concitoyens bénéficieront du filtre anti-arnaque, rempart contre les campagnes de SMS frauduleux – 18 millions de Français ont été victimes de cybermalveillance l’année dernière. Les conséquences peuvent en être terribles, notamment pour les plus vulnérables, entraînés dans la spirale infernale de l’usurpation d’identité – plusieurs centaines de milliers de cas chaque année. Ce dispositif simple et gratuit filtrera préventivement les adresses des sites malveillants : ainsi, on coupera le mal à la racine et on découragera les pirates qui cherchent à constituer des fichiers à des fins de cybercriminalité ou d’usurpation d’identité.

Deuxième mesure : la peine complémentaire de bannissement entre les mains du juge pour les personnes condamnées pour des faits de harcèlement ou de cyberharcèlement. Il s’agit de prévenir la récidive en empêchant les auteurs de violences en ligne de se réinscrire afin de les priver de leur notoriété. Le Sénat a étendu le champ de cette mesure et l’a complétée par une peine d’outrage en ligne, dont nous allons débattre pour que le dispositif soit à la fois efficace et conforme aux limites posées par notre Constitution.

Le troisième élément de protection de nos concitoyens est un régime nouveau encadrant les jeux à objet numérique monétisable (Jonum), fondés sur les chaînes de blocs, intermédiaires entre les jeux vidéo et les jeux d’argent et de hasard. Le Gouvernement s’attendait à ce que le Sénat lui refuse l’habilitation à légiférer par ordonnance qu’il demandait à ce sujet, mais la chambre haute a aussi voulu inscrire dans le texte la définition de ces jeux, laissant à l’Assemblée nationale le soin de préciser le cadre de leur régulation. Je salue le travail acharné fourni par les rapporteurs pour trouver, comme par le passé sur des sujets connexes, le bon équilibre entre la flexibilité nécessaire pour maintenir l’innovation en France, d’une part, et, d’autre part, la protection des mineurs et la lutte contre les addictions, contre le financement du terrorisme et contre le blanchiment.

J’en viens à la protection de nos enfants. Le pouvoir est donné à l’Arcom (Autorité de régulation de la communication audiovisuelle et numérique) de faire bloquer et déréférencer les sites pornographiques qui ne vérifieront pas sérieusement l’âge de leurs utilisateurs. La loi du 30 juillet 2020, votée à l’unanimité par l’Assemblée nationale, obligeait déjà à vérifier l’âge, mais il nous faut aller plus loin, car ce sont deux millions d’enfants qui sont exposés chaque mois à des contenus pornographiques – à 12 ans, un garçon sur deux –, et les effets en sont délétères pour leur santé et leur développement affectif. Nous reviendrons sur les modalités de cette vérification.

En outre, une peine d’un an d’emprisonnement et de 250 000 euros d’amende sera encourue par les hébergeurs n’ayant pas retiré sous vingt-quatre heures les contenus pédopornographiques qui leur ont été signalés par les autorités. Ils ont déjà l’obligation de le faire, mais cette obligation n’était pas assortie d’une sanction, à la différence de ce qui vaut pour les contenus terroristes.

En ce qui concerne la protection des entreprises et des collectivités, citons l’encadrement des avoirs commerciaux, la portabilité et l’interdiction des frais de transfert dans l’infonuagique – ou cloud. L’hébergement en ligne de nos données est concentré entre les mains de trois acteurs qui se sont emparés, grâce à ce que l’on pourrait qualifier de pratiques commerciales déloyales, de 70 % du marché et tiennent ainsi administrations, collectivités et entreprises dans leur dépendance. Les mesures que nous proposons anticipent sur un règlement européen qui a fait l’objet d’un accord entre le Parlement et le Conseil. Nous desserrons la contrainte pour libérer nos entreprises et, au passage, redonner de l’air et permettre à des entreprises françaises et européennes de ce secteur stratégique de reconquérir des parts de marché.

Est également pérennisée une expérimentation lancée il y a quelques années et associant cinq plateformes de location de meublés de tourisme et cinq collectivités pour centraliser le décompte des nuitées, qui ne doivent pas dépasser le nombre de 120 par an. Les collectivités n’auront ainsi qu’un seul interlocuteur et le décompte sera très simplifié. Cette mesure a été défendue par Olivia Grégoire.

Au chapitre de la protection de la démocratie par la lutte contre la désinformation figurent la mise en demeure puis le blocage que l’Arcom pourra ordonner à l’encontre des sites diffusant des médias frappés de sanctions internationales, comme RT France et Sputnik. La désinformation est un poison pour notre démocratie ; on l’a vu aux États-Unis, au Capitole, il y a quelques années. L’Union européenne a pris des sanctions, mais les médias visés ont continué à diffuser sur des sites hébergés très loin d’ici.

Lors de l’examen du texte au Sénat a été par ailleurs ajoutée dans le code pénal la définition des hypertrucages – deep fakes , pour que la diffusion de ces derniers tombe sous le coup de sanctions lorsqu’elle a lieu sans le consentement de la personne visée et sans qu’il soit immédiatement apparent qu’il s’agit d’un hypertrucage.

Le Gouvernement est très ouvert à vos propositions, mais je respecterai deux lignes rouges. Premièrement, les limites que nous fixe notre Constitution en application de l’article 11 de la Déclaration des droits de l’homme et du citoyen, lequel dispose : « La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme : tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi. » Ces dernières années, il est arrivé que le Conseil constitutionnel retoque sur ce fondement des mesures votées par le Parlement.

Deuxièmement, le respect du compromis trouvé au niveau européen. Les deux règlements que la France a obtenus mettent fin à vingt ans de dumping réglementaire de la part des géants du numérique, mais il s’agit d’un compromis : la France aurait sans doute voulu davantage. S’il est naturel d’espérer remédier à cette situation par le texte de loi, nous devons nous en tenir au périmètre de l’accord politique conclu, je le répète, à la quasi-unanimité au Parlement européen, sans quoi la Commission ne manquerait pas de considérer comme non conventionnelles les dispositions adoptées.

Je me réjouis de nos échanges à venir et je me tiens à votre disposition.

M. Paul Midy, rapporteur général. Le sujet qui nous occupe est très important ; il fait partie du quotidien des Français et je suis convaincu que le texte peut fédérer l’ensemble de nos compatriotes, au-delà des clivages politiques traditionnels. J’espère donc le débat le plus approfondi, serein et le meilleur possible, et le travail le plus transpartisan possible.

Nous passons déjà plus de temps dans l’espace numérique que dans l’espace public : deux heures par jour en moyenne pour les Français, et même quatre heures pour les 15-24 ans, une durée en augmentation rapide.

Cet espace numérique, ce sont les réseaux sociaux, les plateformes de contenu vidéo, nos magasins en ligne, nos jeux vidéo, nos musées en version virtuelle. C’est un espace d’opportunités immenses ; un espace de lien, de partage avec ses amis, avec sa famille, avec l’ensemble des citoyens de la communauté nationale, européenne et mondiale ; un espace de création absolument fantastique. C’est le lieu où s’exercent des libertés individuelles très importantes : celle de s’exprimer, mais aussi celle de s’informer.

Mais c’est aussi un peu le Far West. Ce sont 50 % des arnaques qui ont lieu en ligne et 18 millions de Français qui en sont victimes chaque année, dont 9 millions qui y perdent de l’argent.

En outre, plus de 50 % de nos jeunes disent s’être déjà fait harceler en ligne. Les conséquences sont trop souvent dramatiques. Je pense par exemple au cas très récent de Manon Lanza, qui, après son accident dans GP Explorer, s’est fait littéralement lyncher, harcelée par les remarques sexistes de milliers d’internautes. Mais je pense aussi au suicide de la jeune Lindsay, cyberharcelée à l’école, et à l’appel de sa mère à l’État et aux pouvoirs publics pour qu’ils combattent « l’impunité des réseaux sociaux » « qui ne peuvent pas continuer à gagner l’argent sur les propos haineux et injurieux ». Je pense au jeune Lucas, harcelé parce qu’il était homosexuel, qui s’est lui aussi suicidé. Je ne veux pas vivre dans un monde où, parce que l’on se sent anonyme, tout le monde a un sentiment d’impunité : cela donne un suicide à la suite d’un harcèlement toutes les deux semaines ou d’autres comportements répréhensibles et illégaux.

De plus, 80 % de nos enfants, parfois les plus jeunes, ont eu accès à la pornographie par internet ; les troubles de leur comportement qui en résultent à l’adolescence et à l’âge adulte sont maintenant prouvés.

D’une façon générale, pour tous ceux qui utilisent quotidiennement les réseaux sociaux, c’est misogynie, racisme, antisémitisme, islamophobie et LGBTphobie à tous les étages. Nous devons trouver les moyens d’y mettre fin.

Ce Far West, nous l’avons malheureusement vu aussi à l’occasion des violences urbaines qui ont émaillé notre pays en juillet et dont les réseaux sociaux ont été, bien malgré eux, la caisse de résonance. Les réseaux sociaux sont un espace de liberté d’expression, mais ils ne doivent pas faciliter ce qui est interdit, comme le fait d’appeler à la violence, à piller des magasins ou à aller brûler sa mairie.

Le chantier est donc immense. Il ne s’agit pas de rendre l’espace numérique plus contraint ou plus sécuritaire, mais bien de le rendre au moins aussi civilisé et sûr que notre espace physique. Il s’agit non pas d’inventer de nouvelles règles et de changer l’équilibre de nos lois ou notre cadre de liberté, d’ordre public ou de consommation, mais de transposer les règles du monde physique dans l’espace numérique.

Bref, sans réinventer le fil à couper le beurre, il s’agit simplement de faire que ce qui est illégal dans le monde physique, conformément aux lois que nous avons mis des siècles à écrire et à voter, le soit également dans le monde numérique.

Je salue le travail en première lecture des sénateurs, qui ont complété et enrichi le texte dans le sens de la transposition de nos règles du monde physique à l’espace numérique.

Concrètement, grâce à ce texte, nous combattrons les arnaques en ligne, grâce au filtre anti-arnaque, qui doit protéger nos concitoyens contre les attaques quasi quotidiennes dont nous faisons tous l’objet.

Nous combattrons le cyberharcèlement grâce au règlement européen DSA (Digital Services Act), qui renforce considérablement les devoirs de modération des grandes plateformes et nous donne un pouvoir de sanction à leur égard ; grâce à la peine de bannissement des réseaux sociaux ; grâce à des mesures d’éducation et de sanctions graduées dont nous débattrons.

Nous pourrons protéger les mineurs de l’exposition à la pornographie grâce à des solutions et à des mesures concrètes.

Le texte sera aussi l’occasion de mieux réguler un certain nombre d’activités comme l’informatique en nuage ou les jeux à objet numérique monétisable, afin de renforcer la concurrence et de soutenir l’innovation. Une plateforme concernant les meublés de tourisme sera en outre créée au service des collectivités.

Nous permettrons enfin les changements législatifs nécessaires pour appliquer dans notre pays les règlements DSA et DMA (Digital Markets Act) instaurés par l’Union européenne lors de la présidence française.

Nous sommes au début de l’histoire de l’espace numérique. Je nous souhaite un très bon travail collectif et je suis, avec les rapporteurs, à votre entière disposition.

Mme Louise Morel, rapporteure pour les titres I et II. Le texte dont nous entamons l’examen est d’importance majeure et attendu par nos concitoyens. Sans surprise, ses titres I et II suscitent un grand intérêt, comme le montre le nombre élevé d’amendements déposés.

La dimension européenne du texte est manifeste. C’est sous présidence française que l’Union européenne s’est dotée d’un arsenal juridique visant à réguler les très grandes plateformes dans l’espace numérique. Notre objectif est donc d’abord de transposer en droit national le DSA et le DMA. Mais nous avons aussi l’occasion de repenser plus globalement l’espace public numérique, en allant plus loin pour protéger nos concitoyens sur internet. La France prend ainsi encore une fois les devants, en étant à la pointe de l’innovation juridique et législative en matière de régulation du numérique. Il nous appartiendra de trouver le juste équilibre entre protection des citoyens, sanctions des abus et préservation des libertés fondamentales sur internet.

Les titres I et II contiennent plusieurs avancées significatives concernant la lutte contre la pédopornographie, contre la diffusion de médias sous sanctions européennes, contre le sentiment d’impunité en ligne et contre les arnaques.

Ce sont 2,2 millions de mineurs qui fréquentent chaque mois des sites pornographiques en France, représentant environ 12 % de l’audience de ces sites pour adultes. Par ailleurs, des centaines de milliers d’images ou vidéos pédocriminelles circulent en libre accès sur internet. Fait nouveau, quand ces contenus ne sont pas mis en ligne par des réseaux pédocriminels, ils le sont parfois par les mineurs eux-mêmes contre de l’argent. Le titre I doit nous permettre de mieux protéger nos enfants face à cette situation, en donnant davantage de pouvoir à l’Arcom, qui pourra déréférencer et bloquer les sites ne vérifiant pas l’âge de leurs utilisateurs.

Le continent européen subit aujourd’hui une crise géopolitique majeure. Certains médias pourtant sous sanctions européennes continuent de véhiculer de fausses informations, notamment à propos de la guerre en Ukraine. Nous allons corriger cette faille pour permettre l’application totale des sanctions quel que soit le canal de diffusion.

Au sujet du sentiment d’impunité en ligne, nous avons la chance d’avoir en France et en Europe des acteurs possédant déjà le niveau de technicité requis pour mettre en œuvre des solutions efficaces à même de sécuriser l’espace numérique. Je les remercie de développer au quotidien une culture du progrès et un sens de l’innovation qui font de la France une grande nation du numérique. Cela étant, nos concitoyens ne peuvent pas comprendre que, malgré l’existence d’outils fiables, la puissance publique ne les protège pas davantage sur internet, surtout quand leurs enfants sont concernés.

Voilà pourquoi la France se dote d’un panel de sanctions mises à disposition non seulement des autorités de régulation, mais aussi du juge, pour lutter contre la cybermalveillance et le cyberharcèlement. La peine complémentaire de bannissement des réseaux sociaux, le délit d’outrage en ligne ou l’amende forfaitaire délictuelle pour les actes de cybermalveillance seront autant d’outils à cette fin.

Je soumettrai à également à vos suffrages la création d’un stage de sensibilisation au respect des personnes dans l’espace numérique, peine que le juge pourra prononcer. Je suis en effet convaincue que nous pouvons améliorer la qualité de notre expérience sur internet en apprenant ou en rappelant à nos concitoyens les règles de bonne conduite à adopter en ligne.

Enfin, chaque année, près de 18 millions de Français sont victimes sur internet d’arnaques en tous genres, qui font subir une perte financière à 9 millions d’entre eux. Il est inacceptable que des milliers de personnes puissent se faire arnaquer par le même site avant toute réaction. Le filtre anti-arnaque permettra donc, dans les conditions que nous déterminerons ensemble, d’apporter une réponse rapide face à ces arnaques de plus en plus élaborées et nombreuses.

En ce qui concerne ce projet de loi, il y aura assurément un avant et un après. Au-delà de nos différences politiques, nous souhaitons tous que le confort de nos concitoyens en ligne soit amélioré et que les abus ne perdurent plus. Nous aurons certainement des solutions différentes à proposer, mais je formule le souhait que nous adressions à nos concitoyens un message de cohésion et d’humilité dans un contexte d’évolution permanente des outils. Si les sujets sont éminemment techniques, je nous crois capables de les aborder avec sérénité.

Mme Anne Le Hénanff, rapporteure pour le titre III. Le titre III porte sur l’encadrement du marché de l’informatique en nuage, notamment des crédits cloud et des frais de transfert, mais aussi sur la sécurisation de l’hébergement des données, la portabilité et l’interopérabilité.

Le projet de loi est très attendu des utilisateurs et des acteurs économiques du secteur, comme le montre l’intérêt qu’il suscite depuis sa présentation en Conseil des ministres. Je salue le travail de nos collègues sénateurs, qui l’ont enrichi et ont ouvert des débats que, je l’espère, nous poursuivrons.

Ces dernières semaines, nous avons auditionné plusieurs dizaines d’acteurs qui nous ont apporté un éclairage pertinent dans leur domaine de compétence ; je les remercie vivement de leur disponibilité et de la qualité de nos échanges.

Le projet de loi se situe dans la continuité des évolutions récentes du droit européen – DSA, DMA, Data Act. Ces règlements d’ampleur ont permis d’harmoniser notre droit et de réguler le numérique à la bonne échelle. Je m’en réjouis d’autant plus que les positions françaises ont été largement suivies à propos d’un ensemble de sujets clés. Il nous reste à adopter au niveau européen la version définitive du Data Act ; par ailleurs, les négociations sur l’EUCS (schéma européen de certification de sécurité) sont toujours en cours et la France y prend toute sa part. Au-delà de l’adaptation de notre droit aux textes européens déjà finalisés, nous devons donc également trouver le juste équilibre pour adopter des dispositions aussi conformes que possible aux négociations en cours, en tenant compte des impacts sur les acteurs économiques français et sur les utilisateurs.

Le texte comporte des mesures concernant la souveraineté numérique, qu’il s’agisse de renforcer la concurrence sur le marché du cloud, de réfléchir à la meilleure façon de protéger nos données ou de la transparence. Les articles 10 bis A et 10 bis ont fait l’objet de nombreux échanges lors des auditions ; j’ai tenu à entendre les arguments de chacun. C’est pourquoi nous vous proposerons des amendements de réécriture, voire de suppression. Je souhaite que, sur ce sujet important, nos débats soient constructifs.

Enfin, n’oublions pas que la souveraineté numérique s’incarne aussi dans la capacité de nos acteurs à acquérir ou à proposer des solutions compétitives face aux acteurs extra-européens sur un marché qui se veut européen. Le titre III propose de renforcer la régulation du marché de l’informatique en nuage. Il s’inscrit en ce sens dans la droite ligne des travaux conduits par l’Autorité de la concurrence sur ce sujet. Je souhaiterais insister sur quelques points : tout d’abord, l’encadrement des crédits cloud octroyés notamment par les grands acteurs, non-européens en particulier, qui, s’ils sont en apparence avantageux pour les entreprises, tend à les enfermer dans une solution qui n’est pas toujours adéquate, désavantageant de surcroît nos acteurs nationaux et européens. Je suis donc favorable à un cadre de régulation ambitieux pour être réellement efficace.

La régulation des frais de transfert de données en cas de changement de fournisseur permettra, dans notre rédaction, de rendre aux entreprises utilisatrices de ces services une réelle liberté de choix.

Enfin, ce texte renforcera utilement les compétences, en matière de données notamment, de nos autorités de régulation, l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) et la Commission nationale de l'informatique et des libertés (Cnil), dont je salue l’action. Le Gouvernement doit leur donner les moyens de leur ambition. Je ne doute pas que nous en reparlerons dans le cadre du projet de loi de finances.

Pour conclure, je souhaite remercier tous mes collègues d’avoir participé aux auditions et je me réjouis d’avance de nos échanges sur ce texte d’une importance majeure.

M. Denis Masséglia, rapporteur pour les titres IV et VII. Les titres IV et VII portent respectivement sur les Jonum, les jeux à objets numériques monétisables, et sur différentes mesures de mise en conformité de notre droit avec le droit européen.

Avant d’en venir plus précisément au texte et à ses articles, je me réjouis qu’il ait été aussi largement suivi par les acteurs des filières concernées et nos concitoyens. Il contient en effet nombre de sujets concernant directement tant leur vie quotidienne que l’avenir de notre pays. Ces sujets sont complexes, passionnants, et surtout politiques. Nous devons en effet poser un cadre qui protège la sécurité de nos concitoyens sur internet tout en préservant leur liberté en ligne. C’est la philosophie que j’ai retenue lors de mes travaux avec la volonté de tout faire pour soutenir nos acteurs nationaux et européens en matière d’innovation.

Ce texte vise en effet à définir un cadre efficace vis-à-vis de certaines innovations en cours au sein de l’économie numérique. Le développement des Jonum à l’échelle mondiale s’apprête à transformer le secteur économique du jeu. Ses risques doivent être anticipés. On estime à près de 12 milliards d’euros le montant total des investissements dans les jeux utilisant les JNF, les jetons non fongibles, en 2022, pour environ 2 000 jeux dits play to earn, destinés notamment au public français, selon l’Autorité nationale des jeux. Les chiffres fournis par l’Inspection générale des finances concernant les jeux web3 confirment cette tendance : à l’échelle mondiale, environ 7,6 milliards de dollars ont été consacrés aux jeux web3 en 2022, soit le double des investissements consentis en 2021.

Le développement des Jonum constitue un formidable levier de croissance et d’innovation pour l’économie numérique. Il appelait un cadre précis permettant de saisir ces occasions tout en prenant en compte les risques identifiés. Sur cette question très sensible, le Sénat a permis d’éviter une habilitation à légiférer par ordonnance. Nous devons débattre du cadre à fixer. C’est à nous de nous emparer de la réflexion du Sénat et de trouver le bon niveau d’obligation pour les entreprises concernées. Dans le cadre de mes travaux, j’ai poursuivi le travail de consultation des acteurs déjà engagé par le Gouvernement afin de trouver le meilleur équilibre entre les attentes de chacun. Je remercie, à cette occasion, chacun des acteurs concernés pour la qualité de nos échanges. J’espère que, à l’issue de nos débats, cet équilibre sera trouvé.

À cet effet, je vous proposerai un encadrement raisonnable de l’expérimentation des Jonum, qui tient compte de l’impératif de bien séparer cette activité des jeux vidéo classiques tout en la distinguant des jeux d’argent et de hasard. Nous avons également beaucoup travaillé sur la prévention des risques liés à cette expérimentation au profit d’un renforcement du rôle de l’Autorité nationale des jeux. Nous aurons l’occasion, je l’espère, d’avoir des échanges nourris sur ce sujet complexe.

Concernant le titre VII, ses dispositions vont permettre une mise en conformité avec le Règlement général sur la protection des données (RGPD) en établissant des autorités de contrôle des traitements de données au sein des différents ordres juridictionnels, judiciaire, administratif et financier. C’est une excellente chose et une réponse importante aux attentes de nos concitoyens en matière de protection des données. L’approbation unanime de ces mesures par les représentants des juridictions que nous avons auditionnés confirme leur pertinence. Je présenterai un amendement de fond concernant la participation des membres du parquet général de la Cour de cassation à ces mécanismes de contrôle. Il n’y a, à mon sens, aucune raison valable pour les exclure de cette mission. Je présenterai également quelques amendements de clarification.

Mme Mireille Clapot, rapporteure pour les titres V et VI. Le texte que nous examinons comporte de nombreuses avancées pour nos concitoyens. Je ne reviens pas sur les propos de mes collègues, mais je me réjouis de voir que nous prenons à bras-le-corps la protection des mineurs sur les réseaux sociaux, les escroqueries, la haine en ligne et la question de la désinformation qui mine nos sociétés. Permettez-moi de regretter que nous ne puissions élargir le champ de ces mesures aux messageries cryptées et privées, comme Telegram ou WhatsApp, et que nous ne puissions contraindre davantage les plateformes pour qu’elles aient un nombre minimal de modérateurs en langue française ou qu’elles participent financièrement à la sensibilisation du public aux dangers du numérique. Je voudrais aussi saluer les travaux de la Commission supérieure du numérique et des postes, où députés et sénateurs publient régulièrement des travaux, notamment sur la sécurité numérique, sur la souveraineté et sur la protection des mineurs. En tant que rapporteure des titres V et VI, j’ai analysé plus précisément les articles 16, 17 et 18.

L’article 17 est le seul concernant les collectivités, avec l’apport d’une interface numérique sur un sujet très sensible : les données relatives à la location des meublés de tourisme. Il prévoit la centralisation des données transmises par les plateformes aux communes, et viendra remplacer un système lourd et archaïque qui pénalise les services administratifs.

Vous connaissez l’engouement croissant des touristes pour des locations chez l’habitant et le succès des plateformes qui mettent en relation touristes et loueurs. La législation, en particulier la loi Elan, a donné des possibilités de régulation et de contrôle aux communes et des obligations aux plateformes et aux propriétaires. Celles qui ont choisi d’appliquer la réglementation du changement d’usage et un numéro d’enregistrement peuvent solliciter les intermédiaires de location pour obtenir des données sur les meublés loués sur leur territoire. Cependant, la transmission ne se fait qu’une fois par an, manuellement, par le biais de fichiers Excel, difficilement exploitables par les communes.

L’article 17 dispose qu’un organisme unique sera chargé de collecter les données auprès des plateformes et de les communiquer aux communes qui en font la demande. Environ 350 communes pourraient bénéficier de ce dispositif. C’est une réelle avancée, qui leur permettra de mieux contrôler le respect de la limite des 120 jours de location pour les résidences principales. Elles pourront désormais confronter les données en provenance de plusieurs intermédiaires de location et signaler aux plateformes les loueurs qui ne respectent pas la réglementation. Je vous proposerai plusieurs modifications de cet article, afin notamment d’ouvrir l’éventail des données et de les rendre accessibles, une fois agrégées.

Cet outil, qui a été expérimenté dans cinq communes, a rencontré un tel succès que l’on nous a proposé de l’élargir à beaucoup plus de communes voire à toutes les communes et à davantage de données, pour en faire un outil de pilotage de la politique du logement et du tourisme des communes. Dans la mesure où une législation européenne similaire est en cours d’élaboration, je pense prudent d’en rester à un cadre maîtrisé pour réussir l’extension de l’outil aux 350 communes concernées.

Les articles 16 et 18 portent plus précisément sur le Peren, le pôle d’expertise de la régulation numérique. L’article 16 élargit l’accès du Peren aux données publiquement accessibles des plateformes en ligne. Il qualifie également expressément le Peren pour que celui-ci puisse mener des recherches sur les risques systémiques menaçant l’Union européenne. Ces activités d’expérimentation et de recherche sont très précieuses pour soutenir les services qui doivent réguler les plateformes. Cette expertise en interne se nourrit des travaux de recherche et des expérimentations menés par le Peren : c’est pourquoi j’ai proposé d’élargir son champ de compétences aux éditeurs de contenus qui utilisent un système d’intelligence artificielle générative.

L’article 18 fixe quant à lui dans la loi les modalités de la collaboration entre le Peren et l’Arcom, cette dernière étant désignée par le texte comme coordinateur pour les services numériques en France. Si ces deux services collaborent déjà, il était nécessaire de prévoir une coopération spécifique. L’Arcom pourra ainsi plus facilement s’appuyer sur l’expertise technique du Peren pour mener à bien ses nouvelles missions.

Je conclus en soulignant à mon tour l’esprit constructif qui a prévalu dans nos travaux et je ne doute pas que l’intérêt général conduira nos futures discussions, en ayant toujours à l’esprit le respect des libertés fondamentales que vous avez rappelé, monsieur le ministre, et des normes européennes.

Mme Marietta Karamanli, rapporteure d’information. La commission des affaires européennes s’est saisie pour observations du projet de loi. C’est avec un grand plaisir que je vous partage les conclusions des travaux que nous avons présentées il y a quelques heures. Il est essentiel que les textes que nous examinons bénéficient d’un éclairage européen lorsque cela est opportun. C’est plus que jamais le cas pour les enjeux liés à la régulation du numérique, près d’un an après l’adoption formelle du DSA et du DMA par l’Union européenne. Ces textes majeurs ont fait l’objet d’un accord sous l’impulsion de la présidence française du Conseil.

Notre rapport pour observations formule une série de recommandations pour améliorer le DSA et le DMA à moyen terme, à l’occasion de leur réexamen, mais également à court terme au titre de la phase de mise en œuvre qui s’ouvre. J’appelle en particulier la France et d’autres partenaires européens à saisir la Commission pour ouvrir une enquête de marché à l’encontre du réseau X, anciennement Twitter. La première liste des contrôleurs d’accès soumis au DMA dévoilée le 6 septembre par la Commission comporte six acteurs qui atteignent les seuils quantitatifs fixés. Le réseau X n’y figure pas, alors qu’il répond à plusieurs critères qualitatifs mobilisables par la Commission pour apprécier la situation d’une entreprise – je pense notamment à la taille importante de la société détenue par M. Musk ou aux effets de réseau qui la caractérisent. L’Allemagne, en décembre 2022, appelait à désigner le réseau X comme contrôleur d’accès, sans succès à ce stade. La France est-elle prête à se joindre à cette démarche partagée par d’autres États européens ?

Deux points de vigilance, toutefois. D’une part, la volonté du Gouvernement de prétransposer les textes en cours de discussion afin d’aiguiller les négociations me semble discutable, monsieur le ministre, voire contestable. Il est important que la France fasse valoir ses intérêts, et c’est tout l’objet des échanges avec le Conseil. En revanche, la pratique de la prétransposition crée un risque d’incompatibilité native ou prématurée. À vouloir tordre le bras de nos partenaires, c’est nous qui risquons d’avoir le bras tordu ! J’en veux pour preuve l’encadrement des crédits cloud, qui figure dans le projet de loi déposé en mai mais qui a été écarté du compromis trouvé par l’Union sur le Data Act en juin. Or nous sommes ici pour éviter tous ces problèmes. La France n’a d’autre choix que de remanier largement ses mesures au détriment des impératifs de qualité et de prévisibilité du droit.

D’autre part, je m’inquiète du risque de contrariété avec le droit de l’Union, qui frappe certaines dispositions du projet de loi. Le Gouvernement propose par exemple de nommer la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) parmi les autorités nationales compétentes chargées de la mise en œuvre du DSA, alors même que son considérant 112 précise que les entités désignées doivent agir en toute indépendance et ne pas recevoir d’instructions, y compris d’un gouvernement. Or la DGCCRF est un service de Bercy, qui agit sous l’autorité de son ministre de tutelle. Le Gouvernement a-t-il tenu compte des alertes informelles que la Commission lui a adressées dans le cadre de procédures de notification ?

De façon générale, s’exprime dans le rapport que j’ai présenté en début d’après‑midi le regret que la négociation et l’adoption de textes européens aussi structurants pour l’avenir de nos concitoyens se déroulent parfois à l’écart des parlements nationaux. En Allemagne, les échanges sur les sujets importants se tiennent plus ouvertement entre le gouvernement et le Parlement, et les propositions sont mieux partagées entre les institutions.

Nous partageons les objectifs du texte et reconnaissons son intérêt sur ce sujet éminemment important.

M. Jean-Noël Barrot, ministre délégué. Je souscris à tout ce que les rapporteurs ont dit, par définition, et je les remercie une nouvelle fois pour leur travail réalisé dans un temps relativement court.

Je salue l’initiative de la commission des affaires européennes, en souhaitant que d’autres puissent voir le jour à étapes régulières, pas seulement un an après l’adoption d’un règlement mais aussi en amont. Le Sénat a tendance à développer un peu plus cette pratique que l’Assemblée nationale. C’est très utile, notamment parce que, au-delà des clivages partisans, la France défend certaines positions que nos négociateurs, que ce soit au niveau des services ou au niveau politique, pourraient faire connaître.

Vous évoquez la possibilité pour la France, comme l’Allemagne l’a fait, d’insister pour que X soit désigné contrôleur d’accès par la Commission. Je signale d’ores et déjà que les services de la Commission travaillent à une nouvelle vague de désignation de contrôleurs d’accès au sens du DMA dont X pourrait faire partie.

Sur la prétransposition des règlements, je vous rejoins sur le fait que ce n’est peut‑être pas la manière la plus élégante de légiférer, mais c’est une pratique plus certaine que celle de surtransposer pour anticiper. À ce stade, nous avons eu l’occasion de le faire partiellement, y compris sur le DSA, dans le cadre de la discussion du projet de loi confortant le respect des principes de la République, sans que la conventionnalité des mesures prétransposées soit contestée par les acteurs régulés auprès de la Commission européenne ou des juridictions compétentes.

Pour ce qui est des alertes sur la DGCCRF, tous les garde-fous ont été posés pour assurer l’indépendance de cette organisation afin qu’elle puisse exercer ses fonctions dans les conditions prévues par le législateur européen. Le Conseil d’État a validé l’approche retenue en définitive. Le Gouvernement a, en effet, échangé avec lui afin de garantir la robustesse des mesures proposées à votre examen.

Maintenant que nous disposons d’un recul sur l’exercice qui a conduit à adopter le règlement sur les services numériques et celui sur les marchés numériques et que nous voyons comment évoluent les textes au cours de la navette européenne, il semble d’autant plus évident que le Parlement, en particulier l’Assemblée nationale, doit pouvoir se saisir de ces questions, par le biais notamment de propositions de résolution invitant le Gouvernement à prendre telle ou telle position au Conseil. C’est en effet une manière de se présenter au Conseil, forts du poids politique du Parlement pour défendre les positions de la France.

M. le président Luc Lamirault. Nous en venons aux interventions des représentants des groupes.

Mme Marie Guévenoux (RE). C’est une réelle chance de pouvoir examiner ce projet de loi dans la forme que vous avez choisie, monsieur le ministre, et avec les apports du Sénat. L’adoption des trois règlements a été un véritable succès politique de la présidence française de l’Union européenne. Nous pouvons continuer d’être précurseurs en la matière, dans la mesure où, en plus de la transposition des règlements, ce texte offre des avancées pour toujours mieux protéger les citoyens et nos enfants. L’enjeu politique premier de ce texte est à notre sens de construire un nouveau continuum de sécurité entre les espaces physiques et numériques pour que disparaisse cette zone de non-droit, le sentiment d’impunité et les comportements ignobles qui ont libre cours. En cela, nous nous inscrivons aussi à la suite du travail législatif entamé de longue date par notre majorité, notamment celui de Guillaume Gouffier Valente, de Bruno Studer, de Caroline Janvier, de Stéphane Vojetta ou de Laurent Marcangeli.

S’agissant de la protection des citoyens dans l’environnement du numérique, le texte apporte une réponse à deux enjeux du quotidien sur internet que sont le cyberharcèlement et les arnaques en ligne. Il faut à ce titre saluer le travail réalisé par les sénateurs en première lecture qui ont renforcé ce premier pilier, notamment en créant la notion de l’outrage en ligne, qui pourrait faire l’objet d’une sanction immédiate par le biais de l’amende forfaitaire délictuelle que nous vous proposerons de récrire pour garantir sa base juridique. Ce dispositif doit être maintenu en ce qu’il permet d’apporter une réponse efficace à des comportements qui nuisent à la tranquillité de nos concitoyens, enfants comme adultes, dans les espaces numériques.

S’agissant de la protection de l’enfance en ligne, nous ne pouvons que constater que les sites pornographiques ont refusé jusqu’alors de mettre en place les outils voulus par les pouvoirs publics pour protéger nos enfants qui se retrouvent de plus en plus jeunes exposés à des représentations qui construisent une image fausse de ce que peut être une sexualité respectueuse et épanouie, qui les enferme dans des présupposés sexistes ou des injonctions dangereuses. Face à cette menace, au-delà des mesures qui cibleront particulièrement ces sites, nous devons également permettre aux parents d’acquérir les outils propres à aider leurs enfants face à ces dangers. De la même façon que le rôle des parents est de surveiller et contribuer au développement harmonieux de leurs enfants dans la vie réelle, ce contrôle doit se poursuivre dans l’espace numérique. Les propositions faites en ce sens vont dans la bonne direction, et nous vous suggérerons de les renforcer.

S’agissant du renforcement de la confiance, de la souveraineté et de la concurrence dans l’économie de la donnée, la transposition des règlements européens DSA, DGA et DMA est une formidable occasion de renforcer l’indépendance de nos entreprises nationales et de favoriser l’attractivité de l’offre cloud française. En effet, nous continuons de penser que les nouvelles occasions économiques offertes par le numérique sont de véritables chances pour l’écosystème de notre pays et de l’Europe. Sachons les saisir, tout en faisant en sorte que la tranquillité et la sécurité se diffusent dans ces nouveaux espaces.

M. Jean-Noël Barrot, ministre délégué. Une nouvelle fois, je souscris à vos propos, madame la députée. Il est vrai qu’il nous faut trouver les moyens, même si cela n’est pas simple, de créer les dispositifs qui nous permettront, efficacement et tout en veillant au respect des libertés fondamentales, de sanctionner plus vite les auteurs de haine en ligne, alors que le sentiment d’une impunité en ligne perdure. Je vous rejoins également sur le point de la confiance, qui est un élément central pour nos entreprises. Si nous voulons qu’elles saisissent les occasions qu’offre le numérique, il faut que cela se fasse en toute confiance, grâce à l’adaptation du droit français au DMA et aux mesures concernant l’infonuagique.

M. Aurélien Lopez-Liguori (RN). Le texte que nous examinons balaie pêle-mêle protection des mineurs, régulation des entreprises numériques, haine en ligne et bien d’autres sujets. Parmi les mesures que nous soutenons se trouve, bien entendu, l’article 10 bis A, qui garantira notre souveraineté en matière de cloud. Si l’article est adopté, les autorités publiques devront systématiquement avoir recours dans la commande publique à des entreprises européennes de cloud. Exit les menaces d’ingérence étrangère, de sabotage et de pillage de données par les États extra-européens. Nous ne pouvons donc que nous réjouir de cet article, de même que de la création d’une sanction pour non-retrait de contenus pédopornographiques ou de la création d’un filtre anti-arnaque.

Néanmoins, tout n’est pas parfait – c’est un euphémisme. Il suffit d’étudier les propositions de la majorité pour comprendre les dangers que certaines dispositions peuvent représenter. Avec la levée de l’anonymat sur internet prônée par M. le rapporteur, vous risquez d’entraîner la France dans une surenchère liberticide et sécuritaire. Vous prônez un système d’identité numérique, vous voulez lier identité physique et identité sur internet, pour tous a priori et avant même toute infraction. Ce serait oublier certains principes qui font de la France un pays démocratique et un État de droit, qui garantit la liberté d’expression et le droit à la vie privée. Ce serait mettre le doigt dans un engrenage très dangereux.

Au Rassemblement national, nous avons bien compris les enjeux de ce texte. Nous pensons que protection des mineurs et protection des libertés individuelles ne sont pas antinomiques. L’anonymat en ligne doit, sauf exceptions bien définies, rester la règle. L’identité numérique doit à tout prix être évitée. Nous allons vous proposer des amendements en ce sens pour encadrer vos dispositifs. Nous allons également proposer des mesures de souveraineté. Le Rassemblement national soutiendra toujours les acteurs français et européens dans un marché étouffé par la concurrence des Gafam en particulier. C’est seulement en suivant ces deux principes – respect de l’anonymat et souveraineté – que nous pourrons réguler et sécuriser l’espace numérique, pas en les piétinant allègrement. Nous resterons toujours très vigilants face à vos propositions.

M. Jean-Noël Barrot, ministre délégué. Nous avons eu l’occasion de discuter de l’article 10 bis A pendant les débats sur la loi de programmation militaire. Le Gouvernement a été très clair : nous voulons que les administrations se tournent vers des solutions certifiées, c’est-à-dire immunisées contre les législations extraterritoriales, pour leurs données sensibles. Mais nous ne voulons pas imposer dès aujourd’hui cette obligation aux entreprises. En effet, en parallèle de nos travaux au Parlement, parce que le Gouvernement a été poussé à établir ce cadre de protection pour les données sensibles, se mène au niveau européen une discussion très serrée pour que ce principe puisse devenir un principe européen. C’est important, parce que nos entreprises de l’infonuagique qui, depuis des mois, investissent pour obtenir la certification, le sésame délivré par l’Anssi, l’Agence nationale de la sécurité des systèmes d’information, qui garantit l’immunité de leurs données aux législations extraterritoriales, souhaiteraient que l’on demande le même niveau de sécurité aux entreprises des autres pays européens.

Cela ne peut se produire que si nous convainquons nos partenaires européens que le critère d’immunité aux législations extraterritoriales doit faire partie du schéma volontaire de certification de cloud. Or, malheureusement, plusieurs pays européens y sont très réticents, sans doute parce qu’ils entretiennent des relations particulièrement proches avec des pays dont sont issus des acteurs dominants de ce marché. Si nous allons trop vite et que nous imposons ces solutions à un panel trop large d’organisations, nous donnons des arguments à ceux qui militent en Europe contre l’européanisation de l’immunité aux législations extraterritoriales. C’est pourquoi nous n’avons pas soutenu cette idée dans la loi de programmation militaire, non que nous y soyons réticents, puisque c’est l’une des premières qui me soit venue lorsque j’ai pris mes fonctions, mais pour faire aboutir les négociations dans le but que nos principes s’appliquent au niveau européen.

Sur l’identité numérique, il nous faut être ambitieux. Je suis très frappé de voir qu’en Inde ou en Ukraine, c’est le développement de l’identité numérique qui a permis de réduire considérablement la fracture numérique, en permettant à des centaines de millions de citoyens d’accéder à des services commerciaux et publics auxquels ils n’avaient pas accès auparavant. De ce point de vue, il me semble que, sans tomber dans la société de surveillance, le développement de l’identité numérique mérite d’être encouragé. Il ne s’agirait pas de la demander pour tous les actes de la vie courante. Par exemple, pour protéger les enfants en ligne, on pourrait ne retenir que l’un des attributs de la personne, son âge par exemple, sans dévoiler son identité.

Mme Sophia Chikirou (LFI-NUPES). Il est évident que nous avons besoin d’une loi sur le numérique, de plusieurs lois même en réalité, tant les sujets sont nombreux et graves : protéger les enfants contre le harcèlement et la pédopornographie, les consommateurs contre les arnaques, les citoyens contre les violations de leurs droits numériques fondamentaux, dont le premier l’accès au numérique, ou encore les entreprises françaises contre la rapacité des géants du cloud. Vous avez fait le choix d’un texte unique fourre-tout mais malheureusement incomplet et surtout mensonger, liberticide et hypocrite. Vous refusez obstinément de poser la question des moyens humains, de l’éducation et de la formation. Vous prétendez répondre à tous les problèmes et aux défis qui nous sont posés par un solutionnisme technique qui, on le sait, est voué à l’échec. Les expériences qui ont eu lieu en Grande-Bretagne et en Australie sur la question de la vérification de l’âge pour l’accès aux sites pornographiques n’ont pas marché. En plus d’être inefficace, cela porte atteinte à un droit fondamental consacré par l’ONU et la Cour de justice de l’Union européenne : le droit à l’anonymat. Vous avez décidé dans l’article 1er de refiler la patate chaude à l’Arcom. Vous déresponsabilisez les sites pornographiques qui n’ont plus, d’ailleurs, d’obligation de résultat, mais seulement de moyens. Surtout, vous contournez les juges.

Votre texte est aussi hypocrite vis-à-vis des enfants et de leurs parents parce que vous n’appliquez pas en tant que Gouvernement la loi en matière de prévention et d’éducation sexuelle. Une enquête de la direction générale de l’enseignement scolaire montre que seulement 13,5 % des élèves en primaire ont bénéficié des trois séances annuelles d’éducation sexuelle. Rien sur l’éducation dans votre projet de loi !

Il est également liberticide, et on ne peut pas vous faire confiance, monsieur le ministre, en matière de respect des libertés et des droits, parce que la peine complémentaire de bannissement numérique, que vous prévoyez à l’article 5, suppose une vérification de l’identité civile qui va trop loin. Elle n’est pas applicable, elle remet en cause l’anonymat et elle donnerait à des entreprises étrangères un accès à des données d’utilisateurs voire à l’État, qui serait une espèce de Big Brother. Votre texte est malheureusement à l’image de votre politique : beaucoup de communication, des promesses en matière de faisabilité et de résultats mais les réponses ne seront pas là. Ma collègue Marietta Karamanli avait soulevé des problèmes relatifs à la conformité avec le droit européen. Il y a beaucoup de confusions dans ce texte, et nous essaierons d’y faire le tri.

M. Jean-Noël Barrot, ministre délégué. Il ne faut pas regarder le projet de loi comme un résumé de toute la politique de protection des Français sur internet. Ce dont nous parlons aujourd’hui, c’est essentiellement de la responsabilité des auteurs et des plateformes. Il y a évidemment beaucoup d’autres acteurs impliqués dans l’apaisement de l’espace numérique, à commencer par l’éducation nationale. Même si cela ne figure pas dans le texte, nous généralisons cette année le passeport numérique en sixième, qui est un module de sensibilisation aux risques et aux gestes à adopter en ligne pour se prémunir contre les violences et les dangers auxquels on peut être exposé. Cette expérience a commencé au mois de novembre 2022. Elle a été concluante et se généralise cette année. Elle sera obligatoire dès la rentrée 2024 pour tous les élèves de sixième.

Le ministère de l’intérieur est également impliqué pour le traitement des plaintes. La loi de programmation du ministère de l’intérieur prévoit plusieurs possibilités ainsi que des moyens supplémentaires pour que ces plaintes soient déposées plus facilement et traitées plus efficacement. De même, ce texte ne parle ni du budget ni de l’organisation de la justice, qui elle aussi a toute sa part à prendre. La loi de programmation de la justice apportera également des solutions. Je suis d’accord avec vous, pris isolément, ce texte ne peut rien résoudre ; il faut le prendre avec l’ensemble des autres politiques publiques qui sont menées et ont des effets sur la protection des Français les plus vulnérables en ligne.

Vous dénoncez l’aspect liberticide du texte. L’Arcom sera chargée de contrôler que les sites pornographiques disposent d’un système, assorti de garanties, capable de vérifier l’âge des visiteurs ; elle pourra ordonner le blocage et le déréférencement des sites. Certes, nous confions à une autorité administrative indépendante un pouvoir qui appartenait au juge. Néanmoins, cette autorité n’aura que cette vérification technique à effectuer ; il ne s’agit pas de déposséder le juge de ses prérogatives : en cas de condamnation éventuelle, nécessitant une interprétation, il faudra en référer à un juge impartial et indépendant. En effet, le Conseil constitutionnel a confirmé qu’il était possible de transférer une décision du juge à une autorité administrative indépendante, avec toutes les garanties nécessaires, dans le seul cas d’un fonctionnement manifestement illicite.

Vous accusez le texte d’être mensonger et vous m’entreprenez au sujet des vérifications techniques. Nous avons entendu lors des auditions que l’Australie et le Royaume-Uni avaient renoncé à instaurer un système de contrôle. Ce n’est pas une raison suffisante pour que la France, à la pointe dans ce domaine, renonce à son tour. Pensant qu’il ne suffirait pas, pour vous convaincre, d’affirmer que nous pouvons réussir là où les autres ont échoué, j’ai fait venir hier dans mon bureau la commissaire chargée de défendre l’initiative australienne pour la protection de l’enfance et lui ai demandé pourquoi l’Australie et le Royaume-Uni avaient échoué. En Australie, la commission eSafety a longuement travaillé sur les solutions de vérification d’âge ; elle a proposé au gouvernement de financer une expérimentation, pendant qu’elle élaborerait un référentiel. Or le gouvernement a refusé, provoquant les gros titres que vous avez lus, à cause de difficultés à rendre acceptables pour la société des systèmes de vérification susceptibles de porter atteinte à la vie privée – le pays a récemment connu des offenses dans ce domaine. En revanche, le gouvernement a demandé à la commissaire de définir un référentiel, ce qu’elle fera pour 2024. Le Royaume-Uni, quant à lui, a adopté une législation en 2018 ; une expérimentation a été lancée, notamment pour vérifier l’âge lors de l’accès aux sites pornographiques. De telles mesures étaient à même de chagriner certains ; les élections arrivant, M. Boris Johnson a fait cesser l’expérimentation, espérant peut-être en tirer un profit politique. Aujourd’hui, l’examen de l’Online Safety Bill touche à sa fin ; il n’est pas très éloigné de la législation européenne formée par le DSA et le DMA, ni du présent texte, qui vise également à définir pour 2024 des référentiels dans le domaine de la vérification de l’âge. Notre objectif est d’être les premiers à y parvenir – les autres nous suivront.

M. Victor Habert-Dassault (LR). Ce texte est né de la nécessité de transposer les règlements européens DSA et DMA dans notre législation et de renforcer la confiance du public dans l’espace numérique. Nous rendons hommage au travail méticuleux des rapporteurs du Sénat, Patrick Chaize et Loïc Hervé, et de la majorité sénatoriale. Il a abouti au présent texte : équilibré et opérationnel, celui-ci couvre un large éventail de sujets.

L’Arcom disposera de pouvoirs renforcés, qu’il faut encadrer et accompagner de moyens cohérents. Nous veillerons à ce que l’efficacité juridique aille de pair avec la préservation des droits et des libertés. Les violences organisées sur les réseaux sociaux ont réussi à provoquer plusieurs jours de chaos ; dans ce contexte, nous serons attentifs aux suites qui seront données aux travaux du Sénat, en particulier concernant la diffusion de contenus incitant à la violence.

Sur le plan économique, les mesures visant à encourager la compétitivité sur le marché du cloud sont alignées sur le Data Act, annonçant un grand marché européen du numérique. Nous saluons la rapide harmonisation du droit français avec les nouveaux textes européens ; la France se montre parmi les membres les plus actifs de l’Union en matière de réglementation numérique. Le groupe les Républicains souhaite qu’elle continue à piloter les discussions et incite tous les États membres à avancer vers la souveraineté numérique et à se doter d’une législation nationale complète.

Le texte évite deux écueils : la surtransposition, qui étoufferait l’environnement numérique, et l’atteinte aux libertés fondamentales ; il franchit aisément l’étape essentielle de la lutte contre les pratiques irresponsables sur internet. Toutefois, notre devoir de législateur nous impose de contrôler que ce projet ambitieux sera applicable, pour éviter qu’après le vote, faute des crédits nécessaires, il ne se transforme en une coquille vide, alors que nous attendons une régulation ferme du secteur numérique, à la fois stricte en cas de dérives et adaptée aux défis contemporains.

M. Jean-Noël Barrot, ministre délégué. Je le répète, le soutien du Parlement est essentiel. Les articles relatifs à l’infonuagique en seront un très bel exemple : ils anticipent la transposition de dispositions que nous avons défendues au niveau européen et qui ont fait consensus, et qui visent à rouvrir à la concurrence des marchés verrouillés. Or cela sert notre souveraineté puisque les acteurs français se saisiront de l’occasion.

En revanche, nous avons beaucoup plus de mal à convaincre nos partenaires s’agissant des certifications et de l’immunité aux législations extraterritoriales. Nos positions en matière de régulation peuvent sembler dissonantes, mais elles sont cohérentes.

M. Erwan Balanant (Dem). Lundi, pour la première fois en France, des parents ont porté plainte contre TikTok pour provocation au suicide, non-assistance à personne en péril et propagande ou publicité des moyens de se donner la mort. Ils estiment que le réseau social est en partie responsable du suicide de leur fille, survenu le 16 septembre 2021. Les adultes, notamment les parents, doivent apprendre aux enfants à utiliser intelligemment les réseaux sociaux, mais ils ne peuvent pas tout. L’État non plus ne peut pas tout : notre rôle est de le doter des outils suffisants pour lutter contre les violences en ligne.

Les plateformes doivent maîtriser les risques inhérents aux usages d’internet, comme l’a illustré la funeste campagne de harcèlement contre l’influenceuse Manon Lanza, qui a reçu des dizaines de milliers de messages d’insultes sexistes et sexuelles après son accident au grand prix de formule 4, survenu le 9 septembre. Il est intolérable que de tels comportements prolifèrent en toute impunité. Nous devons agir d’urgence.

Il faut définir précisément les interdits. Nous pourrions commencer par délictualiser l’outrage sexiste ou sexuel. Cette infraction a été pensée pour lutter contre le harcèlement dans l’espace public ; il faut l’étendre à l’espace public numérique. L’amende forfaitaire délictuelle (AFD) permettra de mieux réprimer les cyberoutrages. Elle ne peut toutefois constituer une réponse systématique, au risque d’englober des infractions plus graves et plus sévèrement sanctionnées, pour lesquelles la justice aura besoin de temps.

Pour lutter contre la haine en ligne, nous devrons réfléchir à l’anonymat dans l’espace numérique. Dans ce domaine, nous ne soutiendrons pas les initiatives qui iraient trop loin. Il s’agit d’un des fondements d’internet ainsi que de nos valeurs républicaines. Les changements doivent être entourés de beaucoup de précautions, au premier rang desquelles le respect des libertés fondamentales.

Le groupe Démocrate soutiendra le texte, indispensable pour sécuriser et réguler notre espace numérique, et pour assurer la souveraineté de la France dans ce domaine.

M. Jean-Noël Barrot, ministre délégué. Je salue le travail d’Erwan Balanant et d’autres députés sur l’outrage sexiste. Comme nous, les sénateurs cherchent à définir des sanctions, à la fois efficaces et respectueuses des libertés, contre les individus qui propagent haine et violence en ligne. Ils ont choisi de suivre la piste du délit d’outrage, non dépourvue d’embûches : en choisissant l’AFD pour son efficacité, on risque parfois de décriminaliser des délits graves, qui ne seront sanctionnés que d’une amende très inférieure à la peine autrement encourue. Il revient au législateur de définir le bon équilibre entre l’efficacité et la qualification des faits. Comme précédemment, lorsque le délit ou le crime n’est pas absolument manifeste, l’interprétation doit revenir au juge. Toute la durée de la navette sera peut-être nécessaire, mais je fais confiance à la sagesse du Parlement pour trouver les bons arbitrages.

Mme Marietta Karamanli (SOC). Depuis six ans, les textes visant à réguler l’espace numérique et l’activité des plateformes, pour adapter le droit français à la réglementation européenne ou pour satisfaire des demandes politiques circonstancielles, se multiplient. Ils s’accumulent en couches successives, pour pallier les défaillances, sans considération de la capacité des pouvoirs publics à les faire appliquer, et sans cohérence générale. Les utilisateurs et les acteurs économiques sont ainsi submergés. L’État est contraint de définir une stratégie nationale à même d’embrasser la défense des libertés individuelles, la gestion numérique des services publics, la régulation des relations entre les usagers et les plateformes et les moyens de préserver l’indépendance de nos infrastructures industrielles. Ne serait-il pas temps d’élaborer un code du numérique ? Depuis le temps que le législateur travaille dans ce domaine, il est nécessaire de rendre cohérent l’ensemble des règles adoptées.

Nos sociétés et nos démocraties ne sont pas suffisamment protégées contre les transformations de l’espace numérique. Huit des vingt plus grandes entreprises mondiales relèvent du capitalisme de plateforme, qui repose sur une accumulation de données exploitées par des algorithmes aussi puissants qu’opaques. De 53 milliards d’euros en 2020, le marché européen de l’informatique en nuage pourrait passer à 560 milliards en 2030 ; le marché mondial de la pornographie représenterait quelque 8 milliards de dollars de chiffre d’affaires, et les sites X sont gérés par des entreprises très puissantes, qui n’ont aucune intention de se conformer à la loi du 30 juillet 2020 visant à protéger les victimes de violences conjugales. Pour avancer, nous devons associer tous les acteurs.

S’agissant du référentiel d’exigences techniques et des sites pornographiques, nous défendrons des amendements visant à éviter que l’application du référentiel ne suffise à relever les plateformes de leurs responsabilités. Le contrôle parental reste la plus efficace protection des mineurs en ligne ; nous proposerons de renforcer son automaticité.

Enfin, le cadre juridique qui s’applique aux Jonum, à la fois jeux de loisirs et d’argent, est inadapté. Il convient de préciser les conditions d’exploitation des Jonum.

Nous espérons que les débats seront constructifs. Nous partageons vos objectifs, mais il faut prévoir les moyens conséquents.

M. Jean-Noël Barrot, ministre délégué. Vous avez raison, le moment est venu de rassembler dans un code du numérique au minimum le code des postes et des communications électroniques et la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN). C’est un travail très lourd ; j’ai demandé à la direction générale des entreprises (DGE) d’y réfléchir, mais rassurez-vous, je ne solliciterai pas du Parlement qu’il habilite le Gouvernement à légiférer par ordonnance pour le mener à bien.

La législation européenne peut sembler disparate mais, Thierry Breton l’exprime bien, elle nous permettra de disposer bientôt d’un marché numérique unique à la fois utile aux entreprises et capable de contraindre les géants du numérique à respecter nos valeurs.

Mme Agnès Carel (HOR). Nouvel espace à part entière, le numérique est devenu incontournable dans la vie quotidienne, dans la vie économique et dans la vie démocratique. Dans ce champ de liberté, la loi doit protéger, en particulier les plus vulnérables. L’absence de frontières rend le législateur français impuissant à agir seul. L’action conjointe des États membres prouve une fois de plus que l’Union européenne se donne les moyens de garantir sa souveraineté et sa compétitivité. Le groupe Horizons et apparentés salue l’adoption des différents règlements européens que ce texte tend à transposer en partie. Un ordre public numérique est indispensable ; dès notre première niche parlementaire, nous avons voulu poser les jalons d’une protection efficace des mineurs contre l’externalité des réseaux sociaux. Nous sommes heureux que le Parlement ait accueilli favorablement la conviction de Laurent Marcangeli en la matière. Néanmoins, nous devons aller beaucoup plus loin et poursuivre la construction d’un arsenal législatif adapté à des évolutions très rapides.

Nous soutenons ce projet de loi, complet pour protéger les mineurs d’une exposition toujours croissante à la pornographie, nos concitoyens des actes malveillants – cyberharcèlement et arnaques en ligne –, les entreprises et les collectivités, en posant les fondements d’une souveraineté économique et numérique. Soyons lucides, toutes ces dispositions, même les plus contraignantes, ne remplaceront jamais l’éducation à se comporter correctement en ligne comme dans la vie. Nous avons déposé des amendements pour la renforcer.

La loi n’est cependant pas la seule voie de l’action publique. Comment le Gouvernement compte-t-il mieux former les plus jeunes et les parents aux usages du numérique ? Il faut que les consciences s’éveillent. Pour sécuriser pleinement l’espace numérique, nous devons connaître les chances qu’il offre et les risques qu’il présente.

M. Jean-Noël Barrot, ministre délégué. Vous êtes très attachée à l’éducation et à la sensibilisation ; à la lecture de la liasse des amendements, je peux dire que vous n’êtes pas la seule. Des efforts sont ici attendus : les drames que plusieurs d’entre vous ont rappelés témoignent qu’ils sont nécessaires.

Malgré leur rôle parfois déterminant, il est probable que la responsabilité des plateformes dans ces drames ne pourra être reconnue. Le DSA est entré en vigueur le 25 août. Dans le cas d’un cyberharcèlement scolaire, par exemple, il faut que la plateforme ait eu connaissance de faits de harcèlement pour que sa responsabilité soit engagée. Or il est arrivé, alors même que la victime avait évoqué la situation avec ses parents, qu’eux-mêmes avaient informé l’éducation nationale, que personne n’ait eu le réflexe d’accomplir le simple geste de signaler les contenus problématiques aux plateformes. Le signalement est un acte civique, non une dénonciation. J’ai choisi cet exemple pour aborder la question de l’éducation parce que j’ai été frappé de constater que, dans les ministères, nous parlons sans cesse de signalement, mais que les enfants victimes de harcèlement ignorent ce réflexe.

Des actions ont été entreprises, comme l’expérimentation du passeport Pix dans les salles informatiques de plusieurs centaines de collèges, dont les élèves ont été sensibilisés aux attitudes et aux gestes à adopter dans des situations de confrontation au cyberharcèlement ; l’action sera généralisée cette année pour les élèves de sixième et obligatoire l’an prochain. Peut-être faudra-t-il aller plus loin à l’avenir, ouvrir des modules de même nature aux parents – sans peut-être les rendre obligatoires –, dans la continuité de la loi Studer visant à renforcer le contrôle parental sur les moyens d’accès à internet, qui tend à ouvrir le dialogue avec les parents.

M. Aurélien Taché (Écolo-NUPES). Depuis dix ans environ, le monde fait tout pour que le numérique ressemble le plus possible au réel. Mais devant l’état du monde, j’espère que nous allons rebrousser chemin, en particulier s’agissant de préserver nos libertés. À l’origine, internet était un formidable outil de diffusion du savoir, de communication et de partage. Il est aujourd’hui présent dans notre vie quotidienne, sociale et professionnelle ; il doit rester un espace de liberté. À cet égard, le texte et les débats des derniers jours m’inquiètent.

La préservation des libertés suppose de garantir la protection des données personnelles, le droit à la vie privée, l’anonymat des journalistes. La journaliste Ariane Lavrilleux, par exemple, a vu ses sources attaquées et son journal perquisitionné, avant d’être arrêtée parce qu’elle faisait son travail. La majorité veut débattre de la fin de l’anonymat dans le monde numérique, mais il pourrait s’agir d’une boîte de Pandore que le texte n’était pas destiné à ouvrir.

Vous avez, monsieur le ministre délégué, réuni un groupe de travail qui a évité au texte plusieurs écueils, comme la possibilité, un temps envisagée par le Gouvernement, de couper les messageries des réseaux sociaux en cas de révolte, à l’exemple de celle qui a suivi la mort de Nahel cet été. Je vous conjure d’agir de même concernant l’anonymat. De même, les amendements de la majorité relatifs aux VPN (réseaux privés virtuels) ont été retirés, tout le monde ayant compris que la mesure était dangereuse. Dans le cadre du filtre anti-arnaque, le texte prévoit l’obligation pour les opérateurs de bloquer l’accès à certains sites ; c’est également périlleux.

Certains aspects du texte méritent d’être encouragés, comme la lutte contre la pédopornographie et le cyberharcèlement. Il manque des mesures relatives à l’empreinte carbone du numérique et à la limitation des jeux d’argent. Surtout, il faut préserver l’équilibre fondamental entre le respect des libertés et la volonté de réguler.

M. Jean-Noël Barrot, ministre délégué. Le groupe de travail que vous avez évoqué s’est réuni trois fois au début de l’examen du texte au Sénat, soit dans les jours qui ont suivi le déroulement des violences urbaines. Il a analysé la place des réseaux sociaux dans les faits. Un bilan détaillé en sera donné à la Première ministre, qui réunira dans les prochains jours les membres du Gouvernement ayant travaillé sur les suites à donner aux émeutes. Si les rapporteurs y consentent, nous y reviendrons lors de l’examen en séance. Selon les premiers éléments, pendant la semaine concernée, 15 % de l’activité sur les réseaux sociaux étaient en lien avec les violences urbaines. C’est considérable, mais ce n’est évidemment pas toute l’activité. Par ailleurs, les appels au calme ont été beaucoup plus nombreux que les appels à la violence.

Le groupe de travail était constitué d’un représentant de chaque groupe politique du Sénat et de l’Assemblée nationale ainsi que des présidents et des rapporteurs des commissions spéciales. J’ai proposé aux rapporteurs de défendre trois amendements, que les députés de tous les groupes pourraient signer. Le premier tend à sanctionner le fait de contourner un bannissement ; le second tend à autoriser le bannissement en cas de provocation manifeste à la violence, même en l’absence de passage à l’acte ; le troisième vise à créer une réserve citoyenne du numérique, afin de valoriser et de conforter les associations qui contribuent à l’apaisement.

Le dispositif du filtre anti-arnaque associe les navigateurs, les résolveurs de DNS (système de noms de domaine) et les fournisseurs d’accès à internet. Certains s’inquiètent du traitement réservé aux navigateurs. Ces derniers ont l’habitude de filtrer des contenus, non de les bloquer. Plusieurs amendements tendent à affiner le dispositif. Le Gouvernement examine les propositions, toujours avec l’objectif de déployer un dispositif efficace, à même de protéger nos concitoyens de l’explosion du nombre de SMS frauduleux.

Il serait utile que le Parlement adopte l’identité numérique, notamment pour faciliter l’accès aux droits. S’agissant de l’anonymat et du pseudonymat, le Gouvernement souhaite que les plateformes proposent aux utilisateurs volontaires de s’identifier. Il est hors de question que les seconds doivent transférer aux premières des données personnelles. Il s’agirait d’obtenir une certification en s’identifiant auprès d’un tiers de confiance et de pouvoir évoluer sur les réseaux sociaux entourés de gens qui ont accompli la même démarche. Dans les prochains mois, la France pourrait défendre cette idée au niveau européen ; nos échanges avec la future présidence belge du Conseil de l’Union européenne laissent espérer des progrès. Pour le moment, néanmoins, le Gouvernement ne peut émettre d’avis favorable à l’adoption de dispositions de cette nature en droit français, pour des raisons d’inconventionnalité.

Mme Emeline K/Bidi (GDR-NUPES). Ce projet de loi était attendu ; il est nécessaire. Internet est devenu le théâtre quotidien des arnaques, du cyberharcèlement et de bien d’autres délits. Malheureusement, le texte est hétéroclite et très technique, donc peu intelligible. Le Conseil d’État a émis des réserves relatives à la sécurité juridique ; nous les reprenons à notre compte.

Dans l’ensemble, le texte va dans le bon sens. Nos inquiétudes concernent la protection des données personnelles et des libertés individuelles. Nous défendrons des amendements tendant à la sécuriser – peut-être enfoncerons-nous des portes ouvertes, notamment concernant le rôle de la Cnil. Nous défendrons des actions de sensibilisation contre le cyberharcèlement à l’école : le sujet est brûlant et notre assemblée ne peut attendre davantage pour s’en saisir.

Le texte manque de mesures visant à protéger le consommateur de l’insécurité numérique liée à certaines grosses entreprises. Un vide juridique demeure.

Je n’ai pas non plus lu grand-chose sur la fracture numérique. Je ne pense pas seulement à ceux qui n’ont pas accès à internet, mais aussi à tous ceux qui comprennent mal cet outil et qui constituent des proies faciles pour les criminels du net. L’Insee estimait en 2021 que 15 % de la population française connaissait des difficultés pour utiliser les outils numériques. Il a été plusieurs fois question d’éducation et de prévention : si les enfants doivent être notre cible privilégiée, ils ne sont pas les seuls concernés, puisque 36 % des retraités butent sur cet obstacle, comme 20 % des ultramarins. Notre politique doit s’adresser aussi à eux, qui ne connaissent ni les dérives ni les bienfaits du numérique.

Ce projet de loi est attendu, il n’est pas mauvais, mais il comporte des lacunes et nourrit quelques inquiétudes.

M. Jean-Noël Barrot, ministre délégué. Vous êtes un peu dure !

En ce qui concerne la protection des consommateurs, le texte n’apporte rien de nouveau, c’est vrai. Néanmoins, le DSA, qui impose la vérification de l’identité des vendeurs et interdit les interfaces trompeuses ainsi que la publicité ciblant les mineurs, concerne aussi les places de marché comme Amazon. Ce sont des avancées qui ne sont pas reprises dans le texte, qui se contente d’attribuer à la DGCCRF le soin de veiller au respect de ces obligations.

S’agissant de la fracture numérique, c’est un sujet fondamental, qui, c’est vrai, n’est pas abordé ici. Je vous renvoie à l’étude du Centre de recherche pour l’étude et l’observation des conditions de vie (Credoc) et qui donne le chiffre de 30 % des Français éloignés du numérique, soit qu’ils ne sont pas internautes, soit qu’ils ne se sentent pas compétents. Cela peut paraître beaucoup, mais je suis bien certain que chacun d’entre nous s’est un jour trouvé un peu perdu face à un écran ou à une démarche en ligne. Et, vous avez raison, ce n’est pas seulement une question de génération ; les éloignés du numérique sont souvent moins diplômés, plus modestes, plus souvent des ouvriers et des employés que des cadres ou des professions intermédiaires. Ils éprouvent souvent un sentiment de relégation ; ils ont ainsi tendance à s’abstenir aux élections.

En 2021, Bercy a généreusement envoyé, grâce au plan de relance, 4 000 conseillers numériques un peu partout en France. Ils ont été accueillis par des collectivités territoriales, des associations et autres chambres d’agriculture, et fournissent un travail remarquable. Le budget a été sanctuarisé l’année dernière ; à l’avenir, la prise en charge sera un petit peu inférieure à 100 %. Dans le cadre du Conseil national de la refondation, avec l’ensemble des acteurs de la médiation numérique et des élus locaux, nous avons réfléchi à une structuration territoriale de cette politique d’inclusion. Cela s’appelle France numérique ensemble. Les préfets sont chargés d’identifier les collectivités qui voudront en être responsables pour leur territoire et coordonneront l’action de tous ceux qui accompagnent les personnes éloignées du numérique, des conseillers numériques à la secrétaire de mairie et au responsable de médiathèque.

M. Christophe Naegelen (LIOT). La régulation du numérique ne doit pas forcément aller de pair avec la restriction des libertés. Entre un espace libertaire et la mise en péril de la liberté d’expression, il faut trouver un chemin.

L’Union européenne a posé les premiers jalons d’un internet plus mesuré, où les grandes plateformes et les principaux moteurs de recherche ne décident plus seuls des règles du jeu.

Nous devons nous montrer ambitieux afin de rééquilibrer le marché européen de l’informatique en nuage, secteur fortement concentré autour de trois acteurs, tous américains. C’est notre souveraineté numérique qui est en jeu. Soyons fiers de nos entreprises du numérique ; écoutons-les, soutenons-les et protégeons-les ! Nous serons favorables au maintien de l’article 10 bis, ajouté par le Sénat.

Nous considérons que la lutte contre la haine sur internet ou la protection de l’enfance justifient de nouvelles règles. Il faut en particulier protéger les mineurs de l’exposition aux images pornographiques. Il faudra néanmoins conserver un équilibre entre, d’un côté, la sécurisation, la protection, et, de l’autre, le droit à l’anonymat. Ce sera la boussole de mon groupe.

Vous avez évoqué l’hypertrucage, que vous prévoyez de sanctionner sous certaines conditions. Pourquoi seulement sous certaines conditions ? Dès lors qu’ils sont malveillants, ces procédés doivent être punis. Je regrette que vous établissiez deux catégories différentes.

S’agissant des Jonum, on peut regretter que le texte n’aille pas plus loin en s’attaquant, par exemple, aux casinos en ligne et à certains autres jeux en ligne. Les victimes sont nombreuses et certains opérateurs utilisent l’absence de réglementation pour gagner énormément d’argent au détriment de nos concitoyens.

M. Jean-Noël Barrot, ministre délégué. Nous avons une boussole de la même marque, puisque nous recherchons, nous aussi, un équilibre entre efficacité des mesures et préservation des libertés fondamentales que sont celles de l’expression, de la communication et de l’information.

Deux articles, 4 bis et 5 ter, portent sur les deepfakes. Le premier pénalise les hypertrucages réalisés sans le consentement de la personne qui apparaît à l’image, sans que le trucage soit évident, et pour lui nuire. On ne va pas interdire les Bébête Show ou les Guignols de l’info de l’ère de l’intelligence artificielle ! Le second article pénalise les hypertrucages pornographiques, considérés comme évidemment malveillants. Nous souhaitons conserver ces deux dispositifs distincts.

En ce qui concerne les Jonum, je rends hommage au travail réalisé tant par les services de Bercy que par les rapporteurs. Si nous avons voulu avancer sur cette question, c’est encouragés par le succès rencontré il y a quelques années lorsque Bruno Le Maire avait accepté la création d’un cadre légal pour les prestataires de services sur actifs numériques. Sous la pression des parlementaires, nous avions trouvé dans la loi Pacte un bon équilibre entre la protection des épargnants et la flexibilité nécessaire à l’innovation. À l’époque, tout le monde n’était pas convaincu ; cinq ans après, il apparaît que nous avons eu raison : non seulement des entreprises se sont installées en France, mais l’Europe s’est inspirée du cadre français lorsqu’il s’est agi de réguler ces activités nouvelles. Nous sommes considérés comme une référence pour ceux qui veulent développer de l’activité en Europe – celle-ci étant mieux régulée que les États-Unis, qui ne le sont pas du tout. C’est un équilibre de cette nature que nous recherchons pour les jeux à objets numériques monétisables.

M. le président Luc Lamirault. Nous en venons aux questions des autres députés.

Mme Caroline Parmentier (RN). Il n’a jamais été aussi facile pour des enfants d’accéder à des contenus pornographiques, violents et toxiques pour eux. Le référentiel créé par ce projet de loi sera à coup sûr efficace pour mieux protéger notre jeunesse. Mais cette réponse est tardive pour les nombreux jeunes qui souffrent d’addiction ; les images pornographiques traumatisent durablement des mineurs dans la phase de construction de leur personnalité. Il faut les aider. Quels outils pourraient être développés pour lutter contre l’addiction des jeunes à la pornographie ? Que pensez-vous de la remise d’un rapport au Parlement sur ce thème ?

Le Conseil français des associations pour les droits de l’enfant a estimé, dans une lettre au Président de la République et à la Première ministre, que ce texte risquait de produire les effets inverses de ceux escomptés. Pouvez-vous nous éclairer sur cette mise en garde des associations de protection de l’enfance ?

M. Philippe Ballard (RN). Ma question porte sur l’article 6. Vous prenez des mesures pour protéger les consommateurs français face à la recrudescence des arnaques en tout genre et je m’en félicite. Je me demande toutefois si vous n’avez pas la main qui tremble, puisque le blocage sera suspendu en cas de recours. Il me semble au contraire essentiel de protéger les utilisateurs pendant ce temps ; ceux-ci doivent à tout le moins être avertis du risque encouru. Pourquoi cette suspension du blocage pendant la phase de recours administratif ?

M. Jean-François Coulomme (LFI-NUPES). Le Gouvernement l’a répété, la protection de nos données est un élément de notre sécurité et de notre souveraineté numérique. Pourtant, la migration de nos données de santé hors du cloud Microsoft Azure, qui devait avoir lieu en 2022, a été repoussée par le Gouvernement à 2025, malgré l’avis de la Cnil.

Au lieu de lutter pour un stockage souverain de nos données, ce texte présente de nombreuses mesures d’adaptation du Digital Services Act, qui prévoit qu’un plus grand nombre de données détenues par le secteur public soient éligibles au droit de réutilisation dès le 24 septembre 2023.

Vous déplorez la mainmise des Gafam – Google, Apple, Facebook, Amazon, Microsoft – sur l’économie du cloud : ils détiennent plus de 70 % des parts de marché du cloud en France. En parallèle, la Commission européenne a adopté, le 10 juillet 2023, une nouvelle décision d’adéquation avec les États-Unis, permettant le transfert de données personnelles depuis l’Union vers les organismes états-uniens, librement et sans encadrement spécifique. Sur ce point de la sécurité des données, votre texte ne propose à peu près que des mesures déclaratives du prestataire de cloud.

Pourquoi les notions d’espace français souverain de stockage et de transparence sur la territorialité du traitement des données sont-elles absentes de votre texte ?

M. Andy Kerbrat (LFI-NUPES). Cette loi, c’est l’art de passer à côté du vrai problème. Vous nous avez expliqué la réalité de ce qu’ont fait nos partenaires australiens, anglais et même indiens, mais avec une vision un peu faussée. Vous utilisez le référentiel pour rendre le débat technique à souhait ; mais la réalité, c’est que l’eSafety Commissioner qui avait recommandé, en mars 2023, un système de vérification de l’âge n’a pas proposé de technique pour ce faire. On le sait, l’usage du VPN fera obstacle à la vérification.

Pourquoi préférez-vous encourager la censure, et ainsi prendre le risque de censurer des dispositifs qui permettraient d’aider à la sexualité, d’aider à lutter contre le VIH et les infections sexuellement transmissibles plutôt que de miser sur l’éducation, comme nous le demandons ?

M. Idir Boumertit (LFI-NUPES). À l’heure du tout-numérique, un projet de loi de régulation est bienvenu. Toutefois, les annonces faites à la suite des révoltes urbaines de cet été selon lesquelles vous envisagez de réguler, voire de couper, l’accès aux réseaux sociaux sont inquiétantes. De telles censures ne s’observent que dans des régimes autoritaires. Des représentants de plateformes ou de réseaux sociaux, comme TikTok ou Snapchat, ont ensuite affirmé avoir supprimé de nombreux contenus. Ce projet de loi permet aussi le blocage de l’accès à des sites catégorisés comme malveillants par une autorité administrative ; aucun pays démocratique n’a encore osé porter une telle atteinte à la liberté sur internet.

Pour les députés Insoumis, seul le juge judiciaire devrait avoir la possibilité d’exercer un pouvoir de censure. Les navigateurs ne peuvent pas devenir les outils d’une censure gouvernementale. Alors que de nombreuses associations dénoncent cette mesure, quelles garanties apportez-vous ?

Mme Estelle Folest (Dem). Je suis attentive à la protection des mineurs en ligne. Je me réjouis des mesures adoptées dans le DSA, en particulier celles relatives à l’évaluation et à la correction des risques systémiques auxquelles les très grandes plateformes sont soumises – encore faudra-t-il veiller à leur application.

Le projet de loi apporte une nouvelle pierre à l’édifice. J’aimerais insister sur la responsabilisation et l’accompagnement des parents. Malheureusement, ce texte ne peut guère agir sur ces points. Qu’entend faire le Gouvernement ? C’est ce que nous demandent les parents eux-mêmes ; ils veulent de l’aide pour régler les conflits de plus en plus fréquents avec les enfants au sujet des écrans.

M. Laurent Esquenet-Goxes (Dem). Depuis 2007, les sites pornographiques ont l’obligation d’interdire l’accès aux mineurs. Mais les plateformes – dont 30 % du public a moins de 18 ans – font très peu de cas de cette loi, se contentant d’une déclaration de majorité : gageons qu’appuyer sur un bouton n’arrête qu’un très petit nombre de jeunes ! Malgré les procédures engagées depuis 2018, il demeure aussi facile d’accéder aux sites pornographiques qu’à ceux de La Redoute ou de la Fnac. Désormais, tout ira plus vite : l’instauration d’un référentiel ne permettra plus aux plateformes de prétexter l’impossibilité technique. Grâce au blocage direct par l’Arcom, les sanctions seront effectives.

Toutefois, alors que l’article 227‑24 du code pénal impose une obligation de résultat, ne craignez-vous pas que la rédaction actuelle n’entraîne les plateformes pornographiques vers la simple obligation de moyens que serait le respect du référentiel de l’Arcom, quelle que soit l’efficacité de leur filtrage ? Comment concilier les objectifs du code pénal avec ces nouvelles dispositions ?

Mme Soumya Bourouaha (GDR-NUPES). Le groupe GDR avait déposé un amendement visant à demander au Gouvernement un rapport sur les violences commises dans un contexte de pornographie, dans l’idée d’améliorer les conditions d’accueil des victimes de viol et d’agression sexuelle, de mieux former les forces de l’ordre, et de mieux suivre les dossiers. Il a été déclaré irrecevable alors qu’il nous paraissait important pour la défense des droits des femmes. Pouvez-vous nous donner votre point de vue ?

Mme Clara Chassaniol (RE). Ce texte apportera des garanties contre l’impunité sur internet et permettra de mieux protéger nos concitoyens. Toutefois, les réponses pénales ou administratives aux contenus illicites nécessitent des moyens humains et financiers. L’année dernière, nous avons adopté deux lois d’orientation et de programmation importantes qui renforcent l’action des ministères de l’intérieur et de la justice. À quelques jours de la présentation du projet de loi de finances pour 2024, pouvez-vous nous assurer que l’État disposera des moyens nécessaires au bon fonctionnement de Pharos, la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements, de l’Arcom et de la Cnil ? Si elle est votée, cette loi devra être appliquée. L’État ne doit pas être impuissant.

Mme Céline Calvez (RE). J’appelle votre attention sur la question de la transparence des algorithmes. Ceux-ci déterminent ce que nous voyons sur les réseaux sociaux, les résultats de nos recherches sur internet, les recommandations des produits et les articles d’information qui nous sont présentés. La manière dont ces algorithmes sont conçus a donc un impact considérable sur nos sociétés ; il apparaît essentiel de peaufiner les mécanismes de régulation qui visent à assurer la transparence de ces systèmes.

Le DSA renforce le pouvoir de contrôle des autorités, qui peuvent obtenir des plateformes davantage d’informations sur la conception et l’utilisation de leurs algorithmes. Quelles évolutions vous semblent utiles pour assurer le respect de ces obligations et une réelle transparence des algorithmes ?

M. Philippe Gosselin (LR). Je commencerai par rappeler que d’autres textes sont intervenus avant celui-ci ; la Cnil a été créée dès 1978, le RGPD date de 2018 : on ne bâtit pas sur du sable.

Nous soutenons ce texte, mais il ne résoudra pas toutes les questions liées à la pornographie, aux arnaques, aux jeux ou aux deepfakes.

Le contrôle parental poussé et l’éducation au numérique sont essentiels. Il faut aussi que l’Arcom, la Cnil et l’Arcep disposent de moyens suffisants.

M. Stéphane Vojetta (RE). « Laisse pas traîner ton fils », chantait NTM en 1998. Désormais, les pièges qui guettent notre jeunesse ne sont plus seulement dans les caves obscures des HLM ; ils sont souvent dans l’espace numérique et il est de notre devoir d’aider les parents à en protéger leurs enfants.

Je salue ce projet de loi et la volonté de restreindre l’accès des mineurs au porno. Mais la rédaction actuelle ignore un angle mort tout aussi dangereux : les plateformes de pornographie sur demande. Je parle de jeunes filles qui ouvrent un compte sur OnlyFans ou sur MYM et y postent des vidéos pornographiques contre rémunération : rien de répréhensible en soi, sauf que des mineurs peuvent être exposés à la promotion de ces comptes sur Twitter ou Instagram. Pire encore, le business d’« agent OnlyFans » est florissant : cela consiste à parcourir Instagram, Snapchat ou TikTok en quête de jeunes filles que l’on convaincra d’ouvrir un compte OnlyFans pour en tirer un revenu dont l’argent profitera, bien sûr, à l’agent – bref, un business de rabatteur, pour ne pas dire de souteneur.

Vingt-cinq ans après Kool Shen et Joey Starr, on est tenté de dire : « Laisse pas traîner ta fille sur Instagram. » Même si les amendements du groupe de travail transpartisan sur les influenceurs ont été déclarés irrecevables, j’espère que le Gouvernement prendra ce sujet à bras-le-corps et proposera des mesures pour restreindre les effets indésirables de ces activités.

Mme Fabienne Colboc (RE). Ma question porte sur l’encadrement de l’intelligence artificielle, notamment en ce qui concerne les droits d’auteur. Des solutions novatrices émergent pour la protection et la gestion des droits, en particulier pour les photos. En parallèle, l’Union européenne agit en préparant l’Artificial Intelligence Act. Néanmoins, les auteurs s’inquiètent de l’utilisation de leurs œuvres par des systèmes d’intelligence artificielle. Comment encadrer ces pratiques et répondre à ces préoccupations ?

M. Philippe Latombe (Dem). Ce qui est interdit dans le monde physique doit l’être dans le monde numérique, dit-on, mais c’est trop simple, trop lapidaire et cela manque de nuance. C’est même technologiquement faux, juridiquement inexact et philosophiquement discutable.

Cela ne veut pas dire qu’il ne faut rien faire. Mais nous avons vu fleurir ces jours-ci des marronniers en automne : je pense aux amendements anti-VPN ou à l’amendement « plaque d’immatriculation » du rapporteur général contre l’anonymat.

Monsieur le ministre délégué, pouvez-vous rappeler ce que la Commission vous a indiqué au sujet des possibilités de législation nationale ?

Je partage les questions de M. Coulomme sur le cloud et la souveraineté des données sensibles, notamment les données de santé de nos concitoyens.

M. Jean-Jacques Gaultier (LR). La définition des Jonum repose toujours sur les quatre conditions qui définissent l’activité des jeux d’argent. N’y a-t-il pas un risque que les opérateurs illégaux de casinos en ligne intègrent cette catégorie ? Leur offre a proliféré en France ces dernières années ; l’Autorité nationale des jeux estime que ces sites attirent 1 à 2 millions de joueurs.

N’y a-t-il pas distorsion de concurrence avec les casinos physiques, qui n’ont pas le droit d’avoir une activité en ligne ? Pourquoi ne pas permettre, de façon expérimentale, aux casinos physiques de proposer une offre numérique, afin d’orienter ces joueurs français qui fréquentent des sites illégaux vers une offre sécurisée, contrôlée et fiscalisée, et qui apporte des emplois dans nos territoires, notamment ruraux ?

Mme Caroline Yadan (RE). L’article 4 B vise à permettre aux personnes qui ont tourné un film pornographique d’obtenir sans délai, gratuitement, le retrait de ce contenu dès lors qu’il continue d’être diffusé sur internet au-delà de la période contractuelle ou lorsque la diffusion ne respecte pas les modalités prévues. Cette initiative va dans le bon sens. Ce dispositif pourrait-il être étendu aux autres contenus à caractère sexuel diffusés sans consentement, afin d’inclure toutes les potentielles victimes de tels faits ?

M. Rémy Rebeyrotte (RE). Enfin ! L’article 11 de la Déclaration des droits de l’homme et du citoyen dispose que chacun peut « parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi ». Cette liberté est définie à l’article 4 : « La liberté consiste à pouvoir faire tout ce qui ne nuit pas à autrui. »

Or trop de nos concitoyens souffrent d’abus – haineux, racistes, xénophobes, sexistes, homophobes – commis sur les réseaux sociaux. Bien sûr, c’est au juge qu’il doit revenir de lever l’anonymat, et c’est ce qui sera proposé. Mais cette loi est indispensable pour que les réseaux sociaux ne deviennent pas des réseaux asociaux.

Mme Virginie Duby-Muller (LR). Je salue le travail des sénateurs sur ce texte ambitieux, enrichi des contributions de la délégation aux droits des femmes et de la commission des affaires européennes. Ils ont trouvé un équilibre.

Nous tenons particulièrement à l’article 10 bis A, qui renforce la protection des données stratégiques et sensibles sur le marché de l’informatique en nuage. Je partage les inquiétudes déjà exprimées au sujet des données de santé. La France et l’Europe doivent se doter d’une plus grande autonomie stratégique et accompagner le développement de l’industrie française et européenne. Un récent rapport européen s’inquiète de notre dépendance vis-à-vis des entreprises extra-européennes, notamment dans le domaine du cloud ; 14 % seulement des services de cloud en Europe sont conçus sur notre continent.

M. Jean-Noël Barrot, ministre délégué. Madame Parmentier, l’addiction naît de l’exposition, celle-ci étant aujourd’hui massive. Or, en Australie, un tiers des enfants de 10 à 13 ans exposés à la pornographie le sont de manière accidentelle. Nous débattrons d’éventuels contournements de la vérification d’âge, mais sa seule existence – si les chiffres sont comparables en France à ceux de l’Australie – permettrait de soustraire un tiers des enfants aujourd’hui concernés au déferlement des images pornographiques en ligne.

Monsieur Ballard, le projet de loi prévoit en effet un recours suspensif, à la demande de la Cnil. À vrai dire, on imagine qu’un acteur qui formule un recours contre un filtrage est plutôt bienveillant ; il paraît alors naturel de suspendre le blocage. Un acteur malveillant ne se signalerait pas de cette façon.

S’agissant des articles 10 bis A et 10 bis, j’ai exposé les raisons pour lesquelles il nous paraîtrait contre-productif d’aller trop vite dans l’extension de l’obligation. Mais nous partageons le même objectif. Sur l’article 10 bis, la rapporteure fera des propositions qui tiendront compte de vos remarques.

Monsieur Kerbrat, ce sont bien des questions techniques ! Il ne faut pas verser dans le solutionnisme : ce texte ne résoudra pas tout, certes, mais il est nécessaire d’aborder des questions techniques, par exemple à propos du référentiel pour la vérification de l’âge.

Certains amendements voudraient encadrer la création du référentiel par l’Arcom. Nous en débattrons, mais je souhaite qu’une palette d’outils soit disponible, dont au moins une solution qui repose sur le principe du tiers de confiance. C’est le double anonymat : le service ne sait pas qui est la personne qui accède, et le prestataire qui fournit la preuve de majorité ne sait pas à quoi cette preuve a servi. Ces solutions doivent toutes être suffisamment fiables et robustes. Ce qui a raté en Australie, c’est qu’elles n’existaient pas encore ; or nous avons veillé à inviter des entreprises françaises à se lancer dans des expérimentations. Je ne dis pas que cela marche à plein tube pour le moment, mais nous avons une liste d’entreprises qui mènent des expériences avec une liste de sites pornos. Je suis confiant dans l’idée que ce travail permettra de définir un modèle d’affaire qui permettra à ces solutions d’être soutenables.

Monsieur Boumertit, s’agissant du filtre anti-arnaque, la liste des délits visés est très limitative. D’autres pays démocratiques – la Belgique, le Royaume-Uni, l’Espagne – ont adopté ce type de disposition. Nous avons prévu de nombreuses protections et nous atteignons le bon équilibre entre efficacité et préservation des libertés.

Madame Folest, vous avez raison d’insister sur la responsabilité des parents, question qui se pose plus largement dans l’espace numérique pour le traitement de ces fléaux que sont le harcèlement et le cyberharcèlement. Ne comptez pas sur moi, toutefois, pour annoncer par avance les mesures que présentera la Première ministre et, avec d’elle, le ministre de l’éducation nationale, moi-même et peut-être d’autres encore, dans le cadre du plan de lutte contre le harcèlement et le cyberharcèlement. L’esprit que nous devons cultiver est celui qui a présidé à l’adoption de la loi Studer et de la loi Marcangeli, qui visent à activer la responsabilité parentale, respectivement par le renforcement du contrôle parental sur les appareils et par le recueil du consentement parental pour l’inscription sur les réseaux sociaux.

Monsieur Esquenet-Goxes, je mesure l’inquiétude qu’a soulevée la nouvelle rédaction du dispositif de l’article 1er et de l’article 2 par rapport aux articles 22 et 23 de la loi du 30 juillet 2020 visant à protéger les victimes de violences conjugales. Comme j’ai pu l’évoquer avec certains d’entre vous, je suis preneur d’une rédaction conjuguant un objectif de résultat et un objectif de moyens, mais nous n’en avons jusqu’à présent pas trouvé qui paraisse assez solide au ministère de la justice. S’agissant d’articles qui seront âprement contestés par les sites pornographiques que nous entendons réguler, nous devons être parfaitement vigilants et, à ce stade, nous ne serons pas en mesure d’avancer sur ce point. Je reste cependant ouvert à une rédaction qui nous permette, sans affaiblir le dispositif, de viser à la fois les moyens et le résultat.

Madame Chassaniol, vous m’avez interrogé sur les autres moyens déployés par le Gouvernement pour sécuriser l’espace numérique – qui, de fait, ne se limitent pas aux règles exposées dans ce texte. Ainsi, pour ce qui concerne le ministère de l’intérieur, et comme je l’ai indiqué précédemment, il sera désormais possible de porter plainte derrière son écran par visioconférence grâce à la loi d’orientation et de programmation du ministère de l’intérieur (Lopmi) du 24 janvier 2023. Les victimes de harcèlement pourront être accompagnées d’un avocat lors du dépôt de plainte en ligne. En 2023, l’application « Ma sécurité » permettra de déposer une plainte en ligne et, à terme, d’en suivre le traitement. Les forces de sécurité intérieure, quant à elles, recevront des kits de formation pour le recueil des plaintes pour cyberviolence grâce au plan pour l’égalité entre les femmes et les hommes présenté par Elisabeth Borne et Isabelle Rome le 8 mars dernier.

Quant à la justice, ses moyens augmenteront dans des proportions historiques dans les prochaines semaines, avec notamment le recrutement de 10 000 personnels, magistrats et greffiers, qui permettra évidemment d’instruire les procédures qui seront déclenchées au titre des violences en ligne et du harcèlement.

Madame Calvez, le règlement DSA prévoit une obligation d’audit des algorithmes et de partage de leurs données avec les chercheurs, qui pourront mettre au jour certaines défaillances de ces systèmes. À cela s’ajoutent notamment les rapports annuels de transparence que les plateformes remettront à la Commission européenne et aux coordinateurs des services numériques, et l’interdiction des dark patterns. En outre, le règlement sur l’intelligence artificielle prévoit une transparence accrue des algorithmes d’intelligence artificielle pour les systèmes à haut risque, c’est-à-dire lorsque l’intelligence artificielle est utilisée pour des systèmes susceptibles d’entraîner des risques notamment pour la vie humaine.

Nous ouvrirons également, avec les états généraux de l’information, un débat sur ces questions. La question se pose de savoir si le DSA et le règlement sur l’intelligence artificielle sont allés assez loin, et la commission qui sera installée dans moins d’un an devra précisément avancer dans ce domaine.

Madame Colboc, dans quelques minutes, la Première ministre présidera la réunion de lancement du comité stratégique pour l’intelligence artificielle, qui abordera différents chantiers, dont celui de la protection du droit d’auteur et, d’une manière générale, des ayants droit dans le domaine culturel, pour nous proposer, je l’espère, dans un élan conjoint avec les états généraux de l’information, des pistes de régulation.

Monsieur Latombe, la Commission européenne n’attendrait pas des semaines pour nous écrire – comme elle le fait du reste régulièrement – si nous prenions des dispositions qu’elle jugerait empiéter sur l’empire du DSA ou sur l’empire précédent, qui était celui de la directive sur le commerce électronique. Ces démarches fragilisent énormément la France, car les acteurs régulés peuvent alors se prévaloir d’une opposition de la Commission aux dispositions votées par le Parlement français pour les contester devant les juridictions européennes.

Madame Yadan, bien que je ne connaisse pas encore l’avis du rapporteur général, il me semble que l’extension de l’article 4 B aux violences sexuelles est une ouverture raisonnable et que nous pouvons cheminer dans cette direction.

Monsieur Gosselin, votre question, fondamentale, se pose tant au niveau français qu’au niveau européen. C’est certes une bonne chose qu’il existe une commission chargée de la régulation des plateformes et des contrôleurs d’accès, mais le texte prévoit des sanctions très lourdes et il ne faut pas croire que l’on puisse s’improviser régulateur.

Des inquiétudes s’exprimaient initialement, mais la Commission européenne a recruté au moins cent personnes pour la bonne application du DSA et les effectifs de l’Arcom, qui avaient été augmentés de quinze équivalents temps plein (ETP) dans la loi de finances de 2023, seront encore relevés de dix ETP supplémentaires dans le projet de loi de finances pour 2024. Nous avons bon espoir que ces vingt-cinq personnes pourront accomplir ces nouvelles missions dans les meilleures conditions.

Monsieur Gaultier, les amendements visant les casinos en ligne ont été jugés irrecevables successivement au Sénat et à l’Assemblée nationale. Traditionnellement, en effet, la régulation de ce secteur est confiée à la direction du budget, et donc au ministre des comptes publics, avec lequel je n’ai pas pris le temps d’évoquer ces amendements, du fait de leur irrecevabilité. Le casino physique et les Jonum me semblent être des activités assez différentes pour que les frottements entre elles ne soient pas très nombreux, mais il s’agit toutefois d’une expérimentation et, si les frottements sont trop nombreux, il faudra en tirer les conclusions en termes de régulation.

Au demeurant, le fait que cette proposition que vous-même et d’autres avez portée ait été jugée irrecevable ne justifie pas que vous l’abandonniez, ne serait-ce qu’en raison de sa pertinence en termes de protection des mineurs contre les addictions. L’existence d’une pratique du jeu en ligne qui contourne les interdictions édictées au niveau national devra en effet nous poser question.

Madame Bourouaha, j’examinerai l’amendement irrecevable que vous évoquez pour en reparler plus précisément avec vous et, le cas échéant, identifier un vecteur pour l’avenir.

Enfin, monsieur Rebeyrotte, je ne doute pas que les articles 11 et 4 de la Déclaration des droits de l’homme et du citoyen, que vous avez cités, éclaireront nos débats.

II.   Examen DES ARTICLES

Lors de ses réunions des mardi 19, mercredi 20 et jeudi 21 septembre 2023, la Commission examine les articles du projet de loi, adopté par le Sénat après engagement de la procédure accélérée, visant à sécuriser et réguler l’espace numérique (n° 1514 rect.) (M. Paul Midy, rapporteur général, Mme Mireille Clapot, Mme Anne Le Hénanff, M. Denis Masséglia, et Mme Louise Morel, rapporteurs).

1.    Deuxième réunion du mardi 19 septembre 2023 à 21 heures 30

Lien vidéo : https://assnat.fr/XVmCuL

M. le président Luc Lamirault. Après avoir procédé cet après-midi à l’audition de M. Jean-Noël Barrot et à la discussion générale sur le projet de loi visant à sécuriser et réguler l’espace numérique, nous en venons maintenant à l’examen de ses articles et des amendements déposés sur ce texte.

Le projet de loi a fait l’objet de 949 amendements. Nous en avons déclaré irrecevables 142 en vertu de l’article 45 de la Constitution. Plusieurs amendements ont été soumis pour avis au président de la commission des finances dans le cadre du contrôle de la recevabilité financière ; j’ai systématiquement suivi son avis, ce qui m’a conduit à déclarer irrecevables 13 amendements. Compte tenu des décisions prises et des amendements retirés ou scindés, il nous reste néanmoins plus de 700 amendements à examiner. J’espère et je ne doute pas que nos débats seront riches et denses.

Chaque orateur disposera de deux minutes pour défendre son amendement, avant les avis du rapporteur et du Gouvernement, puis une intervention pour l’amendement et une contre, à raison d’une minute – si le sujet est d’une importance particulière, nous autoriserons des débats un peu plus longs.

Les collègues non-membres de la commission spéciale ne pourront prendre part aux votes, mais ils pourront défendre leurs amendements.

TITRE I
PROTECTION DES MINEURS EN LIGNE

Section 1
Renforcement des pouvoirs de l’Autorité de régulation de la communication audiovisuelle et numérique en matière de protection en ligne des mineurs

Article 1er : Nouvelles missions confiées à l’Arcom en matière de contrôle de l’inaccessibilité aux mineurs des contenus pornographiques en ligne et d’établissement d’un référentiel obligatoire s’agissant des systèmes de vérification d’âge pour l’accès à ces contenus

Amendement de suppression CS285 de Mme Ségolène Amiot

Mme Ségolène Amiot (LFI-NUPES). Cet article est de façade. Tous les spécialistes s’accordent à dire qu’il n’existe pas de solution permettant de vérifier efficacement l’âge des utilisateurs tout en garantissant strictement le droit de chacun à la vie privée. Les États qui se sont posé la même question – l’Australie, le Canada, le Royaume-Uni – ont tous renoncé. Nous n’aurons probablement pas de solution tant que la blockchain n’aura pas été développée.

Confier à un tiers de confiance la vérification de l’âge, comme le fait l’article, permet à ce tiers de savoir exactement ce que les utilisateurs vont faire : on lui fait confiance sans contrepartie ni vérification.

S’il s’agit vraiment de protéger nos enfants, il faudrait commencer par appliquer la loi en proposant une éducation sexuelle et affective dans les écoles.

Mme Louise Morel, rapporteure pour les titres I et II. Vous avez raison sur ce point : l’éducation sexuelle et affective doit être dispensée, et correctement.

Mais nous ne pouvons pas limiter la lutte contre la diffusion aux mineurs de contenus pédopornographiques à une simple obligation de résultat pour les éditeurs de sites pornographiques et à une question d’éducation. Le nombre des condamnations qui s’appuient sur le dispositif actuel est d’ailleurs très faible. Le prétexte des obstacles techniques, que les éditeurs mettent en avant, doit être surmonté. C’est l’objet de l’article.

Avis défavorable.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique. L’Australie ou le Royaume-Uni, dont vous affirmez qu’ils ont abandonné l’expérimentation, ne l’ont en réalité jamais commencée. Ce sont eux qui nous l’ont dit.

Mme Sophia Chikirou (LFI-NUPES). On ne vous croit pas sur parole !

M. Jean-Noël Barrot, ministre délégué. Allez donc vérifier.

M. Andy Kerbrat (LFI-NUPES). Il ment !

M. Jean-Noël Barrot, ministre délégué. Peut-être les solutions fondées sur les chaînes de blocs nous permettront-elles de renforcer les outils de vérification de l’âge, mais il en existe déjà qui ne nécessitent pas cette technologie. Certaines entreprises ont commencé de les tester en s’appuyant sur le principe du tiers de confiance, et elles semblent plutôt bien fonctionner.

Nous avons besoin d’une base juridique pour créer le référentiel et mettre en œuvre la faculté donnée à l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) de bloquer les sites pornographiques qui ne vérifient pas l’âge des utilisateurs. Ce n’est pas incompatible avec le développement de l’éducation affective. Deux millions d’enfants sont exposés chaque mois aux contenus pornographiques ; les effets délétères de cette exposition sur leur santé et leur développement affectif sont très documentés. D’où la nécessité de cet article.

M. Aurélien Lopez-Liguori (RN). Ce sont 53 % des 15-17 ans qui ont eu accès à du porno au cours des vingt-cinq derniers jours et l’âge moyen du premier accès à ces sites est de 14 ans. Il y a bien là un problème de santé publique.

À l’article 2, nous proposerons d’aller encore plus loin en matière de réponse pénale. Mais, à l’article 1er, nous ne pouvons accepter que la nature même du référentiel soit fixée par décret : nous ne savons pas, nous, parlementaires, à quelle sauce vous allez nous manger. Nous défendrons des amendements garde-fous à cet article. Nous nous abstiendrons lors du vote de l’amendement de suppression afin de laisser vivre le débat démocratique ; notre vote sur l’article dépendra de ce que vous nous proposerez et de la question de savoir si vous retiendrez nos propres propositions.

M. Andy Kerbrat (LFI-NUPES). Monsieur le ministre, excusez-nous de nous agiter dès le début de la discussion, mais ce que vous dites n’est pas vrai.

Vous avez pris trois exemples : l’Australie, le Royaume-Uni et l’Inde. Cette dernière s’est tournée vers le système Aadhaar d’authentification biométrique, mais les garanties constitutionnelles ont conduit à refuser de l’appliquer. Nous aurions le même problème en France avec un système équivalent. Si notre amendement de suppression est rejeté, nous défendrons donc des amendements pour empêcher le recours à un tel système.

Vous nous parlez de pédopornographie, mais la question, ici, est l’accès à la pornographie pour les mineurs. Nous sommes tous et toutes d’accord pour des règles d’âge, mais les moyens techniques n’existent pas. Il ne suffit pas que vous lanciez de votre côté quelques start-up, quelques projets de vérification et d’authentification : il faudra toujours attendre dix ans pour pouvoir réellement agir.

M. Paul Midy, rapporteur général. Nous avons auditionné plusieurs fournisseurs de solutions de vérification de l’âge, comme la start-up GreenBadg, qui a réalisé un test avec le site Marc Dorcel ; je l’ai essayé sur mon téléphone et le dispositif fonctionne très bien, selon le principe du double anonymat. Les solutions d’entreprises plus anciennes et établies, comme Docaposte, fonctionnent très bien aussi.

M. Jean-Noël Barrot, ministre délégué. Si j’ai cité l’Inde, c’était à propos d’un autre sujet : l’identité numérique. S’agissant du contrôle de l’âge, les expériences qui viennent d’être évoquées se sont faites en lien avec la Commission nationale de l’informatique et des libertés (Cnil) et l’Arcom afin d’atteindre le but visé par le référentiel : il s’agit de prévoir au moins une solution de tiers de confiance garantissant que le site sur lequel se rend un adulte ne connaît pas l’identité de celui-ci et que celui qui a fourni à l’internaute la preuve anonyme de majorité ne sait pas à quelle fin elle va être utilisée.

La commission rejette l’amendement.

Amendement CS362 de Mme Francesca Pasquini

M. Jean-Claude Raux (Écolo-NUPES). Il vise à ce que le texte fasse référence à la loi de 2020 plutôt qu’à celle de 2004.

En effet, dans le cas où une question prioritaire de constitutionnalité (QPC) censurerait les nouvelles dispositions modifiant la loi de 2004, il n’y aurait plus aucun recours juridique pour faire suspendre l’accès aux sites X. La modification de la loi de 2020 permet de garantir qu’en cas de censure du Conseil constitutionnel, l’ancienne version sera de nouveau en vigueur.

Mme Louise Morel, rapporteure. Nous avons nous aussi été interpellés par le Conseil français des associations pour les droits de l’enfant (Cofrade) à ce sujet.

Le projet de loi déposé au Sénat prévoyait deux articles distincts et introduisait une procédure de blocage et de déréférencement à l’article 23 de la loi du 30 juillet 2020 visant à protéger les victimes de violences conjugales. Les dispositifs des articles 1er et 2 adoptés par le Sénat sont mieux organisés et plus clairs. Les dispositions en question ont été déplacées et sont désormais introduites dans la loi pour la confiance dans l’économie numérique (LCEN). En conséquence, l’article 23 de la loi de 2020 est abrogé.

Cela étant, si ces articles sont déclarés inconstitutionnels, c’est bien l’article 23 – qui n’a donné lieu à aucune condamnation – qui continuera à s’appliquer, puisqu'il ne sera pas abrogé.

S’agissant des procédures en cours, l’article 36 du projet de loi dispose : « L’article 2 entre en vigueur le 1er janvier 2024. Toutefois, les procédures déjà engagées au 31 décembre 2023 restent régies par les dispositions de l’article 23 de la loi […] du 30 juillet 2020 visant à protéger les victimes de violences conjugales dans sa version en vigueur à cette date. »

Avis défavorable.

La commission rejette l’amendement.

Amendement CS618 de M. Erwan Balanant

M. Erwan Balanant (Dem). Le code pénal définit les interdits. Il s’agit ici, comme cela existe dans différents textes, d’introduire un alinéa miroir rappelant les dispositions de ce code : le référentiel ne doit pas servir aux éditeurs de prétexte pour se soustraire à son article 227-24. L’interdiction faite aux mineurs d’aller sur les sites pornos en sera confortée.

Mme Louise Morel, rapporteure. Vous êtes plusieurs à avoir déposé des amendements en ce sens.

La première phrase de l’alinéa proposé réaffirme la responsabilité des éditeurs, mais fait doublon avec l’article 227-24 du code pénal. J’ai néanmoins prévu de faire une référence plus explicite à celui-ci dans mon amendement CS887 à la fin de l’alinéa 2.

Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Certains s’inquiètent de voir disparaître dans la nouvelle rédaction la référence à l’obligation de résultat qui impose le respect de l’article cité du code pénal. À moins que vous n’y voyiez un problème majeur, je vous recommande, monsieur le député, de vous rallier à l’amendement de la rapporteure visant le même objectif.

M. Erwan Balanant (Dem). Madame la rapporteure, mon amendement ne fait pas doublon avec le code pénal : on ne peut pas doublonner ce code qui fait référence quant à la définition des interdits. Il s’agit d’en réaffirmer les dispositions.

Je trouve votre amendement CS887 un peu trop « gentil ». Peut-être pourrons-nous coordonner nos approches d’ici à la séance publique. J’accepte de retirer le mien pour que nous puissions y travailler ensemble.

L’amendement est retiré.

Amendement CS63 de Mme Corinne Vignon

Mme Mireille Clapot (RE). Il vise à s’assurer que les compétences de l’Arcom relatives aux contenus pornographiques susceptibles d’être vus par un mineur s’étendent aux images pornographiques impliquant des animaux.

Le système actuel interdit la diffusion d’images zoopornographiques et de petites annonces zoophiles, réprimée par la loi du 30 novembre 2021, mais il est tout à fait inefficace. Si l’Arcom disposait de pouvoirs étendus lui permettant de saisir un juge qui demanderait au fournisseur d’accès à internet de retirer ces contenus, le trafic des images pourrait diminuer substantiellement. Cela permettrait de mieux appliquer l’interdiction, notamment lorsque les contenus sont aisément accessibles à des mineurs.

L’amendement est cohérent avec l’article 227-24 du code pénal, qui inclut nommément « les images pornographiques impliquant un ou plusieurs animaux » dans les messages pornographiques qu’il réprime. Les atteintes sexuelles sur des animaux sont des infractions délictuelles et les peines qui les sanctionnent sont majorées lorsqu’elles sont commises en présence d’un mineur.

Hélas, les images zoopornographiques persistent malgré l’interdiction, et sont très simples d’accès pour des mineurs – un jeune qui, cherchant à identifier le sexe de son lapin, saisit les mots « animal sexe » dans le champ d’un moteur de recherche tombe sur des images de zoophilie. Il faut absolument agir.

Mme Louise Morel, rapporteure. La zoopornographie est interdite et réprimée depuis la loi du 30 novembre 2021 visant à lutter contre la maltraitance animale et à conforter le lien entre les animaux et les hommes. Il n’est pas question de l’accès des seuls mineurs à ces contenus : c’est pour tout le monde qu’il est interdit. C’est donc plutôt par le retrait des images qu’il faut agir. L’article 227-24 du code pénal inclut déjà les « images pornographiques impliquant un ou plusieurs animaux » parmi les contenus pornographiques interdits aux mineurs. Inutile d’énumérer ici les images pornographiques qui leur sont interdites.

Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. L’amendement est satisfait. Demande de retrait.

Mme Sophia Chikirou (LFI-NUPES). Je voudrais apporter une clarification, car il peut y avoir des lapsus, comme celui qu’a fait Mme Morel, mais aussi une confusion dans les esprits. La pédopornographie est illégale ; la zoopornographie est illégale ; la pornographie, elle, est légale en France, à la différence de ce qui a cours dans d’autres pays. Il est important de le rappeler au début de nos débats.

Autre rappel utile : la majorité sexuelle dans notre pays est à 15 ans et trois mois.

M. Guillaume Gouffier Valente (RE). J’étais co-auteur, avec Bérangère Couillard, de la proposition de loi qui a donné lieu à la loi de 2020 faisant suite au Grenelle des violences conjugales.

À aucun moment je n’ai entendu la rapporteure, le ministre ou le rapporteur général dire que la pornographie serait illégale. Consommée par des adultes, elle est évidemment légale. Mais l’âge moyen du premier visionnage de pornos, autrefois de 16 ans, tombe à 9, 10 ou 11 ans et ces publics surconsomment les contenus en question. Les effets en sont particulièrement puissants : le combo accès au porno-réseaux sociaux-téléréalité entraîne des violences de type conjugal dès les premières amours. C’est ce qui nous a conduits à vouloir encadrer l’accès au porno, qui est désormais totalement libre, bien loin du temps d’une certaine chaîne cryptée, et consommé dans toutes les cours de récréation.

M. Paul Midy, rapporteur général. La pédophilie et la pédopornographie sont évidemment illégales ; cela ne souffre aucun débat. Concernant la pornographie, sa consommation par les mineurs est parfaitement légale, mais y exposer les mineurs, et a fortiori en faire commerce auprès d’eux, est illégal. C’est ce sujet que traite l’article 1er et dont il s’agit dans l’amendement.

Madame Clapot, nous partageons l’objectif de votre amendement. La pornographie impliquant un ou plusieurs animaux est, elle aussi, illégale. Mais, puisqu’il est satisfait, nous vous proposons de le retirer, sans quoi notre avis sera défavorable.

L’amendement est retiré.

Amendement CS499 de M. Stéphane Vojetta

M. Stéphane Vojetta (RE). Le fait d’introduire ici les mots « sur toute plateforme de communication au public par voie électronique » permet d’utiliser la définition à laquelle nous avons beaucoup travaillé, avec succès, lors des débats qui ont mené à la loi « influenceurs ». Ces débats, récents, tiennent compte de l’état actuel de la technologie et de la compréhension de ces plateformes.

Par ailleurs, la diffusion de la pornographie en ligne a beaucoup évolué ces dernières années. Alors qu’il n’existait que des plateformes de diffusion de contenus préexistants, comme Pornhub, YouPorn, Dorcel ou Jacquie et Michel, tout un pan de la pornographie se développe désormais sur des plateformes alternatives comme OnlyFans ou Mym, qui fonctionnent comme Instagram, mais où les utilisateurs doivent payer pour accéder à des contenus souvent réalisés en direct, sur mesure. L’amendement fait entrer ces plateformes de pornographie sur demande dans le champ d’application du texte afin d’en protéger les mineurs.

Mme Louise Morel, rapporteure. Il est satisfait par le début de l’alinéa 2, qui vise les contenus « mis à la disposition du public par un service de communication au public en ligne ». Demande de retrait ; sinon, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. J’ajoute que Mym est engagée dans une expérimentation avec Docaposte qui permet de tester un système de vérification d’âge par double anonymat.

M. Andy Kerbrat (LFI-NUPES). Notre collègue soulève une bonne question : le changement général des consommations de pornographie, avec l’émergence de Mym ou OnlyFans, mais aussi des plateformes d’auto-entreprenariat pour la création de contenus, très « influencisées » et « startupisées ». Il faut travailler sur ce sujet, car les mineurs accèdent à ces plateformes non comme consommateurs, mais comme producteurs d’images.

Toutefois, la question centrale reste l’identification numérique des mineurs, à laquelle nous restons opposés puisque les méthodes adéquates n’existent pas. La startup qui a été citée en exemple est privée, se caractérise par son libéralisme et propose des solutions liberticides. Nous nous opposons à un contrôle qui échappe à l’État.

M. Aurélien Lopez-Liguori (RN). L’amendement est un peu trop flou, ce qui risque de poser des problèmes d’interprétation. Est-ce qu’un canal Telegram est une « plateforme de communication au public par voie électronique » ? Sûrement. Est-ce qu’un groupe WhatsApp peut l’être ? Peut-être. Potentiellement vous introduisez dans le droit la nécessité de s’identifier pour accéder à une plateforme de messagerie. Faisons attention aux définitions que nous donnons.

M. Stéphane Vojetta (RE). Nous avons étudié le sujet en profondeur pour préciser cette définition dans le cadre de la loi visant à encadrer l’influence commerciale. Les groupes WhatsApp et Telegram en sont évidemment exclus, puisque ce sont des moyens de communication privés. Cela exclut également les emails, y compris collectifs. En réalité, je me demande plutôt si, étant donné que ces contenus ne sont accessibles qu’en payant, ils sont véritablement « mis à la disposition du public ». Je ne suis donc pas certain que mon amendement soit satisfait.

M. Paul Midy, rapporteur général. Je remercie Stéphane Vojetta de s’être penché sur ce sujet, afin de préciser que les plateformes de pornographie classiques mais aussi d’autres, comme Onlyfans ou Mym, entrent dans le champ du projet de loi, qu’elles soient payantes ou non. La partie pornographique de X, par exemple, sera aussi soumise à cette loi.

La commission rejette l’amendement.

Amendements identiques CS191 de M. Laurent Esquenet-Goxes, CS363 de Mme Francesca Pasquini et CS364 de Mme Isabelle Santiago et amendement CS887 de Mme Louise Morel (discussion commune)

M. Laurent Esquenet-Goxes (Dem). L’amendement a été travaillé avec le Cofrade. Il a pour objet de renforcer la contrainte exercée sur les plateformes pornographiques pour que celles-ci soient tenues à une obligation de résultat concernant la vérification de la majorité de leurs utilisateurs. Le simple fait de vérifier préalablement l’âge est une formulation trop imprécise, puisque les plateformes ont prétendu pendant longtemps vérifier l’âge avec une simple case à cocher. Par ailleurs, cette formulation semble conférer aux plateformes une simple obligation de vérification, soit de moyens et non de résultats comme le prévoit l’article 227-24 du code pénal. Modifié en 2007 pour y inclure les plateformes pornographiques, il précise que l’auteur d’un certain nombre de vidéos risque trois ans de prison et 75 000 euros d’amende dès lors que celles-ci sont susceptibles d’être vues ou perçues par un mineur.

L’ajout de la mention de l’interdiction pénale prévue permet de prendre en compte de manière automatique toutes les futures évolutions de l’article 227-24, fréquentes et nécessaires, pour allonger la liste des interdictions y étant contenues.

Rappelons que, selon l’Arcom, 30 % des internautes qui consultent les sites pour adultes sont des mineurs, soit environ 2,3 millions de personnes dont des enfants. Ils sont exposés à ces images pendant plus de cinquante minutes en moyenne par mois. Cette pratique est en hausse constante depuis plusieurs années puisque l’on compte plus de 600 000 mineurs supplémentaires depuis 2017. C’est un vrai enjeu de santé publique sur lequel l’État ne doit rien céder.

M. Jean-Claude Raux (Écolo-NUPES). Le fait de vérifier l’âge est une formulation trop imprécise, puisque les plateformes ont prétendu le faire pendant longtemps avec une simple case à cocher. Par ailleurs, cette formulation se concentre sur le moyen, et non sur le résultat. Que leur reprocher si leur système de vérification est notoirement inefficace ? Enfin, renvoyer au code pénal permet de prendre en compte de manière automatique toutes les évolutions de l’article 227-24, tel que le nouvel alinéa adopté en 2020.

Mme Isabelle Santiago (SOC). C’est le même amendement, qui vise à introduire la mention à l’article 227-24 du code pénal. Nous souhaitons que cet article soit autonome, en quelque sorte, alors que la rédaction de l’amendement de Mme la rapporteure crée un lien direct, si bien que ce pourrait être l’Arcom qui procède à la vérification. Nous souhaitons que les deux soient totalement distincts. L’article 1er envoie un message très clair à la société pour mieux protéger nos enfants.

Mme Louise Morel, rapporteure. Mon amendement permet de cumuler obligation de résultat, par le biais de l’article 227-24, et obligation de moyens, par le maintien du référentiel à l’article 1er.

Demande de retrait au profit de mon amendement ; sinon, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. L’intention des trois amendements identiques était semblable à celle de l’amendement CS618 de M. Balanant. Pour bien avoir les deux obligations auxquelles nous tenons, celle de se conformer à l’article 227-24 et celle de respecter le référentiel, je vous suggère d’adopter l’amendement de Mme la rapporteure. Je suis ouvert à des suggestions d’amélioration pour la séance.

Mme Ségolène Amiot (LFI-NUPES). Sur le principe, une fois encore, nous vous rejoignons. Nous souhaitons évidemment protéger nos mineurs de toutes les manières possibles, mais pas au détriment des libertés individuelles, notamment du droit à la vie privée. Les propositions ne prévoient pas de solutions techniques, puisqu’elles n’existent pas encore. À ce jour, il n’y a pas que les mineurs qui cherchent à accéder à des images pornographiques. C’est tout un chacun, souhaitant accéder à un site adulte, qui devra prouver son âge. Comment le faire sans que ses données soient stockées et que la vie privée soit atteinte ? Je reconnais néanmoins que l’intention est très bonne.

Mme Marie Guévenoux (RE). En soutien de l’amendement de la rapporteure, je rappelle qu’un tiers de nos jeunes est exposé à des contenus pornographiques, qu’un garçon de 12 ans sur deux est exposé à des contenus pornographiques, bien souvent sans l’avoir désiré, que, grâce au travail de Guillaume Gouffier Valente et de Bérangère Couillard, la loi de 2020 a prévu qu’une simple déclaration de majorité ne suffisait pas, et que les éditeurs de sites pornographiques n’ont pas cessé de vouloir la contourner. C’est pour cette raison que nous soutenons l’article 1er qui prévoit la définition du référentiel, qui sera indispensable pour les contraindre à enfin faire en sorte que seuls des adultes aient accès à leurs contenus.

M. Erwan Balanant (Dem). J’entends ce que dit le ministre sur la possibilité d’une nouvelle rédaction qui conviendrait à tout le monde.

Sur la question de la liberté, de la confidentialité, du droit à la vie privée, avant internet, des gens étaient abonnés à des publications pornographiques par courrier. Cela suppose qu’il existait un fichier clients qui n’était sans doute pas le plus confidentiel. Le seul enjeu qui doit nous guider, c’est la protection de nos enfants.

M. Paul Midy, rapporteur général. Madame Amiot, des solutions techniques existent. J’en ai même testé une sur mon téléphone, fournie par une petite start-up, GreenBadg ! Docaposte du groupe La Poste fera sûrement encore mieux et plus puissant. Cela prend cinq minutes avec sa pièce d’identité. L’application émet un certificat pour dire que la personne est majeure. C’est la seule information qui est transmise, rien d’autre. Je l’ai testée sur le site de Marc Dorcel et, en un clic, j’ai eu accès au contenu pornographique sur lequel je ne me suis pas étendu. Des solutions existent donc déjà, et il y en aura des centaines d’autres.

Par ailleurs, nous voulons ajouter l’obligation de moyens à celle de résultat, ce que fait l’amendement de la rapporteure avec la mention de l’article 2227-24 du code pénal.

La commission rejette les amendements CS191, CS363 et CS364.

Elle adopte l’amendement CS887.

Amendement CS224 de M. Guillaume Gouffier Valente

M. Guillaume Gouffier Valente (RE). En attendant le référentiel, je vous propose de faire vérifier l’âge par le biais d’une empreinte bancaire. Si j’ai déposé cet amendement qui pose quelques questions techniques, c’est avec plusieurs intentions. Tout d’abord, dans le projet de loi, on supprime l’obligation de résultat, qu’il est important de restaurer. Nous devons viser deux objectifs : la fermeté et l’efficacité. Je suis ravi que nous cherchions tous à définir le dispositif le plus ambitieux possible. Par ailleurs, je trouve anormal que nous n’ayons pas encore le référentiel. Nous devons, d’ici à la séance, avoir une présentation exhaustive du référentiel technique de l’Arcom. Monsieur le ministre, j’ai confiance en vous, pas en l’Arcom, qui n’est pas un élément moteur sur ce sujet. Notre rôle de législateur est de définir le cadre le plus strict possible dans lequel l’Arcom installera le dispositif, dont nous évaluerons ensuite l’application. Il doit être mis en place avant les six mois prévus par le projet de loi.

Mme Louise Morel, rapporteure. Votre amendement part d’une bonne intention et je ne préjuge pas du fait que votre solution puisse être utilisée. Mais il ne faut pas aller trop vite, et laisser le temps à l’Arcom et à la Cnil de faire leur travail, d’auditionner les acteurs qu’ils souhaitent, de trouver les meilleures solutions techniques, qui pourront évoluer au cours du temps. Nos auditions ont également montré qu’il ne fallait pas limiter le référentiel à un seul outil. C’est un référentiel technique. Par la suite, plusieurs outils pourront être mis à la disposition des sites parmi lesquels les sites feront leur choix – empreinte bancaire, reconnaissance faciale. Demande de retrait : à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Nous avons besoin de ce référentiel, parce que nous avons adjoint à l’obligation de résultat une obligation de moyens, les sites ayant profité de son absence depuis trois ans pour ne pas vérifier l’âge de leurs utilisateurs. Mais nous avons aussi besoin de ce référentiel, parce que c’est à partir de lui que l’Arcom verra si les sites vérifient l’âge de leurs utilisateurs et prendra une décision de blocage et de déréférencement. Une fois qu’il aura été défini, c’est à son aune que l’Arcom agira.

Un dispositif, qui s’apparente à l’empreinte d’une carte bancaire, pourrait être l’une des solutions transitoires. La Cnil a déjà émis des réserves, relatives non pas à la protection de la vie privée mais à celle des données personnelles, considérant que faire de l’empreinte de carte bleue un standard pourrait conduire au développement de modules de vérification d’âge qui viseraient en réalité à capter les données bancaires pour faire du hameçonnage.

Notre travail avec l’Arcom a commencé bien avant ce projet de loi. Le référentiel offrira à un site qui diffuse de la pornographie une palette d’outils, à condition qu’elle respecte les conditions fixées par la Cnil, ainsi qu’au moins une solution de double anonymat, de manière à ce que tout le monde soit satisfait. J’ai entendu l’envie de M. Gouffier Valente d’obtenir des résultats rapidement, j’ai aussi entendu ceux qui craignent que ces systèmes de vérification d’âge portent atteinte à la vie privée et aux données personnelles. Il y aura les deux ! Les sites pourront mettre en œuvre des systèmes un peu moins protecteurs de la vie privée, à condition de toujours proposer un système qui sera, lui, protecteur.

J’entends aussi la remarque de M. Gouffier Valente sur l’Arcom. Je vais demander à son président de clarifier d’ici à la séance les éléments contenus dans son référentiel. Je reste convaincu qu’il est nécessaire, s’agissant d’un référentiel technique, de le laisser entre les mains de l’Arcom, qui dispose d’une expertise et d’un savoir-faire pour édicter des règles qui pourront évoluer avec la technologie, ce qui n’empêchera pas le Parlement de la convoquer à tout moment. Avis défavorable.

M. Andy Kerbrat (LFI-NUPES). Monsieur le ministre, mon rôle n’est pas de vous faire confiance mais de vous demander de la transparence. Je note bien votre demande pour la séance de nous fournir ce référentiel et travailler dessus. Nous sommes toujours opposés à l’identification numérique. Je ne suis pas convaincu par les arguments de mon collègue Balanant sur le fichier clients des magazines porno des années 70 et 80, que je ne connais pas, même si j’ai pu y être confronté visuellement, alors que j’avais moins de 15 ans, comme beaucoup de jeunes, ce qui nous ramène à l’objet de l’article 1er : comment éviter que des enfants de moins de 16 ans ou de 18 ans soient confrontés à des images pornographiques et connaissent des troubles de la sexualité ? Vous tapez à côté ! La Quadrature du Net le dit bien : vous ne protégerez pas les enfants, car l’accès à l’image pornographique peut se trouver sur des sites qui ne sont pas pornographiques, des sites de streaming, par exemple.

M. Philippe Latombe (Dem). De quoi parlons-nous ? D’une empreinte bancaire sur une carte de crédit, qui a forcément été délivrée à quelqu’un qui a plus de 18 ans et qui n’est pas très répandue en France ? D’une carte de paiement ? Certaines sont délivrées à des mineurs, avec interrogation de solde automatique. Cela ne serait donc pas efficace. La solution transitoire proposée par la Cnil, c’est que tant qu’on n’a pas d’autre solution c’est moins pire, dirais-je. En revanche, l’inscrire « en dur » dans la loi poserait des problèmes. Il faut la laisser dans le référentiel de façon transitoire, le temps de trouver une autre solution. Il faudra également nous demander s’il ne faut pas exiger une identification pour tous les sites réservant leur accès aux plus de 18 ans, pour la vente d’alcool ou de cigarettes.

Mme Ségolène Amiot (LFI-NUPES). Je vais dans le sens de mon collègue. La vente de protoxyde d’azote est interdite en France. Or les jeunes s’en procurent malgré tout en achetant directement sur internet avec une carte bleue. Être en possession d’une carte bancaire ne garantit absolument pas la majorité de son utilisateur.

M. Guillaume Gouffier Valente (RE). Je vais retirer mon amendement pour une raison technique : il y a une légère différence entre son exposé des motifs et sa rédaction. Nous parlons depuis 2019 avec l’Arcom. C’est pour cela que j’estime qu’il n’y a plus le temps. Nous avons été moteurs en 2020, en proposant une loi issue notamment du Grenelle des violences conjugales. C’est pour cela que je tiens à ce que toute la transparence soit faite sur le référentiel. Nous devons pouvoir voter en toute connaissance de cause, définir les dispositifs et trouver le bon moyen de combiner l’objectif de fermeté et celui d’efficacité.

L’amendement est retiré.

Amendement CS120 de Mme Violette Spillebout

Mme Violette Spillebout (RE). Il reste compliqué de bloquer l’accès aux sites en assurant la protection des données personnelles. La France pourrait s’inspirer d’autres pays, notamment en chargeant le fournisseur d’accès à internet de contrôler l’âge, puisqu’il est seul capable de connaître celui du titulaire de l’accès. Les éditeurs des sites devraient ainsi se connecter avec les opérateurs. Cette mesure renforcerait le contrôle, ainsi que le rôle des parents, en les amenant à discuter avec les mineurs qui essaieraient d’accéder à des contenus pornographiques.

Mme Louise Morel, rapporteure. La responsabilité de vérifier l’âge des utilisateurs revient aux éditeurs ; les fournisseurs interviendront dans un second temps, dans le cadre de procédures administratives, pour bloquer les sites. En outre, ils mettent depuis longtemps un contrôle parental à disposition de leurs usagers. L’Arcom établira le référentiel, mais il faut éviter toute confusion : celui-ci ne dédouanera pas les éditeurs de leurs responsabilités. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Avis défavorable.

M. Hervé Saulignac (SOC). Nous n’échapperons pas au concours Lépine : vous nous demandez de légiférer sur une boîte noire, et c’est gênant. On pourrait décliner les propositions à l’infini. Vous nous proposez d’adopter le principe d’un référentiel et d’attendre de voir. Vous paraissez hésitant quant aux solutions à adopter ; pour éclairer les débats, vous devez préciser vos intentions avant la séance.

M. Jean-Noël Barrot, ministre délégué. L’Arcom est une autorité indépendante ; je ne peux m’engager à la place de son président, mais je vais vous expliquer notre démarche.

Nous avons d’abord engagé la rédaction du projet de loi. Sans attendre son dépôt, nous avons sollicité de l’Arcom qu’elle établisse l’architecture générale du référentiel, en lien avec la Cnil. Les sites pornographiques pourront, en respectant les règles élémentaires de protection de la vie privée, utiliser au moins un système de double anonymat. Le principe en est clair : l’institution qui fournit la preuve anonyme de majorité ignore à quoi elle sera utilisée ; le site internet n’est accessible qu’avec cette preuve, mais il ne connaît pas l’identité de l’utilisateur. Cette solution est de nature à dissiper la méfiance.

Troisièmement, pour vérifier la faisabilité technique, nous avons dans le même temps suggéré à La Poste de développer une telle application, qui sera utile dans bien d’autres circonstances – la vérification de l’âge sur internet ne se résume pas à l’accès aux sites pornographiques. La Poste a développé un système et m’a demandé de la mettre en relation avec des sites pornographiques. Des expérimentations ont été menées pour affiner le fonctionnement du double anonymat. Ainsi, si vous adoptez le projet de loi, l’Arcom pourra publier son référentiel sans attendre les délais prévus – le président nous fournira des éléments relatifs au référentiel avant la séance, peut-être précisera-t-il dans quel délai il sera accessible –, et les solutions de double anonymat seront prêtes à l’emploi.

Quatrièmement, pour que les articles que vous voterez – je l’espère – soient applicables, nous devrons solliciter une dérogation à la directive sur le commerce électronique – directive du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur. En effet, son article 3 prévoit que la France ne peut imposer à un site basé à Malte des règles qui n’y sont pas en vigueur, à l’exception de mesures adaptées et proportionnées, visant notamment à préserver l’ordre public ou à protéger la santé publique. Dès que le texte sera adopté, nous le notifierons à la Commission, ainsi que notre intention d’en appliquer les mesures en vertu de la dérogation prévue à l’article 3 de la directive. Les éditeurs de sites pornographiques ont objecté à la loi du 30 juillet 2020 et au décret d’application du 7 octobre 2021 que les dispositifs prévus découlaient d’une lubie de la France, qu’ils étaient disproportionnés et qu’aucun autre pays ne les adopterait. Nous avons pris langue avec d’autres pays européens qui réfléchissent à adopter des législations similaires : si les sites attaquent le texte devant la Commission ou les juridictions européennes, nous pourrons parer leurs arguments.

Vous le voyez, nulle improvisation : depuis trois ans, nous attendons de bloquer les sites qui ne vérifient pas l’âge ; nous mettons tout en œuvre pour faire cesser des pratiques qui ne peuvent plus durer.

La commission rejette l’amendement.

Amendement CS288 de Mme Ségolène Amiot

Mme Ségolène Amiot (LFI-NUPES). Nous proposons d’appliquer la treizième recommandation du rapport d’information sénatorial « Porno : l’enfer du décor ». Nous avons fait en sorte qu’un paquet de cigarettes ne soit pas attractif. Sur ce modèle, nous proposons que pendant la vérification de l’âge, les éditeurs ne diffusent pas d’images prévues pour susciter l’envie de consulter leur site, au risque d’exposer les mineurs à des contenus pornographiques.

Mme Louise Morel, rapporteure. Je vous demande de le retirer au profit de l’amendement CS878 que je défendrai dans un instant ; la rédaction en est plus précise, puisqu’il prévoit « l’affichage d’un écran noir ne comportant aucun contenu à caractère pornographique ». Si vous le maintenez, j’émettrai un avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Avis défavorable.

M. Philippe Latombe (Dem). Je reviens au référentiel. Seuls les sites pornographiques sont soumis à l’obligation de vérifier l’âge des utilisateurs. La seule vraie question est de savoir si le référentiel peut ne concerner qu’eux. Il faut l’étendre à tous les sites qui demandent l’âge, – ceux qui vendent de l'alcool, du protoxyde d’azote, des cigarettes, des médicaments notamment –, afin de lever l’obstacle à la vérification en double anonymat, qui établit un lien avec la consultation de sites pornographiques. La solution pourrait alors recueillir l’unanimité, puisque c’est le sens des amendements que défendent nos collègues de la NUPES sur l’éducation et l’absence de publicité.

M. Éric Bothorel (RE). Le rapporteur général a précisé que les dispositifs dont nous débattons s’appliqueraient à Twitter-porno. En réalité, Twitter-porno n’existe pas : dans un fil Twitter, on peut trouver des recettes de cuisine, du sport, et parfois, au fond, après l’affichage d’un message d’alerte, une vidéo porno – j’imagine que Twitter a décidé de se renommer X pour anticiper l’adoption du texte. Comment, selon vous, appliquera-t-il le dispositif puisqu’il ne prévoit pas d’accès spécifique aux images concernées ?

M. Paul Midy, rapporteur général. C’est juste, mais Twitter distingue très bien les contenus pornographiques. Il n’en affiche jamais si vous n’en avez jamais ouvert ; si vous cliquez sur des images pornographiques, il préviendra qu’il s’agit de contenus réservés aux adultes. Ils devront évidemment appliquer la loi. Les auditions ont d’ailleurs montré que Twitter, désormais X, fait partie des grandes plateformes de pornographie.

Mme Ségolène Amiot (LFI-NUPES). Je maintiens mon amendement. « Noir c’est noir » : la formulation est dépourvue de toute ambiguïté. L’amendement de Mme Morel est bavard.

La commission rejette l’amendement.

Amendement CS228 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). Nous sommes tous inquiets du développement de pratiques brutales ; nous craignons que des mineurs soient parfois associés à des films pornographiques ou accèdent à la sexualité par leur biais. Faut-il demander à des hauts fonctionnaires qui ont fait l’ENA – l’École nationale d’administration – de mettre leur temps et leur expertise au service de l’élaboration d’un référentiel, ou faut-il lutter contre l’industrie du film pornographique ?

Le présent amendement tend à faire porter la responsabilité aux vrais coupables, aux organisateurs de cette industrie de plus en plus abjecte, violente et malhonnête, qui s’apparente parfois à des réseaux de proxénétisme. Ce sera plus efficace qu’un référentiel inutile, qui soulèvera de nombreuses autres questions, relatives notamment à l’opportunité d’en étendre l'application aux réseaux sociaux et à l’identité numérique.

Mme Louise Morel, rapporteure. Adopter votre amendement reviendrait à supprimer les deux premiers alinéas, puisque le référentiel disparaîtrait. Or si la loi de 2020 avait suffi à résoudre le problème, nous ne serions pas réunis. Les éditeurs ne respectent pas le code pénal, mais aucun n’a encore été condamné. Une avancée juridique est nécessaire. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. L’obligation de résultat n’a pas suffi ; les sites pornos nous baladent depuis trois ans. La loi a été promulguée le 30 juillet 2020 ; le décret d’application paru en octobre 2021 prévoit que l’Arcom, lorsqu’elle a constaté qu’un site ne vérifie pas véritablement l’âge des utilisateurs, peut saisir le tribunal judiciaire de Paris. En décembre 2021, elle a mis en demeure les éditeurs des cinq principaux sites de se conformer aux obligations légales ; faute d’effet, elle a saisi le tribunal. L’audience s’est tenue en septembre 2022. Les éditeurs ont argué qu’ils demandaient bien l’âge mais ne savaient pas comment le vérifier ; ils ont posé une question prioritaire de constitutionnalité (QPC) et utilisé tous les éléments de procédure possibles pour chercher des noises à un texte pourtant très clair. Il a fallu attendre encore un an pour le délibéré, sans décision au fond puisque les sites ont engagé devant le Conseil d’État une autre procédure, relative à la validité des textes, après que la QPC n’a pas été transmise au Conseil constitutionnel.

Il ne faut pas escompter que les sites pornographiques se plieront de bonne volonté à une obligation de résultat. Le texte prévoit donc que l’Arcom puisse ordonner le blocage en quelques semaines seulement, ce qui est très dissuasif, et un référentiel, indispensable pour fonder les décisions de blocage. Avis défavorable.

Mme Sophia Chikirou (LFI-NUPES). Sur le référentiel, monsieur le ministre délégué, vous en dites trop ou pas assez. J’ai compris que l’Arcom y travaille et que vous avez choisi le double anonymat comme système de vérification de l’identité. Si la décision est prise, discutons de ce dispositif plutôt que de débattre d’amendements conçus en rapport avec d’autres méthodes. Au moins, nous saurons précisément sur quoi nous légiférons.

Au nom du respect de la liberté et de l’anonymat des usagers, nous préférons laisser aux plateformes le choix des moyens, et les contrôler.

M. Guillaume Gouffier Valente (RE). La loi de 2020 a introduit l’obligation de résultat, par souci de fermeté. Depuis, certains éditeurs de sites pornographiques se jouent de nous en prétextant que nous ne leur avons pas dit comment atteindre le résultat. Ils font traîner les procédures alors que l’objectif est de couper l’accès immédiatement – pas sept ans après les faits. Certains éditeurs réclament également plus d’efficacité, en constatant que leurs concurrents se moquent de tout le monde, comme de la protection de l’enfance et des droits des femmes.

Le référentiel vise à rester fermes en introduisant une obligation de moyens.

La commission rejette l’amendement.

Amendement CS401 de Mme Francesca Pasquini

M. Jean-Claude Raux (Écolo-NUPES). Il vise à rendre facultative la publication par l’Arcom d’un référentiel technique, afin que le délai nécessaire à sa rédaction et à sa publication ne fasse pas obstacle aux procédures ouvertes à l’encontre des plateformes qui auraient contrevenu à l’article 227-24 du code pénal.

Mme Louise Morel (Dem). L’article 36 du texte prévoit que l’article 2 entrera en vigueur le 1er janvier 2024 ; les procédures engagées avant restent régies par l’article 23 de la loi du 30 juillet 2020. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Sophia Chikirou (LFI-NUPES). Monsieur le ministre délégué, je vous ai posé une question. Pourriez-vous prendre le temps d’y répondre ? Sinon, nous finirons par croire que c’est vous qui nous baladez. Le référentiel est-il déjà défini ? Si tel est le cas, il faut que le législateur se prononce sur le choix du double anonymat.

M. Jean-Noël Barrot, ministre délégué. Je ne peux pas me prononcer à la place de l’Arcom. Je comprends l’intention des auteurs de l’amendement : personne ne veut attendre six mois après la promulgation de la loi.

Tous les avis sont légitimes. Certains affirment qu’il faut exiger la carte bleue pour autoriser l’accès aux sites. D’autres objectent qu’il n’est pas envisageable d’imposer un système de vérification d’âge qui ne respecte pas la vie privée des adultes. Cette discussion est à l’origine de la réflexion sur le référentiel – dont j’espère que nous connaîtrons le résultat avant l’examen en séance. Il s’agit d’autoriser les deux. Si l’empreinte de carte bleue satisfait aux exigences de l’Arcom en matière de fiabilité et aux exigences de la Cnil concernant le respect de la vie privée, les sites seront libres d’installer ce système et les visiteurs de l’utiliser, parce qu’il est plus simple. Avec une nuance : à long terme, l’Arcom et la Cnil s’y opposeront sans doute, mais des solutions similaires le remplaceront. D’un autre côté, les sites devront obligatoirement proposer une vérification par double anonymat pour qu’un utilisateur qui ne fait confiance ni au site, ni à la banque, ni à quiconque, puisse visiter le site avec l’assurance que personne n’en saura rien. Ainsi, tout le monde sera satisfait : ceux qui préfèrent la facilité, même au détriment de la protection des données personnelles, comme ceux qui préfèrent une protection fiable de leur vie privée. À défaut, le site sera réputé ne pas respecter le référentiel et pourra être bloqué ou déréférencé.

La commission rejette l’amendement.

Amendements identiques CS195 de Mme Caroline Parmentier et CS332 de Mme Emeline K/Bidi

Mme Caroline Parmentier (RN). Il vise à garantir que le référentiel publié par l’Arcom sera conforme à l’avis de la Cnil. Il s’agit de déterminer les caractéristiques techniques applicables au système de vérification de l’âge ; cela suppose de trouver un équilibre entre liberté, droit et protection. La Cnil est compétente dans ces domaines ; rendre son avis contraignant constitue une garantie supplémentaire.

Mme Emeline K/Bidi (GDR-NUPES). Il va peut-être de soi que l’avis de la Cnil sera conforme, mais la précision n’est pas un luxe. Le référentiel soulève des débats nourris et des inquiétudes parce qu’il est difficile de savoir ce qu’il contiendra et s’il sera conforme à nos valeurs les plus essentielles – respect de la vie privée et des libertés individuelles.

Mme Louise Morel, rapporteure. Je ne suis pas favorable à lier les deux autorités administratives indépendantes car cela alourdirait les procédures. Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Imagine-t-on l’Arcom publier un référentiel contraire à l’avis de la Cnil ?

Certes, nous voulons préserver la vie privée, mais nous visons aussi l’efficacité. Faisons preuve de discernement pour adopter une mesure équilibrée. Le Gouvernement estime que l’avis simple suffit ; l’avis conforme décalerait l’application du dispositif. En outre, le référentiel pourrait évoluer : exiger l’avis conforme à chaque modification serait trop lourd.

Mme Ségolène Amiot (LFI-NUPES). Il nous paraît indispensable que le référentiel proposé par l’Arcom soit conforme aux demandes de la Cnil – même si la Cnil ne s’oppose pas à l’analyse faciale, contrairement à nous. Cela alourdirait sans doute un peu la procédure, mais il n’est pas difficile de passer un coup de fil.

M. Philippe Gosselin (LR). Il faut éviter la cacophonie ; des dissensions seraient malencontreuses. La Cnil n’est pas supérieure aux autres autorités administratives indépendantes, mais elle dispose d’une expérience nourrie au fil du temps. La nécessité d’un avis conforme obligerait les deux institutions à échanger et à travailler ensemble pour élaborer le référentiel.

M. Jean-Noël Barrot, ministre délégué. L’expertise technique de la Cnil est inégalée. Mais qu’apporterait l’avis conforme par rapport à un avis simple ? L’Arcom ne prendrait jamais le risque d’aller contre l’avis de la Cnil ; sinon, les sites se précipiteraient devant les tribunaux pour s’en plaindre. L’avis simple tel qu’il est prévu me paraît suffisant.

La commission rejette les amendements CS195 et CS332.

Amendement CS737 de M. Victor Habert-Dassault

M. Victor Habert-Dassault (LR). Au vu de l’importance du référentiel et de la complexité du sujet, il me semble important que le Parlement se prononce sur sa version finale.

Mme Louise Morel, rapporteure. Je m’étais posé la question, mais après audition des acteurs, je ne suis pas favorable à cette solution. Le référentiel sera soumis à une consultation publique. En outre, les commissions permanentes du Parlement peuvent se saisir du sujet. Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Andy Kerbrat (LFI-NUPES). La solution est trouvée, vous nous le dites à demi-mot ; et nous aurons – peut-être – le référentiel d’ici à la séance. J’ai envie de vous faire confiance, mais nous légiférons tout de même sur un sujet sérieux avec beaucoup d’inconnues… Il faut de la transparence pour que la commission puisse s’engager. Vous commencez à nous faire tourner en bourrique !

M. Paul Midy, rapporteur général. Nous avons tous envie de travailler sur ce sujet. Une consultation publique sera organisée, et nous pourrons y participer ensemble. L’amendement est intéressant mais satisfait ; d’où la demande de retrait.

M. Philippe Gosselin (LR). L’amendement n’est pas satisfait ! Dans une consultation publique, les parlementaires interviennent en tant que citoyens. Il ne faut pas laisser penser que demander l’avis du Parlement alourdit la procédure, sinon il n’y a plus qu’à plier les gaules et fermer l’Assemblée nationale et le Sénat pendant quelques mois. Que la procédure en soit allongée, ce n’est pas faux ; mais on apprend que le travail sur le référentiel a commencé, qu’une commission est quasiment constituée. Il me semblerait bon d’associer le Parlement à ces travaux.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CS714 de Mme Louise Morel, rapporteure.

Amendements identiques CS52 de M. Ian Boucard et CS114 de M. Aurélien Taché

M. Victor Habert-Dassault (LR). Cet amendement propose d’ajouter un troisième critère au référentiel, celui de la garantie de l’anonymat en ligne.

M. Aurélien Taché (Écolo-NUPES). Vous fustigez la loi de 2020, qui faisait porter la responsabilité sur ces entreprises ; elle avait pourtant été votée par cette majorité et c’était un premier pas. Personne ici ne s’oppose à l’idée de protéger les enfants de cette industrie pornographique de plus en plus violente. Le problème, c’est qu’on a l’impression que vous voulez surveiller les parents ! Nous vous interrogeons depuis tout à l’heure sur le double anonymat, que personne n’explique clairement. Acceptez au moins cet amendement, car nous sommes troublés : vous dites que c’est l’Arcom qui décide, alors que si c’était vous, nous pourrions au moins en débattre ; les députés de la majorité multiplient les amendements, qui pour interdire les VPN (réseaux privés virtuels), qui sur la « plaque d’immatriculation » en ligne… On finit par se demander si cette vérification n’est pas un cheval de Troie pour mettre fin à l’anonymat en ligne. Nous devons avoir une discussion politique !

Mme Louise Morel, rapporteure. Avis défavorable.

Nous abordons une série d’amendements relatifs aux critères que le référentiel devra respecter. Nous y serons défavorables, car la rédaction actuelle nous paraît la bonne : elle garantit tant la fiabilité de la solution adoptée que le respect de la vie privée.

Nous ne souhaitons pas inscrire dans la loi une solution technique plutôt qu’une autre, ni contraindre davantage l’Arcom et la Cnil, qui travaille avec le pôle d’expertise de la régulation numérique (Peren) et qui est garante de la protection de nos données personnelles.

Nous présentons dans le rapport la solution du double anonymat : un organisme certifie que vous avez l’âge requis, mais ne sait pas quels sites vous visitez ; le site visité reçoit la preuve que vous avez l’âge requis, mais ne sait pas qui vous êtes. Cela ne préjuge en rien des caractéristiques techniques du référentiel.

M. Jean-Noël Barrot, ministre délégué. La fiabilité du contrôle de l’âge des utilisateurs, d’une part, et le respect de leur vie privée, de l’autre, sont les deux principes cardinaux. J’espère que l’Arcom pourra s’exprimer sur le référentiel avant les débats en séance publique ; il s’agira d’une liste de spécifications techniques minimales auxquelles les solutions de vérification d’âge devront se conformer. Pour cette raison, il ne peut pas être inscrit dans un article de loi.

Au moins une des solutions proposées par les sites devra reposer sur le principe du double anonymat, qui a été inventé par le Linc, le laboratoire d’innovation numérique de la Cnil. Je pourrai diffuser le papier de recherche qui en a établi la possibilité théorique. Depuis lors, des industriels nous ont confirmé qu’il était possible d’utiliser ce principe ; évidemment, des expérimentations sont encore nécessaires.

Mme Sophia Chikirou (LFI-NUPES). Le double anonymat, ce n’est pas de l’anonymat ! Quelqu’un connaît, relève et peut avoir accès à l’identité des internautes. Je ne comprends pas pourquoi vous refusez d’inscrire dans la loi la garantie de l’anonymat, d’autant que le DSA demande « des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée ». L’Arcom l’a d’ailleurs dit clairement : ils s’attendent à des contestations, car ce que vous envisagez remet en cause le principe de l’anonymat.

M. Erwan Balanant (Dem). Je ne comprends pas l’argumentation de M. Taché. Le sujet, c’est le respect de l’article 227‑24 du code pénal. L’Arcom proposera un référentiel qui respectera des principes : la fiabilité de la vérification de l’âge, le respect de la vie privée. Le double anonymat répond à ces principes, et la Cnil en sera la garante. L’amendement est donc satisfait !

La commission rejette l’amendement.

Amendements CS49 de M. Ian Boucard et CS239 de M. Aurélien Lopez-Liguori (discussion commune)

M. Victor Habert-Dassault (LR). L’amendement vise à s’assurer que les données personnelles transmises ne seront pas exploitées.

M. Aurélien Lopez-Liguori (RN). Je parlais tout à l’heure de garde-fous : en voici un. En juillet 2022, la Cnil a analysé les solutions de vérification de l’âge des utilisateurs en examinant les propriétés suivantes : « une vérification suffisamment fiable, une couverture complète de la population ainsi que le respect de la protection des données et de la vie privée des individus et de leur sécurité ». L’amendement précise donc que le référentiel doit prévoir la sécurité des données.

Mme Louise Morel, rapporteure. Avis défavorable.

Le critère de respect de la vie privée est plus large que celui de la protection des données personnelles. En outre, le référentiel devra, quoi qu’il en soit, respecter le règlement général sur la protection des données (RGPD). L’amendement CS49 est donc satisfait.

Le rôle de la Cnil dans la procédure garantira la sécurité des données.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Élisa Martin (LFI-NUPES). L’ensemble de ces amendements demandent des garanties supplémentaires quant à l’utilisation future des données et à la future procédure de vérification d’âge. Or, vous semblez tenir un double discours : il semble déjà y avoir des choses dans les tuyaux. Et, selon vous, ces amendements seraient superflus.

Ces amendements sont révélateurs d’un problème de démocratie et de transparence. Il est normal que les députés s’assurent que la procédure mise en place correspondra à l’esprit de la loi.

M. Philippe Gosselin (LR). Il est bien question d’anonymat et non de pseudonymat, d’un bout à l’autre de la chaîne, n’est-ce pas ?

M. Jean-Noël Barrot, ministre délégué. Le référentiel imposera aux sites de proposer au moins une solution de double anonymat. C’est un principe renforcé de protection de la vie privée. En pratique, cela pourrait prendre la forme d’une application sur smartphone, qui vous demandera quel fournisseur vous souhaitez solliciter pour disposer d’une preuve anonyme de majorité qui sera stockée sur votre appareil. Je ne voudrais pas sortir de ma condition, mais ce tiers pourrait être un opérateur télécom, une banque, un fournisseur d’identité numérique… Le jour où vous voulez accéder à un site réservé aux adultes, vous trouverez sur ce site l’icône de l’application, vous cliquerez, et une notification sur votre téléphone vous demandera votre accord pour transférer la preuve anonyme. Ainsi, le site ne connaît pas votre identité ; la preuve anonyme vous a été fournie par une institution qui ne sait pas ce que vous en faites.

La commission rejette successivement les amendements CS49 et CS239.

Amendement CS279 de M. Jean-Claude Raux

M. Jean-Claude Raux (Écolo-NUPES). Cet amendement vise à ajouter un troisième critère que devra respecter le référentiel : celui de l’impact environnemental. Cet aspect doit être pleinement intégré à nos politiques de transition ; dans le cas contraire, nous pourrions voir l’impact environnemental du numérique tripler d’ici à 2050, selon des projections de l’Agence de la transition écologique (Ademe) et de l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep). Certaines technologies, comme la blockchain, ont des effets plus néfastes pour l’environnement que d’autres ; le référentiel doit en tenir compte.

M. Paul Midy, rapporteur général. Les sites pornographiques ont demandé à la justice un référentiel parce qu’ils craignaient que certains de leurs compétiteurs soient moins-disants, proposent des solutions moins fiables et moins protectrices de la vie privée, et que le trafic se détourne vers ceux-ci. La mise en place d’un référentiel a pour objet de les contraindre fortement.

Nous visons tous le même objectif, mais nous croyons qu’il faut laisser à l’Arcom toute latitude pour assurer la cohérence du référentiel, afin qu’il soit aussi fort que possible. Voilà pourquoi nous sommes défavorables aux amendements de précision.

S’agissant de l’empreinte environnementale, la pornographie représente un tiers des flux internet de la planète, donc des émissions très importantes. Nous vous proposons d’y réfléchir d’ici à la séance publique.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Andy Kerbrat (LFI-NUPES). Petit à petit, on avance ! M. le ministre délégué nous dit maintenant qu’un travail est mené pour créer une application pour smartphone qui donnerait la preuve de majorité. Au passage, tout le monde n’utilise pas son téléphone pour regarder de la pornographie !

Mais je rappelle que cet article 1er vise à protéger les mineurs de la pornographie. Nous nous éloignons de plus en plus du sujet. J’aimerais des réponses claires aux questions que nous avons posées.

La commission rejette l’amendement.

Amendement CS331 de M. André Chassaigne

Mme Emeline K/Bidi (GDR-NUPES). Chacun conviendra que le contrôle de l’âge ne peut relever de l’éditeur de contenus : il faut absolument qu’il soit effectué par un tiers. Vous l’avez indiqué, monsieur le ministre délégué, certaines techniques existent déjà, notamment celle du double anonymat, qui doit encore être perfectionnée et expertisée. Ainsi, la précision que nous souhaitons introduire rejoint un principe que vous avez déjà énoncé mais qui ne figure pas explicitement dans le texte.

Mme Louise Morel, rapporteure. Il est probable que la solution fasse intervenir un tiers mais, encore une fois, laissons l’Arcom faire son travail ! Il est inutile d’apporter cette précision dans la loi à ce stade. Avis défavorable.

La commission rejette l’amendement.

Amendement CS330 de Mme Soumya Bourouaha

Mme Soumya Bourouaha (GDR-NUPES). Le contrôle de l’inaccessibilité des sites pornographiques aux mineurs est un enjeu important et sensible. Nous souhaitons nous assurer que les sites diffusant ce genre de contenus ne contrôlent pas eux-mêmes l’âge de leurs visiteurs et recommandons donc, à l’instar de la Cnil, l’usage de la technologie du double anonymat impliquant l’intervention d’un tiers de confiance. En d’autres termes, la vérification de l’âge doit être effectuée par un service extérieur au site. Vous avez vous-même admis, monsieur le ministre délégué, qu’on ne pouvait pas faire confiance aux éditeurs, qui essaient toujours de contourner la loi.

Mme Louise Morel, rapporteure. Pour les raisons évoquées précédemment, nous ne souhaitons pas préciser le référentiel. Avis défavorable.

La commission rejette l’amendement.

Amendements CS245 et CS244 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Nous sommes un peu dans le flou, puisque vous voulez instituer ce référentiel par décret.

L’amendement CS245 vise à instaurer un garde-fou interdisant la vérification de l’âge de l’utilisateur à partir de son historique de navigation, conformément à l’avis exprimé par la Cnil dans sa délibération du 3 juin 2021 invitant les autorités à articuler les systèmes de vérification de l’âge autour de six piliers. La Commission a d’ailleurs réitéré cette recommandation en 2022, considérant qu’une telle modalité apparaîtrait « trop intrusive pour la simple finalité du contrôle de l’âge ».

L’amendement CS244 prohibe le stockage, par le site pornographique, de données à caractère personnel autres que l’âge de l’utilisateur. Cela rejoint là aussi une demande de la Cnil.

Mme Louise Morel, rapporteure. Vos deux amendements sont satisfaits, les éditeurs de contenus étant soumis au règlement général sur la protection des données (RGPD). Demande de retrait ou avis défavorable.

La commission rejette successivement les amendements.

Amendement CS115 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). Madame la rapporteure, vous avez dit tout à l’heure que vous ne vouliez pas graver de solutions techniques dans le marbre. Après tout, le numérique évolue rapidement : laissons donc faire les spécialistes ! Cependant, je ne comprends toujours pas pourquoi le principe de l’anonymat en ligne n’a pas été inscrit dans le texte. C’est cela que nous vous demandions.

M. le ministre délégué a dit qu’il espérait que le référentiel serait transmis aux parlementaires d’ici à la séance publique. Visiblement, cela n’est pas certain. Dès lors, serait-il possible qu’après l’adoption de ce projet de loi, qui fait peu de doute, les citoyens puissent vérifier eux-mêmes comment a été construit le système de contrôle de l’âge ? Nous vous demandons de rendre ce système transparent – un peu comme un logiciel libre –, conformément au principe qui a longtemps prévalu sur le web avant que les Gafam s’emparent de nos données et verrouillent internet sans que les acteurs politiques soient conscients de ce qui se passait.

Mme Louise Morel, rapporteure. Cette transparence est possible et souhaitable, mais nous ne voulons pas l’imposer par la loi. Avis défavorable.

La commission rejette l’amendement.

Suivant l’avis de la rapporteure, elle rejette l’amendement CS241 de M. Aurélien Lopez-Liguori.

Amendements CS50 de M. Ian Boucard et CS242 de M. Aurélien Lopez-Liguori (discussion commune)

M. Victor Habert-Dassault (LR). Si nous ne connaissons pas en détail la technologie qui sera utilisée, nous pouvons néanmoins poser des garde-fous dans la loi. Aussi l’amendement CS50 vise-t-il à interdire explicitement l’usage des technologies de reconnaissance biométrique.

M. Aurélien Lopez-Liguori (RN). L’amendement CS242 vise à poser le même garde-fou législatif, en précisant bien que l’interdiction ne s’applique qu’aux technologies de reconnaissance biométrique. Nous voulons en effet laisser la porte ouverte aux solutions de reconnaissance algorithmique comme celle qu’est en train de tester Docaposte – une solution de reconnaissance faciale permettant d’estimer à trois mois près, sans aucun stockage de données, l’âge d’un individu.

Mme Louise Morel, rapporteure. Je ne doute pas que la Cnil veillera à ce que la biométrie, qui peut être une solution, soit utilisée correctement. Laissons les autorités administratives faire leur travail et ne fermons aucune porte à ce stade. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Sophia Chikirou (LFI-NUPES). Madame la rapporteure, votre réponse nous inquiète. Vous déléguez absolument tout à une autorité de régulation, l’Arcom, qui va définir le référentiel. Alors que nous ne savons pas ce que nous sommes en train de voter, vous refusez que nous posions des garde-fous tels que l’interdiction de la reconnaissance biométrique faciale. Vous laissez les plateformes de contenus pornographiques choisir quelle méthode de vérification de l’âge elles voudront utiliser : il y aura donc une multitude de pratiques…

M. le président Luc Lamirault. Je vous remercie, madame la députée. (Protestations.) Il faut être plus concis : les interventions sont limitées à une minute.

Mme Sophia Chikirou (LFI-NUPES). Vous exagérez : je n’ai pas eu le temps d’aller au bout de mon explication. Vous empêchez le débat !

La commission rejette successivement les amendements.

Amendements identiques CS735 de Mme Louise Morel et CS710 de M. Quentin Bataillon

Mme Louise Morel, rapporteure. Ces amendements, proposés par l’Arcom, permettent à cette dernière d’imposer des audits réguliers des dispositifs techniques mis en œuvre par les éditeurs.

M. Quentin Bataillon (RE). Ce sont des amendements de bon sens, qui me donnent l’occasion de dire toute la confiance que j’accorde à l’Arcom, à son collège et à ses agents. Quel que soit le référentiel choisi – comme mes collègues, je souhaite être associé à sa définition –, il doit pouvoir évoluer dans le temps, en fonction des progrès technologiques. Nous n’allons quand même pas légiférer tous les ans !

Mme Sophia Chikirou (LFI-NUPES). J’aimerais terminer l’explication que j’ai commencée tout à l’heure. À partir du moment où vous laissez aux plateformes le choix de l’outil de vérification de l’âge, elles pourront utiliser des applications commercialisées par des sociétés privées. Si vous démultipliez le nombre de méthodes possibles, non seulement vous créerez un nouveau marché de la vérification d’identité, mais vous n’aurez même pas la garantie que les diverses applications ne profitent pas de cette aubaine pour collecter des données et rompre l’anonymat des utilisateurs, puisque l’Arcom n’aura pas les moyens d’exercer son contrôle. Le législateur a donc intérêt à définir les règles les plus précises possible. On ne doit pas permettre tout et n’importe quoi ; c’est pourtant ce que vous faites avec cette histoire de référentiel, que vous entourez d’une sorte de flou artistique. Quand c’est flou, c’est qu’il y a un loup ! Vous devez donc clarifier vous-mêmes les choses ou nous permettre de le faire. Je sais que certains députés de la majorité, avec qui j’ai discuté dans les couloirs, partagent mon point de vue.

M. Paul Midy, rapporteur général. Le référentiel sert précisément à contraindre le plus fortement possible l’ensemble des sociétés qui procéderont aux vérifications d’âge. Certaines règles figurent déjà dans le texte adopté par le Sénat, lequel vise deux objectifs : la fiabilité du contrôle et le respect de la vie privée.

Vous évoquez le risque de collecte de données. Il s’agit en effet d’un point très important, auquel nous devons être très sensibles : c’est pourquoi la Cnil veille à ce que le RGPD soit appliqué par l’ensemble des entreprises exerçant dans notre pays.

La commission adopte les amendements.

Amendement CS365 de Mme Isabelle Santiago

Mme Isabelle Santiago (SOC). Cet amendement nous a été suggéré par Cofrade, que nous soutenons. Il vise à préciser de manière explicite que les dispositions de l’article 227-24 du code pénal s’appliquent aux éditeurs indépendamment de la publication du référentiel.

Mme Louise Morel, rapporteure. Nous avons déjà débattu de ce sujet et adopté mon amendement CS887 à cette fin. Je vous invite donc à retirer le vôtre, qui est satisfait ; à défaut, je lui donnerai un avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. René Pilato (LFI-NUPES). On évoque depuis tout à l’heure une tonne d’applications qui vont faire la fortune d’entreprises privées. Pourquoi ne parlez-vous jamais de France Identité, la seule application d’identité numérique régalienne ?

La commission rejette l’amendement.

Amendement CS402 de Mme Francesca Pasquini

M. Jean-Claude Raux (Écolo-NUPES). Cet amendement garantit que les arbitrages entre protection des enfants et protection de la vie privée soient conformes aux engagements pris par la France lors de la ratification de la Convention relative aux droits de l’enfant, qui consacre la notion d’intérêt supérieur de l’enfant. Par ailleurs, il précise clairement que les plateformes doivent se conformer à la loi sans attendre la publication d’un référentiel technique.

Mme Louise Morel, rapporteure. Votre amendement correspond à l’esprit général de ce projet de loi : il est donc satisfait. Demande de retrait ou avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Andy Kerbrat (LFI-NUPES). Il s’agit pourtant d’un amendement de bon sens, qui touche au cœur du sujet de l’article 1er : la protection de l’enfant face à l’image pornographique. Les précisions qu’il apporte nous paraissent essentielles.

On a beaucoup parlé des entreprises privées qui se chargeraient de vérifier l’identité numérique des utilisateurs. Lors de l’expérimentation menée par Dorcel, la société sollicitée n’avait-elle pas des liens avec le site lui-même ? Voyez le risque immense que vous prenez pour nos enfants ! Ne vous leurrez pas : s’ils cherchent des contenus pornographiques, ils en trouveront. Cependant, vous allez créer des trusts, des monopoles qui diffuseront des lots d’images genrées, hétéro-patriarchales, extrêmement violentes, correspondant précisément à ce que nous dénonçons dans la pornographie. Ne permettez pas la constitution de ces pôles dominants : c’est ainsi que vous créerez de futurs détraqués.

M. Pierre Cazeneuve (RE). Chers collègues de la NUPES, j’ai un peu de mal à vous comprendre. Depuis le début de la discussion, vous nous reprochez d’aller trop loin ou de ne pas nous prémunir assez clairement contre les atteintes à la vie privée. Maintenant, vous soutenez un amendement visant à consacrer l’intérêt supérieur de l’enfant. Nous sommes tous ici favorables à cette notion, mais lui donner une telle primauté poserait de nombreux problèmes. Cela donnerait au Gouvernement et au régulateur la possibilité de prendre, au nom de ce principe, des décisions susceptibles de porter atteinte à votre vie privée en révélant, par exemple, votre âge ou votre lieu d’habitation. Je suis donc tout à fait défavorable à cet amendement très dangereux.

La commission rejette l’amendement.

Amendement CS487 de M. Andy Kerbrat

M. Andy Kerbrat (LFI-NUPES). Madame la rapporteure, vous avez indiqué tout à l’heure que le référentiel serait soumis au RGPD. Le ministre délégué a affirmé, quant à lui, qu’il serait sans doute possible de vérifier l’âge des utilisateurs de téléphone portable en utilisant les moyens offerts par l’appareil – la reconnaissance faciale, l’empreinte biométrique, le code et que sais-je encore. Voilà déjà un motif d’annulation du référentiel au regard du RGPD. Aussi notre amendement vise-t-il à apporter quelques précisions relatives à la reconnaissance faciale.

La Cnil reconnaît la possibilité d’utiliser la reconnaissance faciale ; cependant, elle reconnaît aussi le primat du RGPD. Ainsi, faisons preuve de bon sens en revenant aux essentiels, c’est-à-dire à la liberté telle qu’elle est garantie par le RGPD. Cela permettra de prévenir les abus technologiques dont la majorité a pris l’habitude – je pense à certaines dispositions votées dans le cadre de la loi d’orientation et de programmation du ministère de l’intérieur (Lopmi), de la loi d’orientation et de programmation du ministère de la justice, ou encore de la loi relative aux Jeux olympiques et paralympiques de 2024, dont on voit déjà l’application pendant la Coupe du monde de rugby.

Mme Louise Morel, rapporteure. Votre amendement vise à exclure l’usage de la reconnaissance faciale ; or nous ne souhaitons pas préciser le référentiel, pour des raisons déjà évoquées. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Ségolène Amiot (LFI-NUPES). Peut-être avez-vous déjà essayé d’identifier votre enfant de 4 ans sur les photos personnelles de votre téléphone portable. Si tel est le cas, votre appareil le reconnaîtra sur toutes les photos où il figure, de sa naissance à ses 18 ans et même au-delà. La technologie existe donc déjà sur votre téléphone, qui sait vous reconnaître grâce aux données biométriques de votre visage.

Par ailleurs, en confiant au privé le soin de vérifier la majorité d’un individu, dans le cadre d’un référentiel que nous ne connaissons pas encore, vous ouvrirez à des entreprises étrangères, en vertu des règles de la concurrence, la possibilité de procéder à ces vérifications. Ces entreprises n’étant pas soumises au droit français, elles ne seront pas tenues de respecter nos règles.

M. le président Luc Lamirault. Vous avez prôné tout à l’heure l’utilisation de l’application France Identité, pour laquelle il est nécessaire de scanner une carte d’identité avec photo. Il me semble que cette solution recourt à la reconnaissance faciale.

La commission rejette l’amendement.

Amendement CS878 de Mme Louise Morel ; amendements identiques CS51 de M. Ian Boucard, CS113 de M. Aurélien Taché et CS334 de M. André Chassaigne ; amendement CS243 de M. Aurélien Lopez-Liguori (discussion commune)

Mme Louise Morel, rapporteure. Mon amendement CS878 prévoit l’affichage d’un écran noir ne comportant aucun contenu à caractère pornographique tant que l’âge de l’utilisateur n’a pas été vérifié.

M. Aurélien Taché (Écolo-NUPES). Nous n’arrivons pas à nous mettre d’accord sur la manière de protéger nos enfants contre la pornographie la plus brutale, la plus violente, avec laquelle nous ne voulons pas qu’ils s’éduquent à la sexualité. Mais pouvons-nous au moins nous entendre sur ce qui doit s’afficher à l’écran tant que l’âge de l’utilisateur n’a pas été vérifié ?

Pour notre part, nous souhaitons que ce contrôle relève de la responsabilité de l’industrie pornographique et non de celle de l’Arcom, d’autant que le système de vérification de l’identité annoncé nous paraît encore très flou et susceptible d’être déployé à d’autres fins. Nous craignons que l’État y voie une manière de savoir ce que chacun de nous fait sur internet – le rapporteur général a soulevé cette question aujourd’hui dans le débat public.

L’amendement CS113 prévoit l’affichage d’un écran noir tant que l’âge de l’utilisateur n’a pas été vérifié. Si nous voulons vraiment protéger nos enfants d’une pornographie souvent maltraitante et violente, nous devons nous entendre sur ce principe simple. Cela nous rassurerait quant aux objectifs visés par le Gouvernement et la majorité.

Mme Emeline K/Bidi (GDR-NUPES). Notre amendement CS334 est appelé un peu tard dans la discussion, car nous avons déjà évoqué l’impérieuse nécessité d’afficher un écran noir tant que l’âge de l’utilisateur n’a pas été vérifié. Avant ce contrôle, il faut empêcher tout accès à des contenus pornographiques, de nature publicitaire ou autre. Nous n’inventons pas la poudre : nous ne faisons que reprendre une recommandation du rapport sénatorial « Porno : l’enfer du décor ».

M. Jordan Guitton (RN). Notre amendement CS243 reprend lui aussi une recommandation de ce rapport. Nos collègues sénateurs ont parfois constaté l’affichage d’un contenu pornographique avant même que le visiteur du site ait attesté de sa majorité. Afin d’aller au bout des choses et de bien protéger les mineurs contre ce type de contenu, nous souhaitons qu’un écran neutre empêchant l’apparition de toute vidéo ou photo soit utilisé jusqu’à la vérification de l’âge. Il s’agit là d’une mesure de bon sens.

Mme Louise Morel, rapporteure. Je demande le retrait des amendements CS51, CS113, CS334 et CS243 au profit de mon amendement CS878.

M. Jean-Noël Barrot, ministre délégué. Un certain nombre d’entre vous ont lu le rapport relatif à l’exposition des mineurs au porno rédigé par quatre sénatrices issues de tous bords. Les mesures contenues aux articles 1er et 2 du présent projet de loi en sont directement issues, sans modification.

La commission adopte l’amendement CS878.

En conséquence, les amendements CS51, CS113, CS334 et CS243 tombent.

2.    Première réunion du mercredi 20 septembre 2023 à 9 heures 30

Lien vidéo : https://assnat.fr/vwCIX0

M. le président Luc Lamirault. Nous poursuivons l’examen du projet de loi visant à sécuriser et réguler l’espace numérique, entamé hier soir ; 650 amendements restent en discussion.

Article 1er (suite) : Nouvelles missions confiées à l’Arcom en matière de contrôle de l’inaccessibilité aux mineurs des contenus pornographiques en ligne et d’établissement d’un référentiel obligatoire s’agissant des systèmes de vérification d’âge pour l’accès à ces contenus

Amendements CS287 de Mme Sophia Chikirou et CS289 de M. Andy Kerbrat (discussion commune)

M. Idir Boumertit (LFI-NUPES). Cet amendement de repli vise à apporter des garanties de protection de nos libertés publiques au référentiel que l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) a pour mission d’établir ; faute d’encadrement, l’article 1er n’en offre en effet aucune, ce qui est inquiétant. Comme l’indique La Quadrature du net, imposer l’identité numérique constituerait un précédent et contribuerait à mettre fin à l’anonymat en ligne.

Nous souhaitons donc que soient inscrites dans la loi les recommandations de la Commission nationale de l’informatique et des libertés (Cnil), en précisant que la collecte directe de documents d’identité, l’estimation de l’âge de l’utilisateur à partir de son historique de navigation ainsi que le traitement biométrique aux fins d’identifier une personne physique sont exclus des caractéristiques techniques déterminées par le référentiel. Nous partageons le souci de protéger les mineurs mais la solution ne réside pas dans le déploiement de ce type d’outils : la prévention et l’éducation doivent être des priorités.

Mme Ségolène Amiot (LFI-NUPES). Par cet amendement de repli à l’amendement de repli, il s’agit d’empêcher le traitement en temps réel de l’image des personnes à des fins d’exploitation biométrique. L’amendement est encore moins-disant que le précédent.

Mme Louise Morel, rapporteure pour les titres Ier et II. Nous poursuivons le débat que nous avons entamé hier. Même remarque : nous ne souhaitons pas préciser le référentiel. Nous voulons laisser l’Arcom faire son travail. Je rappelle que l’alinéa 3 évoque, dans une formule très large, le « respect de la vie privée ». Par ailleurs, le référentiel sera bien soumis au règlement général sur la protection des données (RGPD). Avis défavorable.

La commission rejette successivement les amendements.

Amendement CS196 de Mme Caroline Parmentier

Mme Caroline Parmentier (RN). Un amendement de la sénatrice Laurence Rossignol a permis de fixer un délai de six mois pour établir et publier le référentiel relatif aux systèmes de vérification de l’âge déployés pour l’accès aux services de communication au public en ligne de contenus pornographiques. Cet accès étant actuellement très facile, il serait préférable de réduire le délai à trois mois. Les travaux engagés depuis plusieurs années montrent que ce problème persiste. La situation appelle une réaction la plus rapide possible de la puissance publique par le truchement de l’Arcom.

Mme Louise Morel, rapporteure. Il ne faut pas confondre vitesse et précipitation : si l’Arcom peut publier le référentiel plus tôt, tant mieux mais, en l’état, mieux vaut prendre le temps d’organiser la consultation du public sur le projet. Le traitement des observations ne doit pas non plus être négligé. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique. Même avis.

Mme Marie Guévenoux (RE). Hier, le ministre délégué s’est engagé à ce qu’une présentation générale du référentiel soit faite avant la séance. Le groupe Renaissance y tient beaucoup : cette lecture permettra de remédier aux deux problèmes soulevés dans l’article, ceux de la protection des utilisateurs, avec le respect de leur vie privée, et de la vérification fiable de la majorité des usagers, afin que les mineurs soient protégés des contenus illicites, inappropriés à leur âge.

La commission rejette l’amendement.

Amendements CS741 de Mme Louise Morel et CS333 de Mme Soumya Bourouaha (discussion commune)

Mme Louise Morel, rapporteure. Nous proposons de compléter l’alinéa 5 en précisant que l’Arcom rend compte chaque année au Parlement des actualisations du référentiel et des audits des systèmes de vérification de l’âge mis en œuvre par les services de communication au public en ligne. Cela nous permettra d’être bien informés sur cette question.

Mme Soumya Bourouaha (GDR-NUPES). Mon amendement va dans le même sens. L’Arcom doit rendre compte chaque année au Parlement des actualisations du référentiel : il va de notre responsabilité de contrôler et de s’assurer que celui-ci est suffisamment contraignant pour les éditeurs et qu’il respecte l’équilibre que nous souhaitons tous entre la protection des mineurs et celle de la vie privée.

Mme Louise Morel, rapporteure. Mon amendement prévoit que le référentiel est présenté dans le cadre des travaux continus de l’Assemblée ; le vôtre, qu’il fait l’objet d’une présentation distincte par l’Arcom. Je vous suggère donc de le retirer, pour ne pas alourdir nos travaux et le fonctionnement de notre assemblée.

M. Jean-Noël Barrot, ministre délégué. La présentation de l’architecture générale du référentiel permettra de rassurer ceux qui sont soucieux de l’efficacité des systèmes de vérification de l’âge comme ceux qui se préoccupent de préserver la vie privée. En outre, l’amendement de la rapporteure permettra à l’Arcom de rendre compte au Parlement au fil de l’eau. Chacun peut ainsi être rassuré sur la nature du dispositif.

Je donne donc un avis favorable à l’amendement CS741 et propose aux auteurs de l’amendement CS333 de s’y rallier.

La commission adopte l’amendement CS741.

En conséquence, l’amendement CS333 tombe.

Amendement CS407 de Mme Francesca Pasquini

Mme Louise Morel, rapporteure. Mon amendement a prévu que le référentiel serait actualisé en tant que de besoin. Je ne comprends donc pas la mention des trois ans. Avis défavorable.

M. Paul Midy, rapporteur général. De nombreux amendements ont été défendus depuis hier, pour préciser ou qualifier le référentiel : ils sont souvent satisfaits et nous sommes conduits à en demander le retrait ou à leur donner un avis défavorable.

Pour la majorité d’entre eux, j’ai l’impression que nous avançons dans le même sens que leurs auteurs, celui de disposer d’un référentiel le plus robuste possible, qui place des garde-fous solides dans l’élaboration des solutions techniques. Je rappelle les deux objectifs qui figurent dans la loi à l’article 1er : la fiabilité du contrôle de l’âge et le respect de la vie privée.

Nous avons en revanche refusé les amendements qui apportaient des précisions technologiques ou forçaient l’éditeur à opter pour certaines technologies : nous voulons laisser les utilisateurs choisir le type de technologies qu’ils adoptent, dans le cadre du référentiel. Si nous avons repoussé ces amendements, ce n’est pas que nous n’en partageons pas l’objectif mais parce que notre rédaction nous semblait la plus robuste pour atteindre notre objectif commun.

Pour ce qui concerne le calendrier, nous voulons aller vite : six mois semblent une éternité. Pourtant, pour que le dispositif fonctionne, il faut laisser du temps à la consultation publique et aux vérifications juridiques. Vous voyez avec les amendements de la rapporteure qu’en demandant à l’Arcom de présenter les actualisations du référentiel, nous cherchons à nous assurer de sa robustesse.

La commission rejette l’amendement.

Amendement CS246 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Nous avons expliqué hier que nous n’acceptons pas de donner un blanc-seing à l’Arcom pour la création de ce référentiel, par un décret. Les parlementaires sont dans le flou. Nous vous avons proposé des garde-fous législatifs : vous les avez tous refusés. La moindre des choses est d’accepter un rapport qui évalue la mise en œuvre du référentiel et émette des recommandations pour améliorer le dispositif eu égard au respect des libertés individuelles. Le but est de trouver le bon équilibre entre protection de la vie privée et protection des mineurs, et que les parlementaires puissent revenir étudier le référentiel dans les prochains mois.

Mme Louise Morel, rapporteure. Il revient au Parlement de se saisir de ces questions, et il est doté de moyens pour le faire. La commission spéciale sera d’ailleurs amenée à évaluer l’efficacité de cette loi. L’amendement est donc presque satisfait. Pour l’heure, les députés intéressés pourront échanger avec l’Arcom dans quinze jours, lorsque la commission des affaires culturelles auditionnera ses représentants. Avis défavorable.

La commission rejette l’amendement.

Amendement CS616 de M. Erwan Balanant

M. Erwan Balanant (Dem). Toutes ces interdictions visent à respecter les dispositions de l’article 227-24 du code pénal. Nous avons adopté hier soir un amendement de la rapporteure, qui a fait tomber certains des nôtres. D’ici à l’examen en séance, nous pourrons encore travailler la rédaction de l’article car elle n’est pas tout à fait convaincante : on peut aller plus loin.

En l’état je retire mon amendement, qui semble superfétatoire par rapport à celui de la rapporteure.

L’amendement est retiré.

La commission adopte l’article 1er modifié.

Article 2 : Renforcement des pouvoirs de contrôle et de sanction de l’Arcom en matière de restriction d’accès des mineurs aux sites pornographiques

Amendement de suppression CS292 de Mme Ségolène Amiot

Mme Ségolène Amiot (LFI-NUPES). Cet amendement vise à éviter que l’Arcom contourne la procédure judiciaire, comme vous le proposez à l’article 2. Monsieur le ministre délégué, vous avez dit devant le Sénat le 4 juillet 2023, que vous prévoyiez « d’aller beaucoup plus vite, en contournant la procédure judiciaire pour procéder à ce blocage » et qu’il s’agissait de « demander à l’Arcom de prendre une décision assez lourde, à savoir ordonner en quelques semaines le blocage et le déréférencement du site ».

Cette décision est en effet très lourde, et elle doit faire l’objet d’un jugement par un juge. La procédure judiciaire a été rendue inefficace par excès de procédures d’appel mais le fait qu’un juge décide n’est pas anodin. Il paraît indispensable de maintenir le pouvoir de bloquer un site entre les mains d’un juge.

Mme Louise Morel, rapporteure. J’entends votre volonté de laisser une place au juge judiciaire. Toutefois, cela revient à laisser la situation telle quelle. Or, elle ne fonctionne pas, sans quoi nous ne serions pas réunis aujourd’hui. Nous proposons de transformer la procédure judiciaire en procédure administrative de sanction et de blocage, qui peut toujours faire l’objet d’un recours devant le tribunal administratif, même si ce n’est pas la même chose, nous en convenons. Nous avons évoqué hier l’absence de condamnations prononcées. Il faut avancer : nous ne pouvons pas laisser le dispositif en l’état. En supprimant l’article 2, vous proposez de ne rien changer. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Je rejoins les propos de la rapporteure. Rappelons le dispositif et les délais : d’abord, l’Arcom fait part de ses observations par une lettre motivée, remise par tout moyen propre à en établir la date de réception. Le destinataire dispose d’un délai de quinze jours pour y répondre. Ce n’est qu’à l’expiration de ce délai que l’Arcom peut, le cas échéant, mettre en demeure l’éditeur du site de se conformer aux caractéristiques techniques du référentiel, dans un délai de quinze jours. Le dispositif est assorti de possibilités de recours, pour les sites qui se considéreraient lésés. Avis défavorable.

Mme Caroline Parmentier (RN). Conserver le dispositif actuel est irresponsable. Le texte permettra de condamner les sites diffusant de la pornographie, qui sont une agression pour les enfants et les jeunes. Je me permets de vous rappeler vos responsabilités dans ce domaine.

M. René Pilato (LFI-NUPES). L’irresponsabilité est de ne pas respecter la séparation des pouvoirs. Depuis le début de la législature, sans parler de la précédente, votre volonté systématique de contourner la justice est étonnante. De quoi avez-vous peur ? Des atteintes aux libertés impressionnantes sont commises. Demander que la justice puisse trancher une décision, c’est respecter la séparation des pouvoirs : cela est fondamental dans un État de droit. Si vous contournez la justice, vous n’êtes plus dans un État de droit.

Mme Caroline Yadan (RE). Vous parlez de contournements inquiétants du juge, et de non-respect de l’État de droit. Ce n’est pas ce qui se passe. Dans plusieurs domaines de notre droit, il y a une compétence tantôt du juge judiciaire, tantôt du juge administratif. C’est le cas pour le droit des étrangers, vous ne l’ignorez pas.

L’idée est d’être plus efficace pour punir qui doit l’être et pour prononcer plus facilement des sanctions. M. le ministre délégué l’a dit, il y aura des voies de recours. Par voie de conséquence, l’État de droit est parfaitement respecté.

Mme Marie Guévenoux (RE). La rapporteure l’a dit, voter l’amendement, c’est faire en sorte que la situation actuelle perdure et que nous soyons démunis pour empêcher les utilisateurs mineurs d’accéder à ces contenus.

Quant à l’argument d’un contournement du pouvoir judiciaire, qui jette l’opprobre sur la justice administrative, il est faux. L’article prévoit des recours, si bien que les éditeurs pornographiques pourront se défendre des injonctions que lui adressera le président de l’Arcom. Le délai de recours est suffisamment long pour permettre à ceux qui ne sont pas d’accord de faire respecter leurs droits. Quant à nous, nous souhaitons faire en sorte que le droit des mineurs soit respecté dans l’article.

M. Paul Midy, rapporteur général. Si on supprime l’article, le cœur du dispositif tombe car il importe de donner à l’Arcom le pouvoir de menacer les éditeurs. Le but est non de bloquer les sites, mais que la menace soit suffisamment crédible pour qu’ils aillent au bout du déploiement des solutions techniques. La rapporteure l’a dit, si on y renonçait, on se retrouverait dans la situation actuelle : trois ans de procédure judiciaire, qui n’ont mené à rien.

Quant à savoir si ce rôle revient à la justice ou à l’Arcom, nous proposons un choix équilibré, proportionnel, pragmatique et efficace. Il serait disproportionné de donner cette arme à l’Arcom pour des sites politiques ou d’information, mais nous parlons de sites pornographiques. En l’espèce, une erreur de l’Arcom conduirait à un blocage indu de Pornhub pendant quelques jours. C’est moins dramatique que s’il s’agissait d’un autre type de site, d’autant qu’il y a des possibilités de recours efficaces auprès du juge administratif. Le dispositif est encadré par la justice, dans le cas où l’Arcom commettrait des erreurs.

La commission rejette l’amendement.

La commission adopte l’amendement rédactionnel CS677 de Mme Louise Morel, rapporteure.

Amendement CS192 de M. Laurent Esquenet-Goxes

M. Laurent Esquenet-Goxes (Dem). En cohérence avec un amendement similaire déposé à l’article 1er, le présent amendement a pour objet de renforcer la contrainte exercée sur les plateformes pornographiques afin qu’elles soient tenues à une obligation de résultat dans la vérification de la majorité de leurs utilisateurs.

La nouvelle procédure est une véritable avancée : grâce à ce texte, qui donne à l’Arcom un pouvoir de blocage, nous pourrons aller plus vite.

Mais il faut veiller à ne pas déresponsabiliser les plateformes. Sanctionner une plateforme parce qu’elle ne met pas en œuvre un système qui correspond au référentiel n’est pas assez ambitieux par rapport à la situation de départ. Actuellement, les plateformes doivent déjà empêcher les mineurs d’accéder à leurs contenus.

Le souci d’aller vite ne doit pas nous conduire à abaisser les ambitions et les contraintes qui pèsent sur les plateformes : il faut continuer à leur imposer de respecter leurs obligations pénales. Tel est l’objet de l’amendement.

Mme Louise Morel, rapporteure. Nous partageons la nécessité d’introduire des obligations de résultat et de moyens. Nous l’avons déjà écrit à l’article 1er et il n’est pas utile de le préciser à chaque article. Demande de retrait ; à défaut, avis défavorable.

L’amendement est retiré.

La commission adopte l’amendement rédactionnel CS678 de Mme Louise Morel, rapporteure.

Amendement CS170 de Mme Christine Loir

M. Jordan Guitton (RN). Nous souhaiterions que la plateforme ou l’éditeur de site qui reçoivent des observations de l’Arcom soient informés des sanctions qu’ils encourent, pour les dissuader de continuer à publier du contenu pornographique qui pourrait être accessible aux mineurs. La connaissance de la sanction peut être dissuasive. Elle permettrait peut-être que les contenus en ligne soient retirés plus rapidement.

Mme Louise Morel, rapporteure. Votre amendement part d’une bonne intention mais nul n’est censé ignorer la loi. Nous n’allons pas faire de la pédagogie avec les éditeurs de sites pornographiques en l’inscrivant explicitement dans le texte. Avis défavorable.

La commission rejette l’amendement.

Amendement CS197 de Mme Caroline Parmentier

Mme Caroline Parmentier (RN). Il s’agit de raccourcir de quinze à sept jours le délai de réponse d’un éditeur qui n’a pas instauré un système de vérifications d’âge conforme aux caractéristiques techniques du référentiel. L’enjeu de cette mesure, la protection de l’enfance, est grave et implique une réponse rapide. Ce délai de sept jours laisse un temps suffisant à l’éditeur pour adresser ses observations à l’Arcom.

Mme Louise Morel, rapporteure. Le délai de quinze jours paraît raisonnable pour respecter le principe du contradictoire, d’autant que c’est l’ensemble du service qui s’expose à des sanctions, non le seul éditeur.

Je rappelle que la procédure se déroule en trente jours, entre le moment où l’Arcom envoie sa première lettre et la sanction : l’Arcom envoie une lettre d’observations à l’éditeur, qui a quinze jours pour répondre. Puis, elle peut faire parvenir une mise en demeure de se conformer à la loi sous quinze jours, à l’issue desquelles des sanctions peuvent être prononcées – sanctions pécuniaires, blocage du site sous quarante-huit heures, notification de déréférencement aux moteurs de recherche sous cinq jours. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Ségolène Amiot (LFI-NUPES). Le recours au tribunal administratif étant de cinq jours, si on réduit à sept jours la possibilité de répondre à la lettre de l’Arcom, cela ne laisserait qu’une très courte marge de manœuvre pour saisir le tribunal administratif. Nous sommes donc contre cet amendement.

La commission rejette l’amendement.

Amendement CS67 de Mme Christine Engrand

M. Jordan Guitton (RN). Cet amendement de pure forme vise à préciser que le délai court à compter de la date de réception du courrier.

Mme Louise Morel, rapporteure. Cette mention est inutile car la phrase précédente insiste sur l’établissement de la date de réception de la lettre. Avis défavorable.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CS679 de Mme Louise Morel, rapporteure.

Amendement CS622 de M. Erwan Balanant

M. Erwan Balanant (Dem). L’amendement vise à rendre obligatoire la mise en demeure à l’issue du délai de quinze jours. En l’état, la loi ne prévoit aucune automaticité. Nous devons nous assurer qu’à terme, les personnes concernées seront tenues de se mettre en conformité et qu’elles prendront les mesures nécessaires pour empêcher les mineurs d’accéder à leurs contenus.

Il s’agit de clarifier les choses. Si la plateforme ou le service d’accès en ligne n’a rien fait, n’est pas conforme ou fournit des observations non satisfaisantes, il est automatiquement mis en demeure de se conformer dans un délai de quinze jours.

Mme Louise Morel, rapporteure. L’amendement est satisfait pour l’essentiel, seule la rédaction diffère. L’Arcom sera responsable pour juger du caractère satisfaisant des observations formulées en retour. Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. L’alinéa 3 laisse une marge d’appréciation à l’Arcom, tant sur l’opportunité de mettre en demeure l’éditeur que de demander un avis à la Cnil, le cas échéant. Avant toute mise en demeure, une analyse est faite, avec éventuellement un avis de la Cnil. C’est la raison pour laquelle l’automaticité n’est pas prévue à l’alinéa 3. Même avis que la rapporteure.

M. Erwan Balanant (Dem). Vous assumez donc qu’il n’y a pas d’automaticité, contrairement à ce qu’a dit la rapporteure. Une fois le délai de quinze jours passé, on peut imaginer une mise en demeure automatique si les observations ne sont pas satisfaisantes. Je maintiens donc l’amendement.

Mme Ségolène Amiot (LFI-NUPES). Nous ne voterons pas cet amendement. Nous sommes pour la justice, et la justice n’est pas automatique : elle prend en compte de nombreuses variables, comme la mesure. Une sanction automatique n’est pas juste. Elle ne tient pas compte de la gravité des faits, ni d’éventuels conseils. Un courrier contenant des recommandations peut être suivi d’effet, sans qu’il y soit répondu. Votre amendement équivaut à passer sous un portique avec un morceau de métal et être automatiquement arrêté, quand bien même le métal serait une boucle de ceinture.

Mme Louise Morel, rapporteure. J’ai dit que l’amendement était satisfait pour l’essentiel car il comprend deux étapes. L’Arcom peut demander des informations complémentaires et décider qu’elles sont satisfaisantes. Introduire l’automaticité revient à balayer la réponse apportée. C’est la raison pour laquelle je donne un avis défavorable à l’amendement.

M. Jean-Noël Barrot, ministre délégué. C’est un processus par étapes. Si l’Arcom doute de la conformité ou constate que le dispositif de la plateforme ou de l’éditeur ne semble pas répondre au référentiel, elle envoie une lettre d’observations. En fonction de la réponse du contrevenant elle peut le mettre en demeure, le cas échéant après avis de la Cnil. Il y a bien un embranchement entre deux possibilités : poursuivre la procédure si les réponses apportées ne sont pas satisfaisantes ou l’arrêter si la réponse de la plateforme a rassuré l’Arcom.

M. Erwan Balanant (Dem). L’amendement ne vise pas à une automaticité, madame Amiot. Je le retravaillerai d’ici à l’examen en séance.

La commission rejette l’amendement.

Amendements CS172 de Mme Christine Loir et CS240 de Mme Francesca Pasquini (discussion commune)

M. Jordan Guitton (RN). Il conviendrait de se mettre d’accord, d’ici à l’examen en séance, sur le fait que le non-respect de la mise en place d’une vérification d’âge entraîne automatiquement une sanction et la fermeture du site. Il faut laisser l’Arcom faire son travail : si elle juge le dispositif satisfaisant, il ne doit pas y avoir de sanction, mais si l’obligation n’est pas respectée, il faut sanctionner.

Mme Louise Morel, rapporteure. Nous venons de débattre de cette question : l’avis est défavorable sur les deux amendements. Je soutiendrai plus tard des amendements liant la mise en demeure de se conformer au référentiel à l’injonction de prendre toute mesure de nature à empêcher l’accès des mineurs aux contenus incriminés.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Élisa Martin (LFI-NUPES). Nous comprenons votre souhait de faire immédiatement cesser le problème que constitue l’accès des mineurs à des images à caractère pornographique, mais il faut tout de même faire prévaloir l’État de droit et laisser aux représentants du service éditant ces contenus la possibilité de se défendre dans une procédure contradictoire.

Quel équilibre trouver entre la protection des mineurs, l’accès des majeurs à ce type d’images et le déploiement de sanctions dans le respect du droit ?

La commission rejette successivement les amendements.

Amendement CS117 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). Mon amendement a également pour objet de réintroduire le juge dans la procédure.

Sur le plan des principes, c’est au juge de prendre des mesures de restriction de liberté. Ce pays a une fâcheuse tendance depuis quelques années à déléguer cette responsabilité aux autorités administratives : entre autres exemples, les préfets prennent des arrêtés préventifs destinés à empêcher d’exercer la liberté de manifester. Je ne souhaite pas que le mouvement de restriction des libertés se propage au numérique.

Je ne suis pas non plus convaincu par l’argument du rapporteur général selon lequel il ne serait pas grave de fermer quelques jours, même par erreur, des sites au motif qu’ils ne sont que pornographiques. Nous connaissons parfaitement le mécanisme : on crée un précédent juridique, en l’occurrence donner à l’Arcom le pouvoir de fermer un site pornographique sans saisir de juge, que l’on étendra demain à des sites ayant un objet différent. Le schéma est toujours le même.

Enfin, vous affichez un objectif de rapidité, mais l’Arcom a-t-elle plus les moyens que la justice d’agir rapidement ? Quand il s’agit de sanctionner des responsables de programmes de télévision au cours desquels des propos racistes ou des incitations à la haine sont proférés, l’Arcom prend tout son temps : soit elle manque de moyens, soit elle est réticente à le faire, mais dans tous les cas, votre dispositif ne nous convainc pas. Réintroduisons le juge dans la procédure de sanction des sites !

Mme Louise Morel, rapporteure. Le texte reconnaît la place du juge, puisqu’il est toujours possible de former un recours devant le juge administratif. L’avis est défavorable.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CS680 de Mme Louise Morel, rapporteure.

Amendement CS199 de Mme Caroline Parmentier

Mme Caroline Parmentier (RN). Il s’agit d’imposer à toute personne dont l’activité est d’éditer un service de communication au public en ligne permettant l’accès à des contenus pornographiques de se conformer, dans un délai de sept jours, aux caractéristiques techniques du référentiel après une mise en demeure de l’Arcom.

Ce délai de sept jours semble nécessaire et adapté, dans la mesure où la gravité de la matière dont il est question exige une réponse rapide, qui ménage toutefois à la personne incriminée un délai suffisant pour réagir.

Mme Louise Morel, rapporteure. Le raccourcissement du délai de mise en conformité que vous proposez est excessif. Le délai maximum de trente jours me semble parfaitement proportionné et conforme à l’application efficace de la loi. L’avis est défavorable.

La commission rejette l’amendement.

Amendements identiques CS198 de Mme Caroline Parmentier, CS367 de M. Hervé Saulignac et CS623 de M. Erwan Balanant

Mme Caroline Parmentier (RN). Si la personne dont l’activité est d’éditer un service de communication au public en ligne permettant d’avoir accès à des contenus pornographiques n’a pas mis en œuvre de système de vérification de l’âge conforme aux caractéristiques techniques du référentiel de l’Arcom, n’a pas répondu à la lettre de l’Autorité dans le délai imparti de quinze jours et se trouve mise en demeure d’agir, l’amendement propose qu’il soit enjoint à cette personne de prendre toute mesure de nature à empêcher l’accès des mineurs aux contenus incriminés.

L’automatisation de cette injonction semble nécessaire compte tenu de la gravité des faits et de la nécessité d’y mettre fin le plus rapidement possible.

M. Hervé Saulignac (SOC). L’amendement vise à lier la mise en demeure des plateformes de respecter le référentiel et l’injonction de prendre toute mesure de nature à empêcher l’accès des mineurs aux contenus incriminés.

L’article 23 de la loi du 24 juin 2020 visant à lutter contre les contenus haineux sur internet oblige les plateformes à prendre toute mesure de nature à empêcher l’accès des mineurs à ces contenus. Or ce projet de loi se contente d’une mise en demeure de se conformer aux caractéristiques techniques du référentiel. Nous avons débattu hier soir de la tension entre l’obligation de moyens et celle de résultats : il ne faut surtout pas abandonner la seconde, d’où notre demande d’assortir automatiquement la mise en demeure d’une injonction à prendre toute mesure de nature à empêcher l’accès des mineurs aux contenus pornographiques.

M. Erwan Balanant (Dem). Il y a des règles que l’Arcom doit faire respecter. La deuxième phrase de l’alinéa 3 dispose que la mise en demeure peut être assortie d’une injonction : cette rédaction est indulgente avec les plateformes. Il faut que l’injonction accompagne obligatoirement la mise en demeure : tel est le sens de cet amendement, de repli par rapport au CS622.

Mme Louise Morel, rapporteure. Je ne suis pas favorable à la mise en place d’une injonction automatique. Il faut laisser l’Arcom apprécier les situations ainsi que l’opportunité d’accompagner la mise en demeure d’une injonction. L’avis est défavorable.

M. Jean-Noël Barrot, ministre délégué. Je partage l’avis de la rapporteure : prévoir des mesures automatiques en plus de celle de se conformer au référentiel est inutile. Je demande donc aux auteurs des amendements de les retirer.

À l’issue du double délai de quinze jours, l’Arcom peut prononcer des amendes mais également ordonner le blocage et le déréférencement du site. L’alinéa 9, qui évoque cette possibilité de blocage, pose une obligation de moyens et de résultats, puisqu’il cite explicitement l’article 227-24 du code pénal.

Mme Élisa Martin (LFI-NUPES). Nous ne sommes pas opposés à des sanctions rigoureuses et rapides contre les plateformes qui n’empêchent pas les mineurs d’avoir accès à des contenus pornographiques, mais quelle est la nature du référentiel et quelle pourrait en être l’efficacité dans le respect d’un équilibre complexe entre la liberté de création et le devoir de protection des mineurs ?

Tant que les incertitudes ne seront pas dissipées et que tout n’aura pas été dit à la représentation nationale, comme cela doit être le cas en démocratie, le débat restera bloqué.

M. Laurent Croizier (Dem). Je défends ces amendements qui accroissent la légitimité de l’Arcom. L’objectif du dispositif n’est pas la mise en demeure, mais le respect de la loi et celui de leurs obligations par les éditeurs de contenus. Ils réaffirment enfin l’exigence du législateur envers l’Arcom.

Mme Marie Guévenoux (RE). Nous l’avons rappelé lors de l’examen de l’article 1er, nous sommes extrêmement attachés à l’obligation de moyens mais aussi à celle de résultats : nous comprenons donc parfaitement l’esprit de ces trois amendements identiques.

Cependant, si l’on confère à une autorité administrative indépendante (AAI) un pouvoir de mise en demeure et de sanction, il faut lui laisser la liberté de décider de l’engagement de cette procédure. Nous sommes attachés à la marge d’appréciation et à l’avis de la Cnil, parce que ces éléments contribuent à la robustesse législative de l’article. Comme l’ont rappelé le rapporteur général et le ministre délégué hier, nous devons, si nous voulons concevoir un dispositif efficace, nous conformer aux deux bornes que sont les cadres conventionnel et constitutionnel : le respect de ces exigences juridiques sera évidemment scruté de près. Voilà pourquoi, tout en comprenant l’esprit des amendements défendus par les collègues, je souhaite que nous en restions à la rédaction actuelle afin de ne pas fragiliser le dispositif.

La commission rejette les amendements.

Elle adopte l’amendement rédactionnel CS681 de Mme Louise Morel, rapporteure.

Amendement CS414 de Mme Sophia Chikirou

Mme Ségolène Amiot (LFI-NUPES). Cet amendement vise à réaffirmer la place du juge judiciaire dans la procédure de blocage des sites. J’ai entendu hier un député siégeant sur les bancs de la majorité – probablement un marxiste – dire qu’il n’avait pas confiance dans l’Arcom. La question mérite en effet d’être posée : à qui faisons-nous confiance pour surveiller simultanément des centaines de sites et de chaînes de télévision, faire preuve de la réactivité nécessaire et rester juste ?

Nous proposons que ce soit un juge judiciaire qui prononce la peine de blocage des sites, entreprises à but commercial qui, même quand elles éditent des contenus pornographiques, ne doivent pas être privées de leur activité sans justification.

Mme Louise Morel, rapporteure. S’agissant de la confiance que nous pouvons nourrir dans l’Arcom, je vous rappelle que l’activité de l’Autorité fait l’objet d’un rapport annuel présenté devant le Parlement, celui-ci désignant une partie des membres de son collège. Il est assez dangereux d’exprimer une défiance réitérée envers l’Arcom.

Le dispositif en vigueur n’a pas permis de sanctionner les sites qui ne remplissent pas les obligations posées par la loi actuelle. L’avis est défavorable.

M. Jean-Noël Barrot, ministre délégué. Il faut tout d’abord souligner l’expertise technique de l’Arcom.

Cette compétence est renforcée par une solide expérience juridique. En effet, depuis trois ans, l’Arcom s’est trouvée en première ligne dans de très longues procédures judiciaires ou de médiation engagées par les batteries d’avocats des sites pornographiques : aucun autre acteur français n’a autant agi que l’Autorité dans ce domaine.

Mme Élisa Martin (LFI-NUPES). Ce sont des députés siégeant dans la « travée centrale », pour reprendre votre expression, qui ont remis en cause l’Arcom, pas nous.

Nous souhaitons introduire le juge judiciaire dans ces procédures qui visent à mettre en cause un service de diffusion d’images pornographiques. Les décisions de suspension d’activité ou de fermeture d’un site doivent être prises par un tribunal judiciaire et non par une autorité administrative. Cette dernière doit saisir la justice, qui devra, dans le respect des principes du contradictoire et de la défense, se prononcer.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CS682 de Mme Louise Morel, rapporteure.

Amendement CS200 de Mme Caroline Parmentier et amendements identiques CS897 de M. Paul Midy, CS174 de Mme Christine Loir et CS335 de Mme Emeline K/Bidi (discussion commune)

Mme Caroline Parmentier (RN). L’amendement vise à aggraver les sanctions pécuniaires prévues à l’article 2 du texte. En l’état, celles-ci ne semblent pas suffisantes compte tenu de la gravité des faits en cause. Rappelons qu’il s’agit, par exemple, de la défaillance d’une personne qui édite un service de communication au public en ligne permettant d’avoir accès à des contenus pornographiques et qui n’a pas installé de système de vérification de l’âge ou en a choisi un qui n’est pas conforme au référentiel.

Ces comportements doivent être sanctionnés avec sévérité et fermeté : il y va de la protection de la jeunesse, car les répercussions peuvent être terribles pour les enfants. Aussi convient-il de doubler les montants maximaux de 75 000, 150 000, 250 000 ou 500 000 euros qui sont insuffisants, surtout lorsque l’on connaît les gains de certaines plateformes. Les bénéfices économiques ne seront pas mis à mal par des sommes si faibles, si bien que les sanctions n’auront pas d’effet dissuasif.

De même, il y a lieu d’augmenter la sanction relative au pourcentage du chiffre d’affaires annuel en prévoyant un taux maximal plus élevé, fixé à 2 %, 4 % ou 6 % selon la gravité du manquement ou son caractère réitéré.

Seule une politique de fermeté et de dissuasion protégera la jeunesse : l’urgence et le sérieux de la situation l’exigent.

M. Paul Midy, rapporteur général. L’amendement va dans le même sens que celui qui vient d’être présenté, puisqu’il vise à doubler le plafond des sanctions encourues par les éditeurs qui installeraient un système de vérification d’âge non conforme au référentiel. La rédaction en est toutefois quelque peu différente car pour les éditeurs n’ayant pas mis en place de système, nous préférons une amende représentant 4 % de leur chiffre d’affaires, sanction bien supérieure à une amende forfaitaire.

Mme Christine Loir (RN). La mise en place de la vérification d’âge est essentielle pour la protection des mineurs. L’amendement a pour but d’augmenter les peines encourues afin de les rendre réellement dissuasives.

Mme Emeline K/Bidi (GDR-NUPES). L’idée est la même : un taux de 1 % nous paraît trop faible compte tenu du chiffre d’affaires et des bénéfices que peuvent engranger ces entreprises. Pour être efficace, la peine doit être dissuasive, donc nous souhaitons la durcir.

M. Paul Midy, rapporteur général. Madame Parmentier, je vous propose de retirer votre amendement au profit du CS897 et identiques.

La commission rejette l’amendement CS200.

Elle adopte les amendements identiques.

Amendements CS202 de Mme Caroline Parmentier, CS886 de M. Paul Midy et CS201 de Mme Caroline Parmentier (discussion commune)

Mme Caroline Parmentier (RN). Les alinéas 6, 7 et 21 de l’article 2 augmentent le montant de la sanction dans le cas où l’infraction en cause réitère un précédent manquement ayant fait l’objet d’une décision définitive il y a moins de cinq ans.

La majoration est nécessaire pour dissuader la commission de manquements répétés dans l’application du référentiel ou dans la mise en œuvre des injonctions adressées par l’Arcom pour le blocage ou le déréférencement du site concerné.

Toutefois, fixer le délai de la réitération à cinq ans semble insuffisant compte tenu de la gravité de l’enjeu en cause, à savoir la protection de l’enfance. Il serait plus efficace de le porter à quinze ans, afin de renforcer la finalité dissuasive du dispositif.

M. Paul Midy, rapporteur général. Je remercie les collègues qui ont déposé des amendements sur le sujet : ne prendre en compte qu’un délai de cinq ans pour la réitération est en effet un peu court. Nous avons retenu un délai de dix ans, qui représente une moyenne des propositions que vous avez avancées et qui assure une couverture large mais proportionnée.

Mme Caroline Parmentier (RN). Les alinéas 6, 7 et 21 de l’article 2 accroissent le montant de la sanction en cas de réitération d’un précédent manquement ayant fait l’objet d’une décision définitive il y a moins de cinq ans. Cette majoration est nécessaire, comme nous venons de l’expliquer.

Il convient d’allonger le délai de prise en compte de la réitération pour renforcer la finalité dissuasive du dispositif. À défaut de retenir un délai de quinze ans, une durée de dix ans me paraît adaptée.

M. Paul Midy, rapporteur général. Je vous propose de retirer vos amendements au profit du mien.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Marie Guévenoux (RE). Je soutiens ces amendements, notamment celui du rapporteur général. Depuis la loi de 2020, les éditeurs de contenus pornographiques ont contourné leur obligation d’empêcher les mineurs d’accéder à leurs sites. Il faut donc durcir la sanction si leur système de vérification de l’âge n’est pas conforme au référentiel et allonger le délai de prise en compte de la réitération de cinq à dix ans : ces mesures sont opportunes et proportionnées.

Les amendements CS202 et CS201 sont retirés.

La commission adopte l’amendement CS886.

Amendement CS368 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). Cet amendement vise à ce que la sanction retenue pour tout manquement réitéré corresponde au montant le plus élevé entre les deux options disponibles, à savoir 500 000 euros ou l’équivalent de 6 % du chiffre d’affaires mondial de l’entreprise. Les chiffres d’affaires de ces plateformes sont parfois énormes, donc les entreprises doivent être condamnées à des sanctions pécuniaires très élevées.

M. Paul Midy, rapporteur général. Je suis très favorable à l’amendement, qui vise à renforcer les sanctions. En effet, une amende assise sur une part du chiffre d’affaires sera plus élevée, donc plus dissuasive pour les acteurs les plus puissants.

M. Jean-Noël Barrot, ministre délégué. Avis également très favorable.

La commission adopte l’amendement.

Elle adopte les amendements rédactionnels CS683 et CS684 de Mme Louise Morel, rapporteure.

Amendements identiques CS177 de Mme Christine Loir et CS336 de Mme Soumya Bourouaha

Mme Christine Loir (RN). L’amendement a pour objectif de doubler les peines encourues en cas de manquement réitéré à la mise en place d’un système de vérification d’âge. Nous devons être intraitables sur le sujet.

Mme Soumya Bourouaha (GDR-NUPES). Cet amendement, cohérent avec le CS335, vise à doubler les sanctions pécuniaires en cas de non-respect du référentiel, afin de renforcer le caractère dissuasif du dispositif.

M. Paul Midy, rapporteur général. L’avis est défavorable. Je vous propose de conserver l’équilibre que nous venons de trouver sur le doublement des sanctions et sur le choix de l’amende la plus élevée entre un montant absolu et une part du chiffre d’affaires. Le taux de 8 % que vous défendez est supérieur à celui de 6 % que nous avons introduit dans le règlement européen du 19 octobre 2022 relatif à un marché unique des services numériques (DSA, ou Digital Services Act), ce qui le rendrait contraire à cette norme.

Ces amendements sont en partie satisfaits par les dispositions que nous venons d’adopter, donc je vous en demande le retrait ; à défaut, l’avis sera défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Élisa Martin (LFI-NUPES). Nous débattons d’un régime de sanction se rapportant à un système dont nous ignorons la nature et dont nous doutons de l’efficacité. Tant que les contours du dispositif ne seront pas définis et que le ministre délégué ne dévoilera pas davantage le référentiel, nous ne pourrons pas avancer de manière éclairée.

L’amendement CS177 est retiré.

La commission rejette l’amendement CS336.

Suivant l’avis du rapporteur général, la commission adopte l’amendement rédactionnel CS400 de M. Hervé Saulignac.

Amendement CS399 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). Cet amendement reprend le même dispositif que le CS368, à savoir le choix du montant le plus élevé de sanction : le premier portait sur les systèmes non conformes au référentiel quand celui-ci concerne l’absence de tout système de vérification d’âge.

Suivant l’avis du rapporteur général, la commission adopte l’amendement.

Amendement CS293 de M. Andy Kerbrat

Mme Ségolène Amiot (LFI-NUPES). Cet amendement vise à supprimer les alinéas 9 à 22 de l’article. Nous nous opposons au changement de procédure, lequel remplace la censure judiciaire par une censure administrative des sites à caractère pornographique.

Ma collègue Élisa Martin vient de le rappeler, nous ne connaissons toujours pas le référentiel, donc nous ignorons si les systèmes seront opérants. Il apparaît pour l’instant qu’il n’existe pas de référentiel parfaitement respectueux des droits de chacun. C’est à un juge de se prononcer sur les manquements à l’obligation de déployer un système de vérification de l’âge des utilisateurs des sites pornographiques destiné à empêcher les enfants d’y accéder.

Mme Louise Morel, rapporteure. Votre démarche est cohérente, la mienne également : nous constatons, pour la regretter, l’inefficacité de la procédure judiciaire, laquelle nous conduit à présenter cette évolution et à repousser votre amendement.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CS685 de Mme Louise Morel, rapporteure.

Amendements CS203 de Mme Caroline Parmentier et CS369 de M. Hervé Saulignac (discussion commune)

Mme Caroline Parmentier (RN). L’amendement vise à systématiser les notifications prévues à l’alinéa 9 de l’article 2.

Mme Marietta Karamanli (SOC). Nous saluons le fait que la procédure de blocage des sites soit administrative et non plus judiciaire. Toutefois, nous vous alertons car elle ne repose plus que sur le fondement du référentiel et non plus sur l’obligation de respecter l’article 227-24 du code pénal.

Il faut renforcer la procédure pour la rendre plus efficace : ainsi, la notification de blocage, adressée par l’Arcom aux fournisseurs de la plateforme ne respectant pas la mise en demeure, doit devenir automatique.

Mme Louise Morel, rapporteure. Bloquer un site est une sanction parfois utile mais lourde, qui doit relever de l’Arcom. L’Autorité pourrait prononcer une sanction financière dans un premier temps, avant de décider du blocage ou du déréférencement du site. N’oublions pas, par ailleurs, que les décisions de l’Arcom sont susceptibles de recours. Laissons-la faire son travail et conservons la rédaction du texte : l’avis est défavorable sur les amendements.

M. Jean-Noël Barrot, ministre délégué. Il convient de maintenir une marge d’appréciation pour assurer la sécurité et la solidité juridiques du dispositif. Si celui-ci ne prévoyait que des mesures automatiques, les acteurs en dénonceraient le caractère disproportionné devant les juridictions compétentes.

La commission rejette successivement les amendements.

Elle adopte les amendements rédactionnels CS686, CS687 et CS688 ainsi que l’amendement CS689, de précision, de Mme Louise Morel, rapporteure.

Amendement CS88 de Mme Christine Engrand

M. Jordan Guitton (RN). Cet amendement de bon sens vise à faciliter le travail de l’Arcom en l’autorisant à ne publier qu’une seule page d’information, sur laquelle seraient indiqués les motifs susceptibles d’entraîner le blocage d’un site.

Mme Louise Morel, rapporteure. Je ne comprends pas bien votre amendement, qui affaiblit la précision de la rédaction de l’alinéa 10, puisque tous les éléments seront explicités dans les courriers d’observation et d’injonction envoyés par l’Arcom. Avis défavorable.

La commission rejette l’amendement.

Amendement CS247 de M. Aurélien Lopez-Liguori

Mme Caroline Parmentier (RN). L’article 2 prévoit que lorsque l’Arcom bloque un site pornographique car les mineurs y ont accès, les utilisateurs seront redirigés vers une page d’information sur le site de l’Autorité indiquant les raisons du blocage. L’amendement vise à ce que cette page fasse état des dangers de la consultation de contenus pornographiques par les mineurs. Notre objectif est de sensibiliser ces derniers aux dangers de la pornographie et à sa toxicité pour leur vie future.

M. Paul Midy, rapporteur général. Votre proposition est intéressante, mais il me semblerait plus opportun de prévoir un rappel à la loi sur le fait qu’il est illégal d’exposer des mineurs à la pornographie, cette infraction entraînant le blocage des plateformes. Nous pourrions travailler sur cette piste d’ici à la séance publique. En attendant, je vous demande de retirer l’amendement ; à défaut, l’avis sera défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Élisa Martin (LFI-NUPES). Nous craignons qu’une telle mesure ne serve à rien du tout.

M. Erwan Balanant (Dem). Comme vous !

Mme Élisa Martin (LFI-NUPES). Pardon ? Vous savez que nous avons la même légitimité démocratique que vous, monsieur Balanant. Nous avons été élus dans les mêmes conditions que vous, mais nous sommes habitués à ce mépris absolu et permanent.

Nous craignons que la disposition proposée n’ait qu’un caractère cosmétique car elle ne dissuadera pas le mineur de consulter un contenu pornographique si cela est techniquement possible pour lui. Il serait plus pertinent que les heures prévues pour l’éducation à la vie affective et sexuelle soient bien assurées à l’école.

M. le président Luc Lamirault. J’appelle chacun d’entre vous à respecter ses collègues et à laisser l’orateur s’exprimer.

M. Aurélien Lopez-Liguori (RN). Le Gouvernement et la majorité, comme la NUPES, semblent souffrir d’hémiplégie. On peut très bien afficher à la fois les sanctions pénales encourues et un lien vers le site d’une association présentant les dangers du porno. De même, on peut proposer ce lien tout en dispensant à l’école des cours de sensibilisation à ces dangers.

Mme Ségolène Amiot (LFI-NUPES). Notre collègue Balanant a pris à partie Mme Martin et l’a insultée. Il serait bon de s’abstenir de ce genre de comportement.

M. Erwan Balanant (Dem). Des insultes, il n’y en a pas eu. Je me suis permis – à tort, et je prie qu’on m’en excuse –, pour la première fois en six ans, ce que vous faites sans arrêt à échelle industrielle : interpeller et taquiner.

La commission rejette l’amendement.

Amendements identiques CS841 de Mme Louise Morel, CS121 de Mme Violette Spillebout et CS178 de Mme Christine Loir

Mme Louise Morel, rapporteure. Il s’agit d’uniformiser le délai laissé aux moteurs de recherche et annuaires pour effectuer le déréférencement.

Mme Violette Spillebout (RE). Le renforcement des pouvoirs de l’Arcom permet à celle-ci, en cas d’inexécution de ses injonctions par les éditeurs de sites qui ne respecteraient pas le référentiel, de notifier directement aux fournisseurs d’accès les adresses des sites non conformes, afin d’en bloquer l’accès.

Le projet de loi comprend de multiples mécanismes de blocage qui contribuent à protéger la plus grande partie des utilisateurs, mais les délais d’intervention ne sont pas uniformisés. Nous proposons de garantir l’égalité de traitement en ramenant à quarante-huit heures le délai de cinq jours laissé aux moteurs de recherche pour déréférencer les sites irrespectueux des règles, comme pour les fournisseurs d’accès internet.

L’amendement a été préparé avec les membres de la Fédération française des télécoms, mobilisés pour rendre la navigation plus sûre en déployant une multitude d’outils.

Mme Christine Loir (RN). Si les contenus pornographiques accessibles sans vérification d’âge peuvent être signalés et traités rapidement, n’oublions pas qu’ils sont susceptibles d’être très vite diffusés sur d’autres plateformes. Il est donc nécessaire d’accélérer la réaction des services de déréférencement.

La commission adopte les amendements.

Elle adopte successivement les amendements rédactionnels CS691 et CS693 de Mme Louise Morel, rapporteure, ainsi que son amendement de clarification CS694.

Amendements CS888 de Mme Louise Morel et CS248 de M. Aurélien Lopez-Ligori (discussion commune)

Mme Louise Morel, rapporteure. Il s’agit de prévoir un bilan de l’issue des recours formés contre les injonctions prononcées par l’Arcom. Il sera intégré au rapport de cette dernière.

M. Aurélien Lopez-Liguori (RN). Nous proposons d’ajouter au rapport d’activité annuel de l’Arcom, prévu dans l’article, un bilan de l’issue des recours exercés contre ses décisions de blocage. Nous sommes d’accord pour que l’on donne à l’Arcom le pouvoir d’injonction en vue d’un blocage, mais il nous faut savoir ce qu’il advient des recours et nous assurer qu’il n’y en a pas trop, ce qui révélerait des dysfonctionnements de la part de l’Arcom.

Mme Louise Morel, rapporteure. Notre volonté est la même, mais la rédaction de mon amendement est un peu plus précise. Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis : demande de retrait au profit de l’amendement CS888.

À ceux qui s’inquiètent des conditions dans lesquelles l’Arcom rendra compte du fonctionnement du dispositif, je rappelle la teneur de l’alinéa 14 : « L’Autorité de régulation de la communication audiovisuelle et numérique rend public chaque année un rapport d’activité sur les conditions d’exercice et les résultats de son activité, qui précise notamment le nombre de décisions d’injonction et les suites qui y ont été données, ainsi que le nombre d’adresses électroniques qui ont fait l’objet d’une mesure de blocage d’accès ou de déréférencement. Ce rapport est remis au Gouvernement et au Parlement. »

M. Éric Bothorel (RE). Je reviens à une discussion précédente. Le blocage repose sur le système DNS – Domain Name System –, qui ne permet pas aux fournisseurs d’accès internet de personnaliser la page. Dès lors, comment personnaliser une page vers laquelle on est redirigé à la suite d’un blocage ?

M. le président Luc Lamirault. L’amendement en ce sens n’a pas été adopté.

La commission adopte l’amendement CS888.

En conséquence, l’amendement CS248 tombe.

Amendement CS370 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). On m’opposera la fragilité juridique de cet amendement, mais il nous semble essentiel de maintenir une procédure de blocage indépendamment du contrôle de la conformité au référentiel. C’est ce que prévoit l’article 23 de la loi du 30 juillet 2020. La création d’un référentiel ne doit pas servir de prétexte aux plateformes pour se soustraire à leurs responsabilités, notamment quand elles présentent des failles ou des vulnérabilités : elles pourraient alors faire valoir qu’elles ont bien suivi le référentiel mais que le respect de celui-ci n’a pas produit les effets escomptés. La violation par les plateformes de l’article 227-24 du code pénal doit rester le fondement d’une procédure de blocage.

Mme Louise Morel, rapporteure. Avis défavorable. Nous en avons déjà débattu.

M. Jean-Noël Barrot, ministre délégué. Je le répète, à l’article 2 figurent et l’obligation de résultat et l’obligation de moyens. C’était moins vrai de l’article 1er, mais il a été amendé.

Je vous renvoie à l’alinéa 9 : sans préjudice de la possibilité offerte à l’Arcom de prononcer des sanctions pécuniaires, lorsqu’elle « constate que l’absence de mise en conformité à la mise en demeure [adressée au site] permet à des mineurs d’avoir accès à des contenus pornographiques en violation de l’article 227‑24 du code pénal, l’Autorité de régulation de la communication audiovisuelle et numérique peut notifier aux fournisseurs de services d’accès à internet ou aux fournisseurs de systèmes de résolution de noms de domaine », etc. C’est-à-dire que l’Arcom active le blocage lorsqu’elle constate l’absence de moyens mis en œuvre au service du résultat : il faut que les deux soient réunis.

La commission rejette l’amendement.

Elle adopte successivement l’amendement de précision CS695 et les amendements rédactionnels CS697 et CS699 de Mme Louise Morel, rapporteure.

Amendement CS315 de Mme Francesca Pasquini

M. Paul Midy, rapporteur général. Merci de cet amendement, dont nous avons suivi l’esprit en doublant le montant et le taux des peines et en précisant que ce seront les pourcentages qui s’appliqueront s’ils aboutissent à un montant plus élevé. C’est un bon équilibre. Demande de retrait ; sinon, défavorable.

La commission rejette l’amendement.

Elle adopte l’amendement d’harmonisation CS698 de Mme Louise Morel, rapporteure.

Amendement CS408 de Mme Caroline Parmentier

Mme Caroline Parmentier. Lorsqu’elle exercera les pouvoirs de sanction visés à l’article 2 pour non-respect du référentiel, l’Arcom sera amenée à constater des infractions mettant gravement en danger la jeunesse.

L’exposition de notre jeunesse à la pornographie est un problème systémique. Le chef de l’État, Emmanuel Macron, l’a dénoncée le 20 novembre 2019, lors de son discours d’ouverture du trentième anniversaire de la Convention internationale des droits de l’enfant et de la Journée mondiale de l’enfance, en déclarant : « En moyenne, on considère que dans notre pays, c’est à 13 ans qu’on accède à la pornographie. […] Comme dans la société, on doit protéger nos enfants et ne pas considérer que le numérique est un espace où tout est permis. »

Le rapport d’information sur l’industrie de la pornographie fait au nom de la délégation sénatoriale aux droits des femmes et à l’égalité des chances entre les hommes et les femmes et paru en septembre 2022 confirme et alerte : « Le porno, y compris le porno le plus “trashˮ et extrême, est accessible gratuitement en quelques clics. Deux tiers des enfants de moins de 15 ans et un tiers de ceux de moins de 12 ans ont déjà été exposés à des images pornographiques, volontairement ou involontairement. Chaque mois, près d’un tiers des garçons de moins de 15 ans se rend sur un site porno. […] Les conséquences sont nombreuses et inquiétantes : traumatismes, troubles du sommeil, de l’attention et de l’alimentation, vision déformée et violente de la sexualité, difficultés à nouer des relations avec des personnes du sexe opposé, (hyper) sexualisation précoce, développement de conduites à risques ou violentes, etc. »

Toute infraction grave au référentiel qui mettrait la jeunesse en danger doit faire l’objet d’un signalement au procureur de la République. Dans ce cadre, l’Arcom, par ses compétences, occupe une position centrale comme informateur. Cette obligation résulte certes de l’article 40 du code de procédure pénale, mais doit être rappelée compte tenu de l’importance des enjeux.

Mme Louise Morel, rapporteure. Vous avez raison : le numérique ne doit pas être un endroit où tout est permis ; mais votre amendement est satisfait. Ce n’est pas l’objet de la loi que de rappeler sans cesse des dispositions en vigueur. L’Arcom a l’obligation de signaler au procureur de la République toute infraction au code pénal et, en tant qu’autorité publique indépendante disposant de la personnalité morale, elle applique l’article 40 du code de procédure pénale.

Demande de retrait, sinon avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Pierre Cazeneuve (RE). Avant que nous ne terminions l’examen de l’article 2 – que je voterai évidemment –, et bien que les deux premiers articles aillent dans le bon sens, je souhaite vous faire part d’une inquiétude, qui m’inspirera d’ailleurs un amendement en séance, relativement à un effet de bord des dispositions que nous nous apprêtons à voter. Le risque est que les grandes plateformes comme Pornhub appliquent la loi, mais que l’on ne parvienne jamais à déréférencer l’ensemble du porno en ligne, qui repose sur de nombreux micro-acteurs et passera par des sites écrans sur lesquels nous aurons beaucoup moins de prise. Quand les plateformes les plus connues, qui jouent davantage le jeu et régulent leurs contenus, vont être interdites aux mineurs, ces derniers se retrouveront dans les limbes d’internet, confrontés à du porno ultra-trash, beaucoup moins contrôlé.

M. Paul Midy, rapporteur général. C’est un sujet très important, à propos duquel je serai heureux de travailler à des amendements avec vous d’ici à l’examen en séance.

Comme avec le filtre anti-arnaque, il s’agit de traiter la masse – un tiers de la bande passante d’internet est consacré au porno –, non d’aller chercher le dernier pouillème de pour cent. Il faut que le dispositif fonctionne pour les grandes plateformes, qui représentent les volumes les plus importants. Cela pourra donner lieu à des échanges entre plateformes. Peut-être les plateformes historiques se conformeront-elles à leurs obligations tandis que de petits malins essayeront de les contourner, mais ils seront repérés par l’Arcom dès qu’ils traiteront de plus gros volumes.

M. Jean-Noël Barrot, ministre délégué. La très bonne remarque de Pierre Cazeneuve a souvent été formulée par les sites eux-mêmes lors des procédures judiciaires. Le présent dispositif a été conçu pour qu’il soit plus facile à l’Arcom de lancer largement ses filets. L’alinéa 23 de l’article 2 dispose que les constats d’absence de vérification d’âge peuvent être réalisés par des agents de l’Arcom spécialement habilités et assermentés. Auparavant, ils dépendaient d’un constat d’huissier, qui est coûteux, ce qui empêchait l’Arcom d’intervenir sur de nombreux sites en même temps. L’idée est de dissuader désormais non seulement les plus gros, mais la palette la plus vaste possible.

La commission rejette l’amendement.

Elle adopte l’article 2 modifié.

La réunion est suspendue de onze heures quinze à onze heures vingt-cinq.

Après l’article 2

Amendement CS366 de Mme Isabelle Santiago

Mme Marietta Karamanli (SOC). L’article 227-24 du code pénal, qui punit le fait de diffuser par quelque moyen que ce soit un message pornographique lorsque celui-ci est susceptible d’être vu ou perçu par un mineur, précise bien depuis la loi de 2020 que « les infractions prévues au présent article sont constituées y compris si l’accès d’un mineur aux messages mentionnés au premier alinéa résulte d’une simple déclaration de celui-ci indiquant qu’il est âgé d’au moins dix-huit ans ». Il s’agit bien de soumettre les plateformes pornographiques à une obligation de résultat en matière d’absence d’exposition des mineurs, indépendamment du système de contrôle d’âge. Nous proposons de mettre l’alinéa à jour en ce sens.

Mme Louise Morel, rapporteure. L’article 227-24 du code pénal est très contesté et très difficile à mettre à jour. L’alinéa tel qu’il est rédigé apporte déjà un complément d’information sur la constitution de l’infraction. En outre, nous avons adopté mon amendement à l’article 1er qui fait mention de l’article 227-24. L’obligation de résultat figure donc bien dans le présent projet de loi comme dans cet article du code pénal.

Par prudence, demande de retrait ; sinon, défavorable.

M. Jean-Noël Barrot, ministre délégué. Nous avons veillé hier à ce que soit intégrée aux deux premiers articles la mention de l’article 227-24 du code pénal dans la loi pour la confiance dans l’économie numérique (LCEN). En revanche, faire référence à la LCEN dans cet article du code pénal pourrait le fragiliser, alors que nous en avons besoin puisqu’il impose l’obligation de résultat.

Même avis que la rapporteure, pour des raisons non d’esprit ou d’intention, mais bien de sécurité juridique.

La commission rejette l’amendement.

Amendement CS502 de M. Stéphane Vojetta

M. Stéphane Vojetta (RE). Cet amendement, présenté au nom du groupe de travail transpartisan sur les influenceurs, est cosigné par Arthur Delaporte et Dominique Potier ; j’en ai parlé également avec Ségolène Amiot.

C’est sur les réseaux sociaux traditionnels, notamment Instagram, Snapchat ou Twitter, que se fait l’essentiel de la publicité, du marketing et de l’acquisition de clients et d’audience au profit des comptes hébergés et ouverts par des influenceuses, des créatrices ou des créateurs de contenus sur les plateformes de pornographie à la demande comme OnlyFans. Sur ces réseaux, on peut y poster des liens vers un compte OnlyFans ou insérer celui-ci dans son profil, en espérant attirer le chaland et l’inciter à s’abonner, puis à venir consommer, en payant, du contenu pornographique sur demande. Tinder, en revanche, a interdit que ses utilisateurs fassent mention de leur compte OnlyFans dans leur profil.

Je propose donc que l’on applique aux personnes postant de tels liens le mécanisme d’exclusion de l’audience de tous les utilisateurs mineurs que le DSA impose aux plateformes de communication.

Mme Louise Morel, rapporteure. Je comprends l’idée, mais sa rédaction rend l’amendement difficile à mettre en œuvre. Le lien dont vous parlez est-il un lien hypertexte qui renvoie vers un éditeur de contenus pornographiques ou concerne-t-il l’envoi de contenus entre personnes physiques qui les auraient elles-mêmes produits ?

En outre, quand le clic sur un lien redirigera l’internaute vers un site, la vérification d’âge aura lieu.

Enfin, l’article 227-24 du code pénal s’applique déjà.

Votre amendement peut laisser penser qu’il faudrait organiser une surveillance généralisée des contenus, en particulier s’agissant des messageries interpersonnelles.

Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

En effet, le fait de poster un lien ne s’apparente pas à une exposition des mineurs à de la pornographie et n’est donc pas interdit ; mais si on clique sur ce lien, le dispositif des articles 1er et 2 s’appliquera et la vérification d’âge empêchera d’accéder aux contenus un mineur abonné à la page de la personne qui a posté le lien.

M. Stéphane Vojetta (RE). Il s’agit en somme de faire la promotion d’un compte qui donne notamment accès à des contenus pornographiques, ou de proposer d’y souscrire ou de s’y abonner. Or, dans la loi « influenceurs », nous avons interdit la promotion de certaines activités, comme la chirurgie esthétique, lorsqu’elle n’est pas adaptée à l’audience non filtrée des réseaux sociaux. Sans parler de surveillance généralisée, nous suggérons un dispositif similaire par cette proposition d’interdiction qu’il faudra retravailler en vue de la séance.

L’amendement est retiré.

Article 2 bis : Obligations portant sur les boutiques d’applications logicielles en matière de restrictions d’accès des mineurs aux sites pornographiques et aux réseaux sociaux

 

Amendement de suppression CS305 de Mme Virginie Duby-Muller

Mme Virginie Duby-Muller (LR). L’article semble disproportionné et inadapté. Or, si la lutte contre la diffusion de contenus pornographiques auprès de publics jeunes et vulnérables est une priorité absolue, la réponse législative doit être appropriée pour être pleinement efficace.

Empêcher complètement l’accès à des réseaux sociaux remettrait en cause le principe de liberté d’expression et de communication. Il serait préférable de renforcer les dispositifs de protection des mineurs.

Mme Louise Morel, rapporteure. La loi du 7 juillet 2023, visée dans l’article mais pas encore entrée en vigueur, ne prévoit pas de dispositif de blocage ou de déréférencement par les fournisseurs d’accès à internet et les moteurs de recherche.

Je suis défavorable à votre amendement, mais je sais que nous devons retravailler l’article en séance.

Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

L’article 2 bis a été introduit par le Sénat, à l’initiative de la présidente de sa commission spéciale, pour ajouter le déréférencement des boutiques d’applications à celui des moteurs de recherche et des sites permettant l’exposition des mineurs aux contenus pornographiques, lorsqu’un site incriminé est accessible par le biais de ces boutiques.

L’amendement est retiré.

Amendement CS421 de M. Jean-François Coulomme

M. Jean-François Coulomme (LFI-NUPES). Partout où l’administratif se substitue au judiciaire, l’arbitraire s’impose au contradictoire. Or nous sommes pour le contradictoire, qui permet d’éviter des abus de l’administratif.

Nous souhaitons donc qu’il soit possible de saisir le tribunal judiciaire pour qu’il ordonne aux boutiques d’applications logicielles de bloquer lesdites applications. Cet amendement de repli vise à affirmer la place du juge dans la procédure de blocage des sites. Inspiré par les centristes du Sénat, il a pour but de responsabiliser les magasins d’applications, par lesquels on accède à la pornographie bien plus souvent qu’en saisissant une URL dans la barre de recherche du navigateur. La procédure proposée reprend celle que vous avez adoptée à l’article 2.

Mme Louise Morel, rapporteure. Vous êtes constant quant à la place que vous souhaitez donner au juge judiciaire, mais votre amendement ne tient plus après l’adoption des articles 1er et 2 : on y donne à l’Arcom une compétence dont il serait incohérent de la dessaisir à l’article 2 bis.

Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Agnès Carel (HOR). Je suis évidemment défavorable à l’amendement, mais nous devons nous réjouir que les sénateurs aient voulu renforcer le dispositif que nous avions fait adopter à l’unanimité par les deux chambres. Notre seule boussole est la protection des mineurs. Nous devons nous donner les moyens de faire respecter les règles que nous instaurons. J’approuve donc certaines restrictions.

M. Jean-François Coulomme (LFI-NUPES). Non, cela ne peut pas être notre seule boussole : la protection des libertés individuelles, notamment de la liberté d’expression, et de la liberté des médias est presque aussi importante.

Il ne s’agit pas de substituer le dispositif judiciaire au dispositif administratif : aux termes de notre amendement, l’Arcom peut saisir le tribunal judiciaire, elle ne le doit pas.

La commission rejette l’amendement.

Elle adopte successivement les amendements rédactionnels CS700, CS946 et CS947 de Mme Louise Morel, rapporteure.

Elle rejette l’amendement CS69 de Mme Christine Engrand.

Elle adopte l’amendement rédactionnel CS703 de Mme Louise Morel, rapporteure.

Elle adopte l’article 2 bis modifié.

Après l’article 2 bis

Amendement CS505 de M. Stéphane Vojetta

Mme Louise Morel, rapporteure. L’amendement est satisfait, comme l’a montré l’audition de la Fédération française des télécoms. Demande de retrait.

L’amendement est retiré.

Article 3 : Pénalisation du défaut d’exécution d’une demande de retrait de contenu pédopornographique par un hébergeur

Amendement de suppression CS299 de M. Andy Kerbrat

Mme Ségolène Amiot (LFI-NUPES). L’article crée une infraction pénalisant l’hébergeur lorsqu’il ne retire pas le contenu pédopornographique dans les vingt-quatre heures qui suivent une demande de retrait formulée par l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC).

Compte tenu de la peine encourue et des difficultés d’appréciation dans le délai imparti du caractère manifestement illicite des contenus signalés, cela conduit les opérateurs de plateforme en ligne à prendre le risque de retraits abusifs. Ce type de mesure entraîne ainsi une atteinte disproportionnée à l’exercice de la liberté d’expression et de communication.

Cette analyse est notamment partagée par La Quadrature du net. Ce risque de surcensure est un danger pour la liberté d’expression. C’était exactement l’enjeu de la mobilisation contre la loi du 24 juin 2020 visant à lutter contre les contenus haineux sur internet dite « loi Avia », largement censurée par le Conseil constitutionnel, qui imposait des délais fixes trop courts pour retirer des contenus haineux ou à caractère terroriste. Nous nous opposons au présent dispositif pour les mêmes raisons.

Mme Louise Morel, rapporteure. Le 11 mai 2023, la Commission européenne a présenté une proposition de règlement visant à prévenir et combattre les abus sexuels sur les enfants en ligne. Ce règlement vise à instaurer la possibilité, pour les autorités nationales compétentes, d’émettre des injonctions de détection de contenus pédopornographiques, de signalement et de retrait de ces contenus auprès des fournisseurs de services d’hébergement, des services de communication interpersonnelle et d’autres services opérant dans l’Union européenne. L’application du règlement provisoire prendra fin le 3 août 2024, nécessitant l’adoption d’une nouvelle base juridique afin de permettre la poursuite des politiques de détection des contenus pédopornographiques. L’article 3 anticipe l’adoption de la proposition de règlement du 11 mai 2023. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. La loi Avia imposait le retrait sous vingt-quatre heures des contenus d’incitation à la haine et sous une heure des contenus pédopornographiques et terroristes. Le Conseil constitutionnel a censuré ces dispositions, considérant que la durée d’une heure, trop brève, risquait de conduire à une surmodération de la part des plateformes, et que celle de vingt-quatre heures l’était également, d’autant qu’un contenu d’incitation à la haine n’est pas toujours manifestement illicite. C’est pourquoi, dans les textes qui ont suivi, le législateur a tenu compte de ces réserves, en fixant à vingt-quatre heures le délai pour les retraits de contenus terroristes et pédopornographiques. Il a assorti cette obligation de sanctions pour le non-retrait par les hébergeurs de contenus terroristes. Nous y ajoutons les contenus pédopornographiques. Ce sont 74 000 demandes de retrait de contenus de nature pédopornographique qui ont été adressées aux plateformes en France l’année dernière.

Mme Ségolène Amiot (LFI-NUPES). Le délai reste excessivement court pour les petits acteurs d’internet, ce qui les contraindra à faire appel aux solutions payantes des géants de l’internet et ne fera que renforcer leur domination.

M. Philippe Gosselin (LR). Nous sommes nombreux à être sensibles à la surcensure et à la liberté d’expression. La loi Avia posait un certain nombre de difficultés, mais la situation n’est pas comparable. La pédopornographie n’est pas une opinion, c’est un délit. Il ne faut donc pas supprimer cet article.

M. Éric Bothorel (RE). Je rends hommage à tous ceux qui travaillent chez Pharos – plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements – et qui doivent se goinfrer l’horreur au quotidien. Je ne comprends pas votre amendement. À l’heure où émergent les deepfakes, ou hypertrucages, et où certains exploiteront probablement les images d’enfants postées sur les réseaux, comment dire qu’il serait raisonnable de prendre du temps pour retirer des contenus pédopornographiques ? La retenue n’est vraiment pas de mise.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CS704 de Mme Louise Morel, rapporteure.

Amendement CS403 de Mme Francesca Pasquini

Mme Lisa Belluco (Écolo-NUPES). Le texte reste imprécis sur ce qui constitue une raison technique ou opérationnelle objectivement justifiable, et ne donne aucun recours à l’autorité administrative. Cet amendement, travaillé avec le Conseil français des associations pour les droits de l’enfant (Cofrade), vise à donner un droit de réponse à l’autorité administrative.

Mme Louise Morel, rapporteure. C’est une bonne idée. L’autorité administrative pourra ainsi apprécier le cas de force majeure ou l’impossibilité de fait qui ne sont pas imputables au service en cause, y compris pour des raisons techniques ou opérationnelles « objectivement justifiables ». Avis favorable.

M. Jean-Noël Barrot, ministre délégué. Sagesse.

La commission adopte l’amendement.

Elle adopte l’amendement rédactionnel CS706 Mme Louise Morel, rapporteure.

Amendement CS180 de Mme Christine Loir

Mme Christine Loir (RN). La suppression des images pédopornographiques doit être une priorité. Il faut condamner plus lourdement les hébergeurs qui ne se plieraient pas à cette obligation dans le délai de vingt‑quatre heures. Les peines doivent être exemplaires. Nous proposons de doubler le plafond des peines encourues.

M. Paul Midy, rapporteur général. Je vous propose de ne pas revoir le quantum des peines qui est aligné sur le retrait des contenus à caractère terroriste : un an d’emprisonnement et 250 000 euros d’amende. Une personne morale s’expose à une amende égale au quintuple de ce montant, soit 1,25 million d’euros, et, en cas d’infraction commise à titre habituel, le montant de l’amende peut être porté à 4 % de son chiffre d’affaires mondial hors taxes de l’exercice précédent.

La commission rejette l’amendement.

Amendement CS181 de Mme Christine Loir

Mme Christine Loir (RN). Sur le même sujet, l’amendement vise à doubler les peines encourues en cas de récidive.

M. Paul Midy, rapporteur général. Nous ne sommes pas opposés à l’esprit de l’amendement, mais nous craignons que le taux de 8 % ne respecte pas le référentiel du DSA, à 6 %.

La commission rejette l’amendement.

La commission adopte successivement les amendements rédactionnels CS707 et CS708 de Mme Louise Morel, rapporteure.

Elle adopte l’article 3 modifié.

Après l’article 3

Amendement CS477 de Mme Estelle Youssouffa

M. Christophe Naegelen (LIOT). L’amendement vise à étendre le pouvoir de Pharos pour les contenus constituant des risques imminents d’atteinte à la vie ou des incitations à la haine et à la violence.

Mme Louise Morel, rapporteure. Le rapport sénatorial « Porno : l’enfer du décor » et nos auditions ont marqué les esprits et montré que Pharos ne procédait pas au retrait de contenus pourtant très choquants et contraires à la dignité humaine. Pharos n’aurait retiré en 2022 que 252 contenus après des signalements pour non‑respect de l’intégrité physique. Ce qui vous préoccupe et nous préoccupe également, ce sont les contenus présentant des actes criminels de torture et de barbarie, des traitements inhumains et dégradants, des viols, des situations d’inceste. Malheureusement, la frontière entre la simulation et la réalité de l’inhumanité de ces actes est ténue ; la notion de consentement est également à interroger.

Les services peuvent-ils incontestablement apprécier la réalité qui se cache derrière certains contenus, particulièrement dans des délais de traitement aussi courts ? Nous souhaitons, pour avancer sur cette thématique qui va bien au-delà du projet de loi, que le Gouvernement nous rende compte du traitement de ces contenus, de leur quantité et de la capacité à les retirer selon cette procédure d’urgence, après signalement sur Pharos.

Je vous demande donc de retirer l’ensemble des amendements qui complètent l’article 6-1 de la loi pour la confiance dans l’économie numérique. Les représentations des crimes que vous listez peuvent être signalées auprès de Pharos pour déclencher des enquêtes et faire l’objet de demandes de retrait plus classiques auprès des éditeurs et hébergeurs.

M. Jean-Noël Barrot, ministre délégué. Jusqu’à présent certains pays, dont la France, avaient donné pour mission à des autorités ou imposé aux plateformes de retirer des contenus jugés manifestement illicites. Avec le règlement sur les services numériques, les mêmes règles s’appliquent partout en Europe et à toutes les plateformes. Elles ont l’obligation de proposer un bouton de signalement simple, ainsi que de retirer les contenus illicites qui leur sont signalés et de le faire connaître à l’autorité judiciaire du pays. Les coordinateurs des services numériques de chaque État membre désignent également des signaleurs de confiance, qui auront un rang prioritaire.

La mission de Pharos est de solliciter auprès des plateformes le retrait des contenus qui sont manifestement illicites. Soit le contenu est univoque, auquel cas on peut demander aux agents de Pharos d’intervenir, soit le contenu est équivoque, et il convient alors de saisir l’autorité judiciaire.

Mme Élisa Martin (LFI-NUPES). L’intention de l’amendement est très louable mais sa définition est trop large, surtout pour une autorité administrative. Le Conseil constitutionnel avait d’ailleurs censuré ces dispositions. Il faudrait que nous menions une réflexion plus large sur ce qui se passe sur internet, pour trouver les meilleurs moyens, car, comme certains ont pu le dire hier, c’est une forme de Far‑West.

M. Erwan Balanant (Dem). Sur X, les boutons pour interagir avec le message sont en accès direct, pas celui pour signaler. C’est un aspect qu’il faudra prendre en compte dans l’évolution du DSA et du DMA – Digital Markets Act. Les enfants savent trop peu qu’ils peuvent signaler.

Par ailleurs, Pharos n’est pas une autorité administrative, ce sont les forces de l’ordre.

M. Christophe Naegelen (LIOT). L’amendement n’étant pas le mien, je ne le retire pas.

La commission rejette l’amendement.

Amendements identiques CS398 de Mme Isabelle Santiago et CS476 de Mme Estelle Youssouffa

M. Hervé Saulignac (SOC). Nous souhaitons que Pharos soit compétent pour retirer les contenus représentant des actes de torture, de barbarie et des viols, qui sont des crimes. L’article 3 de la Convention européenne des droits de l’homme dispose : « Nul ne peut être soumis à la torture ni à des peines ou traitements inhumains ou dégradants. » On ne peut pas laisser les sites pornographiques diffuser des scènes constituant pénalement des crimes.

M. Christophe Naegelen (LIOT). Même argument.

Mme Louise Morel, rapporteure. Votre amendement pose la question de la capacité d’appréciation de Pharos, des délais de traitement, du consentement, de l’éventuelle simulation, autant d’éléments sur lesquels nous devons encore travailler. Demande de retrait en vue d’un travail pour la séance.

M. Jean-Noël Barrot, ministre délégué. Nous pouvons retravailler dessus, mais, aussi terribles que ces images peuvent être, une vidéo exposant des viols, de la barbarie et de la torture n’est pas manifestement illicite. Selon que le consentement a été recueilli ou non, le contenu est illicite ou non. Demander aux agents de Pharos si le consentement a été recueilli, c’est déposséder le juge de sa faculté de le faire en toute indépendance. Notre objectif n’est pas de traiter de l’industrie de la pornographie ou de la prostitution.

M. Hervé Saulignac (SOC). Je vous comprends et loin de moi l’idée de vouloir censurer la création cinématographique. Mais, s’il contient des scènes très choquantes, le film sera interdit aux moins de 16 ans. Là, c’est open bar ! La question du consentement, en l’espèce, est presque secondaire. On montre à des enfants des scènes de viol, en laissant entendre que la sexualité peut s’en accommoder voire en faire son modèle. C’est très dangereux.

M. Christophe Naegelen (LIOT). Pharos est une force de police. Tout comme la police de la route pour un conducteur dangereux, elle peut intervenir face à des contenus qui ne respectent pas la réglementation et les contrôler. S’ils sont licites, ils seront republiés. Sinon, c’est le juge qui prendra une décision.

Mme Ségolène Amiot (LFI-NUPES). Je suis contre cet amendement, qui vient inscrire dans le droit une restriction morale à la pornographie. Il s’agit bien de représentations et non de conditions de production. Je suis tout à fait d’accord, en revanche, pour imposer des coordinateurs d’intimité sur chaque tournage afin de s’assurer de son caractère licite. Mais, si l’on interdit la représentation du viol, on ne pourrait plus diffuser Le Vieux fusil, celle des crimes, tout Julie Lescaut !

Mme Marie Guévenoux (RE). Ce n’est pas du tout open bar, monsieur Saulignac. Si l’on arrive à interdire aux mineurs l’accès aux contenus illicites, ils n’accéderont pas non plus aux contenus représentant des actes de barbarie, de torture ou des viols. Certes, ce n’est pas tout à fait satisfaisant, parce que nous souhaiterions mieux qualifier ces contenus mais nous n’avons pas encore trouvé la bonne accroche formelle.

La commission rejette les amendements.

Amendement CS535 de M. Christophe Naegelen

M. Christophe Naegelen (LIOT). L’amendement a trait cette fois à la diffusion d’images montrant des actes de torture à l’égard des animaux, qui ne peuvent pas être simulés. Et l’animal n’a assurément pas donné son consentement pour simuler un viol ! De plus, les études ont montré que ceux qui torturent des animaux sont plus susceptibles d’être un jour violents à l’égard de personnes.

Mme Louise Morel, rapporteure. La zoophilie est interdite par le code pénal. Par ailleurs, il est déjà possible de signaler à Pharos la diffusion sur un site internet ou un réseau social de vidéos ou d’images d’actes de cruauté commis sur des animaux. Mais Pharos n’a pas la compétence pour retirer ces contenus. Nous avons déjà discuté de l’extension des compétences de Pharos pour retirer ou non des contenus, et ce sont les mêmes arguments. Demande de retrait.

M. Jean-Noël Barrot, ministre délégué. Votre amendement est satisfait puisque Pharos peut ordonner le retrait d’un tel contenu, dans la mesure où il est manifestement illicite.

M. Erwan Balanant (Dem). Pharos pourrait-il enquêter pour éclaircir certains points ? Je ne le pense pas, car c’est avant tout une force d’intervention. Mais nous pourrions imaginer que, grâce aux 1 500 cyberpatrouilleurs supplémentaires et aux moyens conséquents dont nous avons doté l’espace numérique, les enquêteurs ouvrent des procédures dans certains cas. Nous pourrons interroger le ministre de l’intérieur sur ce sujet.

M. Christophe Naegelen (LIOT). Je n’ai pas bien compris les réponses. Mme la rapporteure nous dit que Pharos ne peut pas retirer ces contenus ; M. le ministre délégué nous dit le contraire.

M. Paul Midy, rapporteur général. Pharos, ce sont bien des cyberpatrouilleurs, des policiers qui agissent dans l’espace numérique. Un policier dans la rue interviendra s’il voit des personnes se taper, sans attendre le juge. On a donné à ces policiers le pouvoir d’intervenir quand l’acte est manifestement illicite ou que la présomption est forte ; ce doit être pareil pour Pharos. On a aussi donné aux policiers la capacité d’enquêter et de préparer le travail pour le juge. Pharos peut également agir directement sur des contenus pédopornographiques et terroristes, en demandant aux plateformes de les retirer, sans attendre le juge, et enquêter sur les signalements.

Le sens de l’histoire, c’est de donner à Pharos des capacités pour intervenir dans le numérique comme les policiers le font dans la vie physique. Actuellement, l’équipe ne se compose que de cinquante personnes. Nous ne savons pas encore combien, parmi les 1 500 cyberpatrouilleurs, la rejoindront. Est-ce que l’on étend aussi leur champ d’action au-delà de la pédopornographie et du terrorisme, ce qui pose une question de faisabilité ? L’amendement CS929 demande un rapport au Gouvernement sur l’extension des compétences de Pharos au retrait de nouveaux contenus.

La commission rejette l’amendement.

Amendement CS642 de M. Bruno Studer

M. Bruno Studer (RE). Cet amendement vise à rendre public le nombre de requêtes pour retrait de contenus à caractère pédopornographique ou terroriste transmises par les autorités compétentes aux fournisseurs de services d’hébergement. C’est un contrôle qui intervient après celui des plateformes qui ont parfois déjà empêché la publication de certains contenus. Il serait intéressant de savoir quelles plateformes sont particulièrement utilisées, parce que leur politique de contrôle serait un peu moins efficace. Cela permettrait de jouer sur leur réputation.

Mme Louise Morel, rapporteure. Votre amendement est louable, mais il semblerait qu’il risque d’entraver le travail des enquêteurs. Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. Cela risquerait de dévoiler les stratégies d’enquête et permettrait indirectement aux auteurs de ces types de crime de les contourner.

Mme Élisa Martin (LFI-NUPES). Nous trouvons cet amendement intéressant, d’autant que la publication, qui permettrait de jouer sur les réputations, interviendrait après l’enquête. Par ailleurs, une telle liste révélerait que le libéralisme, le capitalisme se repaît de tout, y compris des choses les plus effrayantes à l’égard des êtres vivants, et que ce qui sous‑tend tout ça, c’est l’argent et le profit.

M. Éric Bothorel (RE). L’amendement est intéressant. Les éléments que vous demandez pourraient figurer dans le rapport d’activités annuel que Pharos doit présenter, ainsi que la loi, à mon initiative, lui en fait obligation.

M. Bruno Studer (RE). Je comprends que mon amendement est une fausse bonne idée. Je le retire et je propose de travailler avec M. Bothorel pour donner corps à sa suggestion en vue de la séance.

L’amendement est retiré.

Amendement CS23 de Mme Véronique Riotton

Mme Véronique Riotton (RE). Ce sont 73 % des femmes qui ont été victimes de violences sexuelles et sexistes en ligne. Trop nombreuses sont celles qui ont retrouvé sur des sites pornographiques des contenus à caractère sexuel qu’elles avaient partagés dans un espace qu’elles croyaient intime et sécurisé.

Si notre droit prévoit déjà des sanctions à l’encontre de l’auteur de la publication, mon intention est de responsabiliser les plateformes complices qui diffusent en toute impunité un contenu volé et qui gagnent de l’argent en brisant une vie. L’amendement a donc pour objet d’instaurer une obligation de retirer les contenus à caractère sexuel qui sont diffusés sans le consentement de la personne dans un délai de sept jours.

Mme Louise Morel, rapporteure. Le code pénal sanctionne déjà l’absence d’accord de la personne pour la diffusion de contenus pornographiques ou présentant un caractère sexuel. Vous souhaitez aller plus loin et nous partageons votre volonté. Toutefois la rédaction de l’amendement pose quelques difficultés. Je vous invite donc à le retirer afin de le retravailler en vue de la séance.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Véronique Riotton (RE). Votre réponse n’est pas satisfaisante. Pouvez-vous préciser les problèmes rédactionnels auxquels vous faites allusion ? Êtes-vous prêts à imposer une obligation aux plateformes et quelle écriture alternative proposez-vous ? Mon amendement est opérationnel.

M. Paul Midy, rapporteur général. Nous partageons entièrement votre objectif. Notre souci est d’aboutir, d’ici à la séance, à un dispositif solide pour lequel je sollicite l’aide du Gouvernement.

M. Jean-Noël Barrot, ministre délégué. Le soutien du Gouvernement à ce travail est acquis.

Mme Véronique Riotton (RE). Je le retire mais vous pouvez compter sur moi pour ne pas vous lâcher.

L’amendement est retiré.

Amendement CS506 de M. Stéphane Vojetta

M. Stéphane Vojetta (RE). La production et la consommation de pornographie sont strictement légales dans notre pays. En revanche, la pédopornographie – le fait de mettre en scène des jeunes de moins de 18 ans – est strictement interdite.

Nous devons donc sécuriser l’espace numérique en protégeant les mineurs de la diffusion de contenus pornographiques mais aussi trouver les moyens d’empêcher l’industrie du porno, en particulier celle du porno à la demande, de surfer sur l’ambiguïté quant à l’âge des personnes figurant dans les contenus.

L’amendement, issu du groupe de travail sur les influenceurs, oblige donc les plateformes à s’assurer, d’une part, que les personnes apparaissant dans les vidéos n’ont pas moins de 18 ans, et, d’autre part, que les utilisateurs publiant des contenus pornographiques sont majeurs – cela s’applique au titulaire du compte sur une plateforme mais aussi aux éventuels invités. Le mécanisme de vérification d’âge prévu à l’article 1er pourrait faire partie des instruments imposés aux plateformes.

Mme Louise Morel, rapporteure. Votre préoccupation est satisfaite par le code pénal : demande de retrait, sinon avis défavorable.

L’amendement est retiré.

Amendement CS168 de Mme Lisa Belluco

Mme Lisa Belluco (Écolo-NUPES). Sur ce sujet comme sur d’autres, le Parlement manque d’évaluations ex ante et ex post. Il manque aussi de temps pour évaluer les textes qu’il a votés alors que c’est là une de ses missions premières. Nous ignorons donc les effets des lois que nous votons comme de celle que nous discutons.

Je prends l’exemple des lois relatives à la protection des mineurs sur internet, votées ces cinq dernières années : loi n° 2018-493 du 20 juin 2018 relative à la protection des données personnelles ; loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet ; loi n° 2020-1266 du 19 octobre 2020 visant à encadrer l’exploitation commerciale de l’image d’enfants de moins de 16 ans sur les plateformes en ligne ; loi n° 2022-299 du 2 mars 2022 visant à combattre le harcèlement scolaire ; loi n° 2022-300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à internet ; loi n° 2022-309 du 3 mars 2022, pour la mise en place d’une certification de cybersécurité des plateformes numériques destinés au grand public. La liste est longue et, très logiquement, nous ne disposons pas d’une vue d’ensemble des effets de ces lois. Nous ne savons pas s’il existe des doublons, des oublis, des dispositifs formidables à dupliquer, ou d’autres inutiles ou contre-productifs à abroger.

Il est nécessaire que le Parlement s’attelle à ce travail – je lance un appel à la commission. Pour l’y aider, il serait bon que le Gouvernement présente un premier rapport exhaustif sur l’efficacité des lois que je viens d’évoquer.

M. Paul Midy, rapporteur général. Nous souscrivons à votre objectif. Pour y parvenir, le Parlement peut créer une commission d’enquête ou une mission d’information. Cette solution nous paraît plus appropriée. Demande de retrait.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Lisa Belluco (Écolo-NUPES). Certes, c’est le rôle du Parlement d’évaluer les textes qu’il vote mais il n’a pas les moyens de le faire pour tous. Je maintiens l’amendement qui visait à alerter sur ce point.

M. Erwan Balanant (Dem). Ce n’est pas au Gouvernement de faire un rapport, c’est notre rôle d’évaluer. Le règlement de l’Assemblée nous en fait l’obligation. Les rapporteurs doivent faire leur travail jusqu’au bout, ce qui n’est pas toujours le cas.

Certains des textes que vous avez cités sont trop récents pour être évalués de manière pertinente, mais je ne manquerais pas de le faire en temps voulu en ce qui concerne la loi visant à combattre le harcèlement scolaire.

M. Bruno Studer (RE). Je remercie le Gouvernement pour la publication du décret sur le contrôle parental. En revanche, j’attends toujours, trois ans plus tard, le décret relatif à l’article 3 de la loi sur les enfants influenceurs. Le décret d’application de l’article 1er a été publié, ce qui fait de la France le premier pays à encadrer l’exploitation commerciale de l’image des enfants, non pas pour les placements de produits ou le mannequinat externe mais pour les revenus qui sont tirés de l’exploitation de l’image. Monsieur le ministre délégué, je suis sûr que vous saurez convaincre vos collègues que le décret est urgent. La position de la France est très attendue parce qu’elle est précurseure.

M. Jean-Noël Barrot, ministre délégué. Madame la députée, je vous remercie de rappeler l’importance de l’application des lois avant même l’évaluation de leurs effets. Votre amendement, même s’il n’est pas adopté, aura été l’occasion pour la représentation nationale de mettre un petit coup de pression sur le Gouvernement.

Monsieur Studer, ce ne sont pas les ministères de Bercy qui tiennent la plume sur le décret que vous demandez, à la différence de celui sur le contrôle parental, mais le message sera transmis.

M. le président Luc Lamirault. La commission spéciale ne peut pas évaluer à six mois et à trois ans le texte qu’elle aura adopté puisqu’elle disparaîtra. En revanche, les commissions permanentes compétentes pourront le faire.

La commission rejette l’amendement.

Amendement CS929 de M. Paul Midy

M. Paul Midy, rapporteur général. Je l’ai évoqué précédemment, l’amendement vise à demander un rapport sur l’extension des compétences de Pharos. Au fil des débats, de nombreuses missions possibles ont été envisagées : la possibilité d’empêcher la commission d’actes illégaux en direct ; des pouvoirs d’enquête, à l’instar des policiers.

Je remercie tous les collègues qui ont voté la d’orientation et de programmation du ministère de l’intérieur (Lopmi) en vertu de laquelle 1 500 cyberpatrouilleurs seront recrutés, ce qui permet d’envisager d’étendre les missions de Pharos.

M. Jean-Noël Barrot, ministre délégué. Le Gouvernement est prêt à réfléchir à la demande du rapporteur général. Néanmoins, il n’entend pas confier à des policiers ni à une autorité administrative indépendante le soin de faire le tri entre des contenus licites et illicites lorsqu’ils ne le sont pas manifestement. On ne peut pas s’affranchir des limites, au demeurant précieuses, qui sont posées pour préserver les libertés fondamentales.

La situation n’est pas satisfaisante, j’en conviens. Peut-être pouvons-nous faire mieux, notamment grâce aux moyens supplémentaires octroyés au ministère de l’intérieur et au ministère de la justice par le Parlement dans les lois de programmation. Le rapport sera l’occasion d’explorer toutes les pistes.

M. Ian Boucard (LR). Bruno Studer pointe une défaillance dramatique pour notre démocratie. Le Parlement a voté une loi, de mémoire à l’unanimité, et trois ans plus tard, les décrets d’application ne sont pas sortis.

Nous examinons un projet de loi sur le numérique alors que la précédente loi n’est toujours pas appliquée. Les commissions ne peuvent pas évaluer une loi, si le Gouvernement ne la fait jamais appliquer.

Monsieur le ministre délégué, pouvez-vous prendre l’engagement que la loi, que vous avez votée puisque vous étiez député, sera appliquée très prochainement et que celle-ci le sera aussi à bref délai ? Il y va du respect de la démocratie, des parlementaires et au-delà, du peuple qui nous a élus.

M. Bruno Studer (RE). Je vous rassure, monsieur Boucard, le décret d’application de l’article 1er a bien été pris. Il manque encore le décret sur l’article 3 auquel je tiens beaucoup. C’était le message que je voulais adresser au ministre délégué. Je vous remercie de le soutenir, mais ne me faites pas dire ce que je n’ai pas dit.

M. Jean-Noël Barrot, ministre délégué. Monsieur Boucard, je suis, comme vous, un obsédé de l’article 24 de la Constitution aux termes duquel le Parlement vote la loi, contrôle l’action du gouvernement et évalue les politiques publiques.

Lorsque j’ai pris mes fonctions, la première tâche à laquelle je me suis attelé a été de faire l’inventaire des décrets d’application non encore sortis sur des textes adoptés par le Parlement. Tout en haut de la liste figurait celui sur le contrôle parental qui a mobilisé une partie de mon temps, de mes équipes et les administrations de Bercy pour le publier le plus vite possible, le notifier à la Commission européenne, etc.

Il est très important que le Parlement et le gouvernement veillent à ce qu’une énergie suffisante soit déployée pour que les décrets d’application sortent, sans quoi les effets de ce que nous votons adviennent si longtemps après que nos concitoyens finissent par avoir du mal à croire que les lois ont le moindre effet dans leur vie quotidienne.

La commission adopte l’amendement et l’article 3 bis est ainsi rédigé.

Amendement CS328 de Mme Sophia Chikirou

M. Idir Boumertit (LFI-NUPES). L’amendement a pour objet d’évaluer les moyens accordés aux services de police et de gendarmerie pour lutter contre la pédocriminalité.

Le Centre national d’analyse des images pédopornographiques (Cnaip) mène des enquêtes afin d’identifier des pédocriminels par le biais de la cyberinfiltration et de l’analyse de contenus. Toutefois le manque de personnel est criant puisque le service est composé de seulement six personnes.

La sécurisation et la régulation de l’espace numérique en matière de pédocriminalité sont déjà encadrées par la loi, mais face à l’accroissement des données à traiter, les agents qui en sont chargés ont parfois l’impression de « vider l’océan avec une petite cuillère trouée ».

M. Paul Midy, rapporteur général. Je vous invite à retirer l’amendement qui est satisfait par le rapport dont nous venons d’adopter le principe.

Pharos compte aujourd’hui cinquante agents, mais il en faudrait bien plus – la loi d’orientation et de programmation du ministère de l’intérieur dite « Lopmi » prévoit 1 500 cyberpatrouilleurs. J’espère que nous serons nombreux à l’avenir pour voter en faveur du renforcement des moyens dans ce domaine.

La commission rejette l’amendement.

Avant l’article 4 A

Suivant l’avis de la rapporteure, la commission rejette l’amendement CS441 de M. Hendrik Davi.

Amendement CS428 de M. Idir Boumertit

M. Idir Boumertit (LFI-NUPES). Nous souhaitons insister sur l’importance de la prévention. Pour prévenir les phénomènes d’addiction au numérique, il est impératif de sensibiliser les jeunes citoyens à ses dangers le plus tôt possible. On ne parviendra pas à endiguer ces phénomènes par la seule répression.

Aujourd’hui, 17 % des adolescents de 17 ans déclarent avoir joué à un jeu d’argent et de hasard sur internet alors que les mineurs n’en ont pas le droit ; l’usage des jeux vidéo est problématique pour un adolescent sur huit ; 5 % des garçons et 11 % des filles de 15 ans ont un usage problématique des réseaux sociaux. L’impact de telles addictions sur la santé mentale des jeunes ne doit pas être pris à la légère. C’est par la formation que l’on parviendra à réduire les risques d’addiction, pas par la répression.

Mme Louise Morel, rapporteure. Vous proposez de modifier l’article L. 312-9 du code de l’éducation, qui est déjà très complet.

Il y est écrit que la formation « contribue au développement de l’esprit critique, à la lutte contre la diffusion des contenus haineux en ligne, à la sensibilisation contre la manipulation d’ordre commercial et les risques d’escroquerie en ligne et à l’apprentissage de la citoyenneté numérique ». Cette rédaction me semble répondre à vote préoccupation vis-à-vis des addictions comportementales au numérique dont je reconnais l’importance.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Jean-François Coulomme (LFI-NUPES). Vous considérez que le dispositif actuel est suffisant.

Si je prends l’exemple de l’éducation à la sexualité en milieu scolaire, les textes existent mais leur application n’est pas suivie étroitement et les moyens, une fois encore, ne sont pas au rendez-vous.

Le projet de loi vise à protéger contre les dangers de l’accès au numérique – nous en avons évoqué beaucoup depuis deux jours. Puisque les moyens manquent pour appliquer les mesures coercitives, autant faire de la prévention. Le sujet est suffisamment important pour que nous lui accordions la place qu’il mérite.

Mme Louise Morel, rapporteure. Je n’ai pas minimisé l’importance du sujet ni contesté la nécessité d’aller plus loin. Nous ne serions pas réunis si tout fonctionnait correctement et si tous nos concitoyens étaient parfaitement avertis.

Je partage vote objectif mais il ne me semble pas nécessaire de compléter le code de l’éducation pour mettre en place ce que vous proposez.

La commission rejette l’amendement.

Amendements CS103 de Mme Violette Spillebout et CS789 de Mme Agnès Carel (discussion commune)

Mme Violette Spillebout (RE). Nous partageons tous un constat : si l’intelligence artificielle (IA) représente une opportunité de création, d’innovation et d’emplois, elle suscite des craintes parce qu’elle bouleverse notre environnement informationnel et culturel.

Dans la vraie vie, comme sur les réseaux sociaux et les plateformes, on ne peut plus distinguer à l’œil nu une photo, un film, un texte, une œuvre générée par l’intelligence artificielle d’une œuvre originale. Cela change notre rapport à la vérité et aux réalités du monde. Cela met aussi en question la confiance dans l’information, dans les artistes, dans la presse et dans le monde qui nous entoure. Cela déstabilise notre système éducatif et citoyen. Cela pourrait à terme fragiliser nos démocraties.

Il est proposé qu’à l’école primaire et au collège, les élèves bénéficient d’une sensibilisation aux risques des fake news et de tous les contenus générés par l’intelligence artificielle, à l’issue de laquelle une attestation leur serait délivrée.

Je suis consciente que ces sujets font l’objet d’une réflexion approfondie dans le cadre du projet de règlement européen baptisé AI – Artificial Intelligence – Act. Monsieur le ministre délégué, je sais votre implication dans ce domaine et je me réjouis de l’installation du comité de l’intelligence artificielle générative et des moyens financiers qui y seront affectés.

Je souhaite que mon amendement contribue au développement de l’esprit critique des jeunes sur l’intelligence artificielle.

Mme Agnès Carel (HOR). L’amendement présenté par le groupe Horizons tend à rendre obligatoire le suivi de l’actuelle formation au numérique dispensée à l’école primaire, en conditionnant l’inscription au collège à la présentation de l’attestation délivrée à l’issue de ladite formation.

Cette formation, dont le contenu nous semble très complet et pertinent, est inégalement suivie sur le territoire. Or nous savons tous à quel point la formation des plus jeunes à l’utilisation des réseaux sociaux notamment est structurante pour eux mais aussi pour la sécurisation de l’espace numérique de demain.

L’éducation au numérique est, outre une évidence, un devoir, donc soyons responsables !

Mme Louise Morel, rapporteure. S’agissant de l’amendement de Mme Spillebout, nonobstant la mission d’information en cours sur l’intelligence artificielle et la protection des données personnelles, il donne une base juridique à la formation existante donc mon avis est favorable.

L’amendement de Mme Carel est incompatible avec celui de Mme Spillebout. En outre, il conditionne le passage dans la classe supérieure au suivi de la formation, ce qui me paraît problématique. J’y suis défavorable.

M. Jean-Noël Barrot, ministre délégué. Les auteurs des amendements sont très investis sur le sujet : Mme Spillebout qui a remis récemment, avec Philippe Ballard, un rapport sur l’éducation critique aux médias, Mme Carrel, qui a été très présente tout au long des auditions sur ces questions et Mme Guévenoux.

Le Gouvernement est favorable à l’amendement de Mme Spillebout relatif à la certification à la fin du primaire et du collège puisqu’il inscrit dans la loi le dispositif qui est généralisé cette année et sera rendu obligatoire l’année prochaine : la certification Pix. L’amendement ajoute opportunément la mention de l’intelligence artificielle, qui, étant donné la place qu’elle est appelée à occuper, mérite d’être prise en considération.

L’avis sera également favorable sur les amendements CS669 et CS788 que nous examinerons juste après et qui concernent la sensibilisation des parents à la citoyenneté numérique. Enfin, je demande le retrait de l’amendement CS789.

Mme Agnès Carel (HOR). Le fait de conditionner l’entrée au collège à l’attestation était une manière de rendre obligatoire la formation dans un domaine essentiel. Le suivi de la formation est inégal, peut-être par faute de temps. Or il est indispensable que les jeunes entrant au collège aient déjà reçu une formation au numérique et aux nombreux sujets que nous avons abordés ce matin, sujets ô combien importants pour leur développement physique et psychique.

Je suis toutefois prête à retirer mon amendement.

M. Éric Bothorel (RE). Je m’interroge sur la référence aux réseaux sociaux dans l’amendement de Mme Spillebout que je soutiens puisque ces derniers ne génèrent pas de contenus.

Mme Violette Spillebout (RE). La mention des réseaux sociaux renvoie au partage qui est susceptible d’amplifier la propagation des fake news.

M. Paul Midy, rapporteur général. Je veux remercier Mmes Spillebout, Guévenoux et Carel d’avoir travaillé sur ce sujet important.

Aujourd’hui, les élèves passent un examen pour obtenir une attestation scolaire de sécurité routière (ASSR) ; ils sont ainsi formés à ce qu’ils ont le droit de faire ou pas sur la voie publique. L’attestation ouvre des droits puisqu’elle est, par exemple, indispensable pour conduire un scooter. Nous devons nous doter des mêmes moyens pour protéger nos enfants dans l’espace numérique – plus dangereux – que ceux que nous déployons pour les protéger sur la voie publique.

Le Gouvernement n’a pas ménagé ses efforts jusqu’à présent sur le sujet. Nous vous proposons d’adopter les amendements et de poursuivre le travail en vue de la séance pour aller encore plus loin.

M. Jean-Noël Barrot, ministre délégué. Je remercie Mme Carrel d’accepter de retirer son amendement.

La présentation du plan de lutte contre le harcèlement et le cyberharcèlement sera l’occasion de le réaffirmer, à compter de l’année prochaine, le passeport Pix sera rendu obligatoire pour tous les élèves de sixième, après sa généralisation cette année. Dès l’année prochaine, votre amendement sera quasiment satisfait, ce qui ne doit pas nous empêcher de réfléchir sur le CM2. Mais c’est une autre histoire, notamment parce que les écoles élémentaires sont bien moins équipées que les collèges en matière informatique.

L’amendement CS789 est retiré.

La commission adopte l’amendement CS103 et les deux premiers alinéas de l’article 4 AA ainsi rédigés.

3.    Deuxième réunion du mercredi 20 septembre 2023 à 15 heures

Lien vidéo : https://assnat.fr/rw1muF

M. le président Luc Lamirault. Nous avons été plutôt efficaces ce matin : nous avons examiné 123 amendements.

Avant l’article 4 A (suite)

Amendements identiques CS669 de Mme Marie Guévenoux et CS788 de Mme Agnès Carel

M. Philippe Latombe (Dem). Mon amendement vise à donner aux parents d’élèves une information annuelle sur les usages du numérique et sur les services publics d’aide aux utilisateurs, comme jeprotegemonenfant.gouv.fr. Il s’agit de compléter le dispositif de sensibilisation des élèves et de leur famille aux dangers d’exposer les mineurs aux écrans de manière précoce et non encadrée, en particulier avec internet et les réseaux sociaux.

Mme Agnès Carel (HOR). Cet amendement vise à compléter le dispositif de sensibilisation des élèves et de leur famille aux dangers des écrans, en donnant aux parents, au début de chaque année scolaire, une information complète et adaptée à l’âge de l’élève. Cette mesure permet d’associer tous ceux qui concourent à éduquer nos enfants.

Mme Louise Morel, rapporteure pour les titres Ier et II. L’idée est bienvenue ; avis favorable.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique. Avis favorable. Nous avons adopté ce matin l’amendement de Mme Violette Spillebout visant à certifier que les enfants ont été sensibilisés au bon usage des outils numériques ; ces amendements identiques tendent à renforcer le dispositif en prévoyant une sensibilisation des parents.

M. Erwan Balanant (Dem). Mme Belluco a eu raison de souligner qu’il existe des dispositifs similaires et qu’une évaluation est nécessaire. Ainsi, la loi du 2 mars 2022 visant à combattre le harcèlement scolaire prévoit des actions de même nature, avec une rédaction légèrement différente. Adoptons ces amendements : la répétition renforcera la portée des mesures, qui pêchent généralement par défaut d’application.

La commission adopte les amendements et les deux derniers alinéas de l’article 4 AA ainsi rédigés.

Amendement CS291 de M. Jean-François Coulomme

M. Jean-François Coulomme (LFI-NUPES). Cet amendement vise à intégrer aux trois séances normalement obligatoires d’éducation à la sexualité une sensibilisation aux dégâts que la pornographie peut commettre sur les jeunes esprits et les jeunes corps.

Les rapports d’évaluation consacrés à l’éducation à la sexualité montrent que le plus souvent celle-ci n’est pas dispensée, ou à raison d’une seule séance par an, généralement limitée aux aspects physiologiques, alors qu’une réelle éducation à la vie affective et sexuelle est indispensable – en dépit de la vision sclérosée de quelques collègues, qui estiment que cela conduit à donner goût à tous les exotismes. L’éducation à la sexualité a une autre vertu : les enfants en discutent avec leurs parents, ce qui pourrait contribuer à diminuer les violences sexistes et sexuelles. Ces violences sont souvent provoquées par l’image dégradée des femmes que véhicule une certaine pornographie. Il s’agit donc de prémunir les enfants et les parents de ces dangers.

Mme Louise Morel, rapporteure. Avis défavorable. L’éducation à la sexualité peut tout à fait aborder le cas de la pornographie à plusieurs occasions. Il ne s’agit pas d’une discipline ; elle est conçue pour se déployer à travers les différents enseignements. À l’école primaire, ce sont les professeurs qui prévoient les temps d’éducation à la sexualité ; ils sont identifiés dans l’organisation des enseignements ; surtout, ils sont adaptés aux circonstances de la classe et de l’école. L’esprit est le même au collège et au lycée. Il est inutile de préciser davantage le code de l’éducation ; laissons les professeurs libres d’aborder le sujet.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Bruno Studer (RE). Je partage les intentions ; néanmoins, sur ce sujet, il faut être très attentif au choix des mots, en particulier lorsqu’on rédige la loi. La Belgique a adopté un décret relatif à l’éducation à la vie relationnelle, affective et sexuelle ; il suscite de grandes tensions. Son exemple doit nous inciter à la prudence. Pap Ndiaye, alors ministre de l’éducation nationale et de la jeunesse, a saisi le Conseil supérieur des programmes (CSP) à ce sujet ; l’organisme doit rendre son avis d’ici au mois de novembre. Attendons de le connaître. En outre le ministre en exercice, Gabriel Attal, se prononcera devant la commission des affaires culturelles et de l’éducation. Je ne voterai pas cet amendement.

Mme Ségolène Amiot (LFI-NUPES). Tous les établissements font remonter la même information : l’éducation à sexualité n’est pas effectivement dispensée. Elle est le parent pauvre des enseignements. Les programmes prévoient que les professeurs doivent aborder de nombreux sujets, or ils ont peu de temps : il suffit d’une ou deux semaines d’absence pour maladie pour que tout soit décalé et que l’éducation à la sexualité et l’éducation civique passent à la trappe. Nous sommes pleins de bonne volonté, mais cette éducation n’est pas faite. L’État doit absolument se saisir du problème ; il doit y consacrer les moyens nécessaires, en temps et en personnel, notamment en prévoyant la formation des professeurs, car on n’aborde pas la sexualité et la vie affective n’importe comment.

La commission rejette l’amendement.

Amendement CS442 de M. Idir Boumertit

M. Idir Boumertit (LFI-NUPES). Pour prévenir les addictions au numérique, il est impératif de sensibiliser dès que possible les jeunes au problème ; les milieux éducatifs doivent y concourir. Face aux difficultés de cette nature, la majorité ne sait que recourir à la sanction et à l’aggravation des peines, alors qu’il est bien plus efficace de former les citoyens, ici aux effets d’un usage excessif du numérique. L’amendement tend à instaurer des formations dans les établissements d’enseignement supérieur.

Mme Louise Morel, rapporteure. Pourquoi les instaurer seulement dans l’enseignement supérieur ? Surtout, je suis défavorable aux lois bavardes. Les services de santé étudiants (SSE) participent déjà à prévenir les conduites addictives ; les étudiants relais-santé mènent des actions de médiation, notamment à l’occasion des événements étudiants. Ils seraient peut-être les mieux à même de sensibiliser les jeunes comme vous le demandez. En tout cas, il n’est pas nécessaire de compléter ainsi la loi. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Hendrik Davi (LFI-NUPES). Tout le premier volet du texte est répressif, or l’accompagnement et l’information sont beaucoup plus importants que la répression. La mesure proposée est limitée à l’enseignement supérieur, parce que les agressions sexuelles y sont nombreuses, parmi d’autres problèmes : il est essentiel de sensibiliser les étudiants à toutes les dérives possibles du numérique.

Je suis rapporteur pour avis du projet de loi de finances pour les crédits de l’enseignement supérieur et de la vie étudiante ; je ne cesse d’auditionner des associations d’étudiants, notamment, qui nous mettent en garde : les investissements dans la santé universitaire et la prévention sont bien trop faibles. Les étudiants sont particulièrement vulnérables aux risques liés au numérique, comme l’addiction. Dire que l’État doit les y sensibiliser davantage, ce n’est pas rendre la loi bavarde.

M. Paul Midy, rapporteur général. Nous pensons qu’il faut prévoir un volet répressif et un volet éducatif, selon le principe du « en même temps » qui nous est cher. Comme je l’ai expliqué ce matin, nous vous proposons un travail préparatoire à l’examen en séance pour aller plus loin dans ce domaine, en restant cohérents avec les actions du Gouvernement – certaines, comme Pix, sont très intéressantes et déjà en progrès. Nous sommes nombreux à partager une ambition forte dans ce domaine.

La commission rejette l’amendement.

Amendement CS380 de Mme Isabelle Santiago

Mme Marietta Karamanli (SOC). Cet amendement vise à demander un rapport d’évaluation de la formation à l’utilisation des outils et des ressources numériques prévues par le code de l’éducation. Il ne s’agit pas tant pour nous de demander un rapport supplémentaire que d’exercer la mission parlementaire d’évaluation qui nous est chère. Monsieur le ministre délégué, vous êtes un ancien député, je sais que vous serez sensible à l’argument. Comme vous le disiez hier, nous devons travailler en amont de la loi, mais aussi en aval. Selon le rapport de l’IGESR – Inspection générale de l’éducation, du sport et de la recherche –, « Éducation à la sexualité en milieu scolaire », les trois séances prévues sur ce thème ne sont malheureusement pas organisées partout. Le rapport que nous demandons permettrait donc d’évaluer comment les jeunes sont préparés à utiliser le numérique, afin d’éviter d’avoir à réparer des comportements liés à un manque d’éducation, lorsqu’il est trop tard.

Mme Louise Morel, rapporteure. Je comprends l’esprit de l’amendement. Cependant, il vise à établir un rapport sur l’application de l’article L. 312-9 du code de l’éducation, que les amendements que nous venons d’adopter tendent à modifier. J’ajoute que les deux amendements qui suivent visent également à demander des rapports, sur les dispositifs de lutte et de prévention du harcèlement en milieu scolaire. Je vous propose de réfléchir, d’ici à l’examen en séance, à la définition précise des informations qu’il serait opportun de demander au Gouvernement. Je vous propose donc de retirer votre amendement ; à défaut, j’émettrai un avis défavorable. Il en ira de même pour les deux amendements de la discussion commune qui suit.

M. Jean-Noël Barrot, ministre délégué. Il serait sage en effet d’essayer, avec le rapporteur général et les rapporteurs, de circonscrire les éléments dont la représentation nationale souhaite disposer. Vous avez raison, Madame Karamanli, il est essentiel que le Parlement exerce pleinement ses missions de contrôle, mais mieux vaudrait ne pas les sous-traiter au Gouvernement. Le Parlement dispose de nombreux outils de contrôle et d’évaluation – Printemps de l’évaluation, missions de contrôle, Comité d’évaluation et de contrôle des politiques publiques ; missions d’information ; commissions d’enquête ; contrôles sur pièces et sur place des rapporteurs spéciaux. Il faut vous en saisir sans retenue, même si le temps nécessaire manque souvent.

M. Jean-François Coulomme (LFI-NUPES). Dans ma circonscription des professeurs ont développé une stratégie pour nouer le dialogue avec les collégiens, dans le cadre de l’éducation à la sexualité. Ils ont installé une urne où les élèves peuvent déposer anonymement leurs questions. En découvrant les représentations des élèves et les conséquences sur leurs pratiques, ils ont été effarés : les images pornographiques viennent combler les enseignements qui ne sont pas dispensés. Nous gagnerions au change si les professeurs s’en chargeaient, plutôt que les réseaux sociaux.

Mme Agnès Carel (HOR). L’évaluation demandée montre que les différentes actions de l’éducation nationale suscitent de la confusion. Elles manquent parfois de lisibilité, ainsi que de visibilité, pour les parents notamment. Pix, par exemple, est un très bel outil mais reste trop technique, faute d’être suffisamment consacré à la prévention, et il n’est utilisé qu’au collège. Surtout, d’un territoire à l’autre, l’éducation au numérique n’est pas la même, le sujet étant très inégalement abordé. Je ne soutiens pas cet amendement, car l’évaluation ne peut être la seule méthode, mais il faudra se saisir du problème.

La commission rejette l’amendement.

Amendements CS342 de M. André Chassaigne et CS676 de M. Laurent Croizier (discussion commune)

Mme Soumya Bourouaha (GDR-NUPES). Il faut encourager la lutte contre le harcèlement et le cyberharcèlement en milieu scolaire. Dans un avis publié en 2021, la Défenseure des droits relevait qu’en dépit des dispositifs déployés depuis plusieurs années le phénomène demeure problématique, d’autant plus qu’il connaît de nouveaux développements. Elle a notamment constaté que certains établissements ne se saisissent pas suffisamment des outils nationaux de prévention ou de lutte, et que certaines équipes pédagogiques éprouvent d’importantes difficultés à mesurer l’ampleur des faits. Il est donc nécessaire que le Gouvernement remette au Parlement un rapport qui établisse le bilan de l’application effective, dans les établissements scolaires, des dispositifs de lutte contre le harcèlement et le cyberharcèlement. Suivant la recommandation de la Défenseure des droits, nous proposons que le rapport évalue l’opportunité de rendre obligatoire l’organisation régulière d’actions de sensibilisation.

M. Laurent Croizier (Dem). Les événements tragiques récents témoignent que le harcèlement et le cyberharcèlement sont des fléaux difficiles à prévenir. Le drame du suicide de Nicolas à Poissy et la lettre inadmissible que le rectorat avait envoyée à ses parents montrent qu’il est urgent d’établir un état des lieux des actions de prévention et de sensibilisation déjà menées sur le harcèlement et le cyberharcèlement en milieu scolaire, notamment dans la formation initiale et continue, ainsi que d’organiser annuellement une séance obligatoire auprès des élèves, des professeurs et de tous les autres personnels de l’éducation nationale – y compris ceux des rectorats. Ce rapport compléterait l’audit des cas de harcèlement recensés que le ministre de l’éducation nationale et de la jeunesse a demandé avant-hier aux recteurs.

Mme Louise Morel, rapporteure. Il est urgent de dresser un état des lieux, mais, comme je le disais, il faut définir le périmètre le plus adéquat pour le rapport que nous demanderons. À ce stade, demande de retrait, sinon avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Erwan Balanant (Dem). Il est normal d’être soucieux. Toutefois, nous avons déjà travaillé sur ces sujets : la sénatrice Colette Mélot a rédigé un rapport d’information – « Harcèlement scolaire et cyberharcèlement : mobilisation générale pour mieux prévenir, détecter et traiter » – et je suis moi-même l’auteur d’un rapport de mission gouvernementale – « Comprendre et combattre le harcèlement scolaire ». L’article L. 111-6 du code de l’éducation prescrit des actions de prévention et l’application de protocoles pour accompagner les victimes et les auteurs. Les outils juridiques existent, il faut maintenant déployer les politiques publiques adéquates ; je crois que le ministre va faire des annonces en ce sens. C’est le moment – en fait, il est déjà trop tard – de provoquer un changement de paradigme concernant le harcèlement et le cyberharcèlement chez les jeunes. L’éducation nationale n’avait pas la culture nécessaire pour traiter ces sujets ; il faut désormais décliner les moyens.

Successivement, la commission rejette l’amendement CS342 et adopte l’amendement CS676. L’article 4 AB est ainsi rédigé.

Amendements CS905, CS904, CS903, CS902 et CS901 de M. Paul Midy (discussion commune)

M. Paul Midy, rapporteur général. Le débat est important et le sujet difficile, à la fois social, politique, technique et juridique. La position du groupe Renaissance est : « Non à l’anonymat, oui au pseudonymat. » Nous sommes presque unanimes à dénoncer la situation, en particulier l’intensité du harcèlement sur les réseaux sociaux, qui provoque notamment du harcèlement scolaire – nous avons évoqué les cas de Lindsay, de Marie, de Lucas et d’autres. Le racisme, la misogynie, le sexisme, la LGBTphobie, l’antisémitisme, l’islamophobie et la violence en général ont atteint un niveau considérable, bien supérieur à celui qu’on leur connaît dans le monde physique. Nous cherchons la cause. Je suis convaincu que nous ne sommes pas tous devenus fous, mais que l’impression d’anonymat crée un sentiment d’impunité qui fait tomber les limites. Je dis cela en étant moi-même un adepte des réseaux sociaux. Depuis dix ou quinze ans, des experts comme John Suler, Arnaud Mercier et François Jost enrichissent la littérature scientifique consacrée au sujet ; ils ont analysé ce mécanisme, que tout le monde perçoit intuitivement, et défini des concepts, comme l’anonymat dissociatif.

Que faire ? Je ne veux pas réinventer le fil à couper le beurre, ni surtout changer notre cadre constitutionnel ou attenter aux libertés publiques. Nous pourrions transposer les règles du monde physique au monde numérique. Celui-ci existe depuis longtemps, mais nous ne vivons massivement sur les réseaux sociaux que depuis dix ans. Or dans le monde physique, le principe est le pseudonymat, pas l’anonymat.

Quand je me balade dans la rue, je ne suis pas obligé d’inscrire mon nom sur ma veste, et c’est heureux. Mais si la police me le demande, je dois décliner mon identité. Elle peut même m’emmener au poste et m’y garder quatre heures pour procéder à des vérifications d’identité. Face à l’autorité publique, je n’ai pas le droit à l’anonymat.

Quand je conduis ma voiture, j’ai un droit au pseudonymat – je crois que personne ne met son nom sur son véhicule – : la plaque d’immatriculation, qui permet à la puissance publique de m’identifier si je commets une infraction, est obligatoire.

Troisième exemple, j’ai le droit au pseudonymat de mon téléphone. Je peux me faire passer pour quelqu’un d’autre, tout en donnant mon numéro de téléphone. En revanche, je dois faire connaître mon identité à mon opérateur ; en cas d’actions illégales, la puissance publique en sera informée.

Il a fallu des siècles au législateur pour parvenir au niveau de sophistication juridique que nous connaissons ; nous ne ferons pas mieux en une semaine. Concrètement, qu’emporterait la transposition de cette règle – oui au pseudonymat, non à l’anonymat – dans le monde numérique ? Quand je crée un profil Facebook – je cite des exemples, je ne fais pas de publicité –, je dois évidemment avoir le droit au pseudonymat. Je dois aussi avoir le droit d’en créer dix, par exemple Paulo91, avec une photo de mon chat – s’il est d’accord. Je dois pouvoir exprimer toutes mes opinions sur les réseaux sociaux sous ce pseudonyme. En revanche, il n’y a aucune raison de m’accorder l’anonymat devant les autorités, si j’utilise mon compte Facebook pour commettre des actes répréhensibles, comme harceler une jeune fille qui se suicidera quelques semaines plus tard.

Je réponds par avance à certaines objections. Hier, M. Aurélien Taché soulignait à raison que les journalistes devaient pouvoir travailler. La règle s’applique déjà à eux. Ils ont le droit d’aller dans une entreprise ou une administration avec une caméra cachée, en se faisant passer pour quelqu’un, en utilisant de faux papiers. Nous en sommes ravis. Cependant, si un journaliste commet une infraction, il ne peut exciper de sa profession pour rester anonyme face à l’autorité publique. Évidemment, il doit pouvoir jouir sur les réseaux sociaux du même pseudonymat que dans le monde physique, y compris en créant de faux profils pour mener ses enquêtes. Nous ne voulons pas retirer ne serait-ce qu’un demi-chouïa de liberté publique.

Nous proposons d’agir en trois étapes, déclinées en sept amendements. La première consiste à se donner un objectif de moyen en décidant de développer l’identité numérique en France. Nous avons un plan France très haut débit ; nous devons avoir un plan France identité numérique. Le Gouvernement mène déjà des actions propices. Par exemple, dans trois départements, il sera possible à partir du 16 octobre de disposer d’un permis de conduire dématérialisé, que l’on pourra présenter en cas de contrôles routiers.

Deuxième étape, nous obligerons les plateformes de réseaux sociaux à proposer la création de comptes certifiés appartenant à une personne physique ou morale, à partir de 2025, pour les personnes volontaires. Je ne veux surtout pas que Facebook ait la copie des cartes d’identité de tous les Français – même si c’est le cas des opérateurs de télécommunication. Quand les utilisateurs voudront se certifier, Facebook se connectera à France Identité, qui transmettra l’assurance que la connexion provient d’une personne physique, et un code chiffré, que les autorités seules pourront déchiffrer, dans l’unique cas où l’auteur du profil commettrait des actes répréhensibles, comme c’est le cas avec les plaques d’immatriculation. Facebook n’aura aucunement accès à des informations sur l’identité de la personne.

Ensuite, en 2027, il ne sera plus possible d’avoir des comptes qui ne sont pas certifiés, soit au nom d’une personne physique, soit à celui d’une personne morale – comme les voitures doivent avoir une plaque d’immatriculation.

Sur les réseaux sociaux, on profite de la liberté d’expression mais aussi de celle de s’informer. Nous prévoyons donc des exceptions pour les comptes « ayant une portée limitée », c’est-à-dire ressemblant à une messagerie privée : votre compte a moins de 100 amis, qui sont seuls à voir ce que vous écrivez sur votre mur, et qui ne permet d’écrire que sur le mur de vos amis. Cela relève alors du domaine du privé : c’est comme si vous étiez chez vous ou que vous discutiez avec vos amis au bar PMU.

M. Jean-Noël Barrot, ministre délégué. Merci au rapporteur général d’avoir structuré ce débat de cette façon.

Le Gouvernement est défavorable à ces cinq amendements.

En ce qui concerne les amendements qui obligent les plateformes à proposer une certification aux utilisateurs qui le souhaitent, ils ne respectent pas les conventions signées par la France ; ils empiètent sur les compromis trouvés par l’Union européenne au moment de l’adoption du Digital Services Act (DSA). La Commission veillera à éviter que la France n’impose des propositions qui ont été écartées. Le Gouvernement ne peut donc pas soutenir une telle disposition.

Il me semble néanmoins que cette idée a du mérite. Dans les années qui viennent, nous devrons la défendre, en Européens. Les plateformes avancent elles-mêmes vers des solutions similaires : c’est le cas X, ex-Twitter, qui avance dans cette direction mais proposera une solution privée, discriminatoire, puisqu’elle sera payante ; vous n’aurez plus le droit d’aller sur Twitter si vous ne payez pas. Ce modèle ne nous satisfait pas. Il me paraît souhaitable d’aller plutôt vers un modèle où les plateformes doivent proposer une certification à ceux qui la souhaitent, ainsi que la faculté de n’être entouré que de personnes qui ont elles-mêmes laissé en dépôt une pièce d’identité au moment de leur inscription – sans empêcher ceux qui refusent de se faire certifier d’évoluer sur les réseaux sociaux. Mais nous sommes tenus par les compromis obtenus au moment du DSA. Rien n’empêche malgré cela le Parlement, par une résolution par exemple, de donner de la force au Gouvernement pour soutenir les pays qui pourraient s’engager dans cette voie.

En ce qui concerne les amendements qui choisissent l’obligation, ils entrent également en contradiction avec le DSA. Ils sont sans doute de plus inconstitutionnels : s’il est vrai que la plupart des dommages causés aux personnes sur les réseaux sociaux ont lieu dans le domaine des communications interpersonnelles, ces plateformes sont aussi un moyen de s’informer. Or personne ici n’accepterait de voter une disposition imposant à la personne qui achète son journal au kiosque de présenter une pièce d’identité.

Au-delà des arguments juridiques, il y a un problème de confiance. Nous l’avons vu hier en discutant de la vérification d’âge : cela suscite des interrogations et de la défiance.

Sur les amendements suivants, CS899 et CS900, qui portent sur le développement de l’identité numérique, le Gouvernement accueille avec bienveillance la proposition du rapporteur et émettra un avis de sagesse. Il ne s’agit pas de surveiller tout le monde, mais d’améliorer l’accès au droit. Des exemples internationaux nous montrent que, grâce à l’identité numérique, la transition numérique peut être vecteur d’inclusion plutôt que d’exclusion.

Mme Ségolène Amiot (LFI-NUPES). Vous partez du postulat que l’anonymat sur internet est problématique. Mais l’anonymat n’est que très partiel : la justice peut obtenir l’identité des internautes. Le problème réside plutôt dans l’insuffisante répression des comportements illégaux. Très peu de poursuites sont engagées, même quand des plaintes sont déposées, même par des personnes très connues. La chanteuse Hoshi multiplie les dépôts de plainte, sans résultat. Que peuvent alors espérer M. et Mme Tout-le-monde ? C’est la question des moyens de la justice qui est posée.

Enfin, comment les collectifs qui n’ont pas la qualité de personne morale feraient-ils ? Devraient-ils changer d’identifiant en permanence ? Si un collectif n’a pas de président, qui est désigné ?

M. Aurélien Taché (Écolo-NUPES). Ce texte vise-t-il à transposer le Data Act et à protéger les mineurs de la pornographie, ou à contrôler les citoyens sur internet ? Nous avons eu plusieurs réunions à votre ministère à la suite de la révolte populaire pour savoir s’il fallait couper les réseaux sociaux ; juridiquement comme politiquement, ces pistes ont été abandonnées et c’est heureux ; je salue en revanche votre proposition de réserve citoyenne numérique. Mais on continue à voir des tentatives, des tentations… Je ne doute pas de vos bonnes intentions, monsieur le rapporteur général, mais l’anonymat est essentiel à la lutte contre la haine : souvent, les lanceurs d’alerte ont besoin d’être anonymes.

Votre comparaison avec la route ne tient pas : la plaque d’immatriculation existe parce qu’il y a un permis de conduire et un code de la route ! Internet, lui, est libre.

M. Hervé Saulignac (SOC). Vous jouez les apprentis sorciers. Je trouve votre idée terrifiante, et vos comparaisons ne fonctionnent pas. Vous faites du zèle supra-européen ! En revanche, vous auriez pu proposer de lier un compte sur un site porno à une personne physique ; je m’étonne que vous n’y ayez pas pensé.

M. Éric Bothorel (RE). Si vous voulez le fond de ma pensée, je vous renvoie à ma tribune dans La Tribune.

En matière d’identité numérique, je veux saluer ce qui a été fait au cours de la législature précédente. Ce sujet doit en effet avancer plus vite. Mais on parle ici d’une identité numérique au sens que revêt ce terme en Estonie ou à Taïwan : un moyen d’accès aux services.

Ici, il s’agit de tout autre chose, c’est-à-dire de lier le pseudonymat et l’identité. Cela ne marche pas, et vos exemples le montrent. Il n’y a d’ailleurs nullement besoin d’une carte d’identité pour acheter une carte SIM, et nous ne sommes pas des bagnoles !

Vos propositions pourraient en outre mettre en danger certains acteurs, notamment dans le domaine du renseignement de source ouverte ou de la recherche.

M. Mounir Belhamiti (RE). Le sujet, ce n’est pas tant l’anonymat que notre capacité à identifier les auteurs de délits. Or la croissance importante du nombre d’infractions couplée à l’utilisation d’outils visant à rendre difficile l’identification des auteurs empêche la justice de confondre les responsables. Même si nous avons voté le recrutement de 1 500 cyberpatrouilleurs et d’autant de magistrats et de greffiers, il est vain de croire que seuls les moyens humains de l’État pourront apporter des réponses adéquates.

Face à ce triste constat, soit on agit au niveau logiciel et au niveau des services en ligne – en imposant par exemple une certification –, soit on agit au niveau du réseau, en limitant l’usage des outils qui rendent difficile l’identification des auteurs. Sans même parler des difficultés juridiques, constitutionnelles et européennes, il n’est néanmoins pas possible de faire l’économie d’une étude d’impact et d’un débat large.

M. Aurélien Lopez-Liguori (RN). La mesure que propose le rapporteur général est dangereuse, alarmante et liberticide ; c’est une atteinte grave au principe d’anonymat sur internet. Cela démontre surtout une profonde méconnaissance d’internet. Pour le commun des mortels, l’anonymat n’existe pas ; la police peut le lever. Vous risquez même de rendre plus complexe le travail de la police en éveillant la vigilance des criminels.

Cet amendement est indigne d’un régime démocratique, et fait plutôt penser au régime chinois – vous l’assumez d’ailleurs en parlant de « plaque d’immatriculation ». Il serait de surcroît inefficace. Le Rassemblement national défend les libertés en ligne et nous nous opposerons de toutes nos forces à ces propositions. Nous sommes satisfaits de l’avis défavorable du Gouvernement, mais nous nous inquiétons du fait que celui-ci entende défendre de telles mesures au niveau européen. Nous allons nous efforcer de dévoiler votre projet liberticide au cours de la campagne des élections européennes.

M. Ian Boucard (LR). Je ne m’étends pas plus longtemps sur le caractère liberticide de cette mesure, même si je ne partage pas tout ce qui vient d’être dit.

On n’est jamais parfaitement anonyme sur internet, des affaires judiciaires nous le rappellent chaque semaine. La question, c’est celle des moyens des forces de l’ordre et notamment de Pharos, la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements. Ces amendements ne règlent rien. Les grands voyous ont des moyens colossaux, supérieurs à ceux de l’État. Ils continueront à utiliser des VPN – réseaux virtuels privés – et à falsifier leur identité. Je suis sûr qu’il n’est pas si difficile de falsifier votre identité et de la relier au compte Facebook Paulo91, avec la photo du chat.

Enfin, l’image de la plaque d’immatriculation est maladroite : un humain n’est pas une voiture, et il y a aussi plus de 300 000 fausses plaques d’immatriculation dans notre pays.

M. Guillaume Gouffier Valente (RE). Je remercie le rapporteur général d’ouvrir ce débat. Nos concitoyens ne comprendraient pas que cette question ne soit pas soulevée dans le cadre d’un texte sur la régulation du numérique.

C’est un débat très complexe. Je ne suis pas un expert ; mais je suis dans cet espace numérique et, comme vous tous, je suis attaqué et insulté par des gens tapis dans l’ombre. La question de la régulation se pose.

M. Stéphane Vojetta (RE). Merci au rapporteur général d’avoir le courage d’ouvrir le débat. Il existe un sentiment d’anonymat, et donc un sentiment d’impunité, contre lequel nous devons nous donner les moyens de lutter. Il faut toujours défendre la liberté d’expression, mais on ne peut pas défendre la liberté de harceler, d’arnaquer ou de montrer du contenu pornographique à des mineurs.

Ce n’est pas le moment d’adopter la solution proposée par les amendements, j’en suis d’accord. Mais prenons conscience de la nécessité d’avancer.

M. Philippe Latombe (Dem). Ces amendements sont inconventionnels ; nous ne pouvons pas aller dans le sens que vous indiquez sans remettre en cause la primauté du droit européen sur le droit national.

Ils sont contraires à la charte des droits fondamentaux de l’Union : la Cour de justice de l’Union européenne nous l’a dit. La Cour de justice estime que l’anonymat est une règle, et que les exceptions doivent être réservées aux crimes graves. Dès lors, ce ne sont plus les procureurs qui doivent faire les réquisitions, mais une autorité administrative indépendante ou un juge indépendant. La Cour nous l’a encore répété la semaine dernière : même pour la corruption d’agent public, les réquisitions ne peuvent pas être le fait du procureur. Le Conseil constitutionnel l’a dit à plusieurs reprises : nous devons changer nos règles procédurales.

Ensuite, il y a la question des moyens de la justice ; les cyberpatrouilleurs vont être développés grâce à la loi d’orientation.

M. Vincent Thiébaut (HOR). Ne pas avoir ce débat aurait été une faute.

Aujourd’hui, il faut trois secondes pour créer un compte sur un réseau social en restant indétectable. L’idée du rapporteur général me paraît intéressante : on n’interdit pas l’anonymat, mais on demande à un tiers de certifier la personne qui est derrière le compte.

Je suis surpris des propos du RN. Ce sont les mêmes qui s’indignent quand des gens ont des cagoules en manifestation ! L’espace numérique est-il, ou pas, le prolongement de l’espace physique ?

Mme Céline Calvez (RE). C’est un débat qui suscite beaucoup d’intérêt. L’anonymat en ligne n’est pas total : des harceleurs sont retrouvés. Mais il est vrai que nous ne sommes pas efficaces dans la recherche et la condamnation des auteurs d’infractions.

Quelles améliorations apporte le DSA à notre capacité collective à retrouver les auteurs d’infraction, et donc à faire cesser le sentiment d’impunité ? Si elles sont importantes, ce règlement commence à s’appliquer, donnons-lui sa chance. Sinon, que pouvons-nous faire, au niveau national comme européen ?

Mme Marie Guévenoux (RE). La plupart des utilisateurs se croient anonymes, et en profitent pour enfreindre des règles. Nous devons combattre ce sentiment d’impunité.

Je remercie à mon tour le rapporteur général d’avoir ouvert ce débat. Les propositions ne sont pas mûres, visiblement. Mais le groupe Renaissance souhaite que la France s’engage dans le sens indiqué par M. le ministre délégué : progresser sur l’identité numérique et mettre fin à l’impunité sur les réseaux.

Mme Caroline Yadan (RE). Il y a trois problèmes distincts : l’efficacité des poursuites ; l’absence, en réalité, d’anonymat ; enfin, le sentiment d’impunité. Je suis curieuse de savoir quels seraient les résultats d’un sondage qui demanderait aux Français s’ils se croient anonymes sur les réseaux sociaux : je suis persuadée que beaucoup pensent qu’un pseudonyme suffit à empêcher leur identification. C’est sur cette expression sans filtre que nous devons nous interroger.

Mme Mireille Clapot (RE). On touche ici à une question anthropologique : en société, chacun est responsable de ses actes. Entre le grand laisser-aller et le flicage totalitaire, c’est à l’Europe qu’il revient de trouver une voie médiane, respectueuse des libertés fondamentales mais compatible avec la courtoisie indispensable au vivre-ensemble.

M. Hendrik Davi (LFI-NUPES). Ce débat de fond est passionnant et nous pourrons le prolonger lors de la campagne des élections européennes.

Revenir sur l’anonymat sur internet est une mauvaise solution, dangereuse.

Votre prémisse selon laquelle l’anonymat serait la source de tous les problèmes est fausse : dans les cas de harcèlement scolaire, le harcèlement numérique prolonge le harcèlement réel. L’homophobie, le racisme, l’antisémitisme, entre autres, se montrent à visage découvert.

Le véritable problème, ce sont les moyens de levée de l’anonymat, donc les moyens de la police et de la justice. Et comme vous refusez continuellement de donner des moyens aux services publics, vous finissez par faire de l’agitation en prenant des mesures symboliques qui ne résolvent rien !

M. Pierre Cazeneuve (RE). Le harcèlement scolaire se fait en effet souvent à visage découvert. Je suis moi-même opposé à ces amendements, mais je voulais faire une remarque : pour repousser ces amendements, vous avez tous dit que l’anonymat en ligne n’existait pas in fine. Mais si c’est vrai, pourquoi alors ne pas accepter cette solution et faciliter le travail des forces de police pour identifier des personnes qui s’expriment en ligne ?

M. Paul Midy, rapporteur général. D’abord, un scoop : je n’ai pas de chat.

S’agissant de l’inconventionnalité, le trilogue sur l’identité numérique débat de l’équivalent d’un des amendements : l’obligation pour les plateformes de proposer des comptes certifiés. Il doit se terminer le 15 octobre. Les règles peuvent donc bouger.

La confiance est en effet essentielle, et c’est pour cela que nous avons choisi la date lointaine de 2027 pour l’obligation de certification des comptes. Mais, cette confiance, il faut en effet la construire.

Vous dites qu’il n’y a pas d’anonymat sur internet. Techniquement, dans la moitié des cas, il n’y a pas d’anonymat ; dans l’autre moitié, il est soit très difficile, soit complètement impossible de trouver l’internaute. Mais l’essentiel, c’est que la quasi-totalité des Français se pensent anonymes. C’est ce sentiment que nous voulons combattre, plus que l’anonymat lui-même.

Il faut en effet davantage de répression. Nous avons augmenté les moyens de la justice, mais on pourrait aller plus loin que cela ne suffirait pas encore. Oui, il faut faire beaucoup plus.

S’agissant des personnes morales, elles seraient traitées comme des personnes physiques. Madame Amiot, vous évoquiez aussi le cas très concret d’un collectif informel. Les difficultés sont les mêmes dans la vie réelle lorsqu’il s’agit de louer une salle ou une voiture : dans l’action, quelqu’un prend une partie de la responsabilité.

Monsieur Taché, les lanceurs d’alerte ne sont pas connus du public, mais ils ne sont pas anonymes vis-à-vis de la puissance publique.

Vous dites aussi qu’il faut un permis de conduire pour aller sur la route, et que ce n’est pas le cas sur internet. Pourtant, nous avons longuement débattu des manières d’accompagner nos jeunes dans l’espace numérique. Je rappelle aussi la loi Marcangeli, qui établit une majorité numérique.

J’ai la conviction que la tyrannie ne vient pas de la technologie, mais de la dégradation de la démocratie et du système de gouvernance. Bien des technologies que nous utilisons, du smartphone à la carte bleue, permettent de suivre les gens à la trace. Je préfère que ce soit la France, pays des droits de l’homme, qui définisse des solutions, plutôt que la Chine dont les valeurs ne sont pas les mêmes. Pour le moment, ce sont d’autres pays qui nous imposent leurs technologies : il n’y a pas un seul grand réseau social qui soit européen. Nous subissons les biais américains – au moins, les États-Unis sont nos alliés.

Monsieur Boucard, la question des moyens est essentielle. Les voyous ont toujours plus de moyens que l’État, mais un faux passeport coûte environ 250 euros, je crois : c’est accessible à beaucoup de gens. Ce que nous voulons, c’est traiter la masse.

Je serai ravi si un simple changement procédural fonctionne.

Le DSA, c’est génial : c’est une avancée majeure et une victoire française, obtenue dans le cadre de la présidence de l’Union européenne. Mais c’est une première régulation. Elle donne des devoirs énormes aux plateformes pour assurer la modération, ce qui est un terme poli pour dire la police. Ces plateformes sont privées et ne sont pas européennes ; Mark Zuckerberg ou Elon Musk sont de très bons entrepreneurs, mais ils n’ont pas été élus, et je ne leur fais pas confiance pour assurer l’ordre public à long terme. Nous devons continuer d’évoluer.

Madame Clapot, vous avez raison. Dans le monde physique, il n’existe pas de cape d’invisibilité comme dans Harry Potter ; si elle existait, les humains qui en disposeraient se seraient probablement entretués… Il ne faut pas plus de cape d’invisibilité sur les réseaux sociaux.

Merci à tous pour ce débat. Je vous propose à tous de poursuivre la réflexion en vue de la séance.

Les amendements CS905, CS904, CS903, CS902 et CS901 sont retirés.

Amendements CS899 et CS900 de M. Paul Midy

M. Paul Midy, rapporteur général. L’amendement CS899 vise à assigner à l’État l’objectif de doter 80 % des Français d’une identité numérique au 1er janvier 2027 – ils sont 10 % aujourd’hui. Les exigences que nous posons en matière de pornographie accroîtront mécaniquement cette proportion.

L’amendent CS900 a pour objet de demander au Gouvernement un rapport sur la manière avec laquelle il envisage de tenir un tel objectif.

M. Jean-Noël Barrot, ministre délégué. Sagesse.

La commission adopte successivement les amendements et l’article 4 AC est ainsi rédigé.

Amendement CS793 de M. Henri Alfandari.

M. Henri Alfandari (HOR). En préambule, je précise que l’amendement concerne la connexion à des services publics et non à des services privés.

Il s’agit de jeter les bases, d’une part, d’une identité numérique régalienne et, d’autre part, d’un portail sur lequel l’ensemble des données des administrés seraient consultables en lecture et en écriture, sans stockage. L’objectif n’est pas de fliquer mais d’aider les gens à reprendre la main sur leurs données et de les accompagner dans tous les démarches de la vie quotidienne.

La création de l’identité régalienne s’appuierait sur France Identité numérique et FranceConnect + tout en s’inscrivant dans le cadre européen. Quant à la plateforme, elle permettrait de récupérer les données grâce à l’intégration d’applications d’entreprise (EAI).

Il est proposé une expérimentation sur cinq ans dans un nombre limité de départements et avec des citoyens volontaires uniquement – pour que l’expérimentation soit satisfaisante, le volume ne doit pas être trop important.

M. Paul Midy, rapporteur général. C’est évidemment une excellente idée. Votre amendement est en partie satisfait par ceux que nous avons adoptés à l’instant puisqu’il aborde un sujet connexe. Je vous propose de le retirer et de nous assurer avant la séance que vos préoccupations sont bien prises en considération dans le rapport prévu par l’amendement CS900.

M. Jean-Noël Barrot, ministre délégué. Vous avez raison, l’identité numérique peut faciliter l’accès au droit, y compris pour des personnes encore éloignées du numérique.

France Identité numérique a déjà commencé à se déployer par le biais d’expérimentations différenciées selon les territoires. Je crois qu’un rendez-vous est déjà prévu avec le ministère de l’intérieur sur votre proposition. Je suggère donc de retirer l’amendement et de laisser la discussion se poursuivre.

L’amendement est retiré.

TITRE II
PROTECTION DES CITOYENS DANS L’ENVIRONNEMENT NUMÉRIQUE

Article 4 A : Avertissement sur le caractère illégal des comportements simulés dans des vidéos pornographiques

Amendement CS791 de Mme Agnès Carel

Mme Agnès Carel (HOR). L’amendement a pour objet de compléter le dispositif introduit par le Sénat en vertu duquel les utilisateurs de sites pornographiques seront informés qu’ils s’apprêtent à visionner une vidéo simulant la commission d’un crime ou d’un délit, tels que le viol. Il paraît tout aussi important de préciser à l’ensemble des utilisateurs que les contenus pornographiques ne reflètent pas la réalité des rapports sexuels. En effet, les professionnels de santé alertent sur les risques liés à un effet de mimétisme.

L’amendement vise donc à imposer aux éditeurs de films pornographiques la diffusion d’un message clair, lisible, adapté et compréhensible par tous, y compris les plus jeunes, soulignant le caractère fictif des scènes jouées par des acteurs professionnels dans les vidéos.

Mme Louise Morel, rapporteure. Il ne semble pas souhaitable d’alourdir l’avertissement en multipliant les messages. La priorité reste d’alerter sur le caractère illégal du contenu. J’exprime donc un avis de sagesse.

M. Jean-Noël Barrot, ministre délégué. Le Gouvernement est opposé à l’article 4A. Il ne peut pas, d’un côté, repousser certains de vos amendements, au motif qu’ils viendraient contredire la directive sur le commerce électronique, et, de l’autre, soutenir un article qui impose à des acteurs, quel que soit leur lieu d’établissement – y compris dans un autre pays membre de l’Union européenne – de diffuser des messages particuliers. Ce n’est pas conventionnel. Néanmoins, je fais toute confiance à la sagesse du Parlement pour faire les bons choix.

S’agissant de l’amendement, dont je partage l’intention, j’émets aussi un avis de sagesse, sachant qu’il n’effacera pas l’inconventionnalité de l’article.

Mme Élisa Martin (LFI-NUPES). Sur le principe, nous sommes plutôt favorables à une mesure qui nous paraît juste.

Néanmoins, nous entendons l’argument de l’inconventionnalité. En outre, comme les débats d’hier l’ont montré, une idée qui paraît juste peut s’avérer compliquée à mettre en œuvre pour des raisons techniques ou juridiques.

Quoi qu’il en soit, se pose une fois encore la question du contrôle et des moyens mis à disposition pour y procéder. Ce n’est certainement pas le rôle des cyberpatrouilleurs.

Je reconnais les bonnes intentions mais, une nouvelle fois, vous vous heurtez à la réalité.

La commission rejette l’amendement.

Amendements CS431 de Mme Sophia Chikirou et CS744 de M. Laurent Croizier (discussion commune)

M. Idir Boumertit (LFI-NUPES). L’amendement vise à rendre obligatoire l’affichage du message pendant toute la durée du visionnage de la vidéo. Il est très facile de fermer le message d’avertissement, s’il apparaît seulement au début, sans même en prendre connaissance.

M. Laurent Croizier (Dem). Je souhaite que dans notre pays, les contenus pornographiques simulant des viols, des comportements incestueux ou encore des agressions sexuelles ne soient jamais banalisés, ne serait-ce que par respect pour les personnes qui en sont malheureusement victimes.

L’alinéa 2 contraint les plateformes qui proposent de tels contenus à afficher un message avertissant l’utilisateur du caractère illégal des comportements. Je considère que ce n’est pas suffisant. Mon amendement vise donc à préciser que le message doit apparaître avant l’accès à la vidéo et durant toute la durée de sa diffusion.

Mme Louise Morel, rapporteure. Je rebondis sur les propos de M. le ministre délégué. L’obligation d’afficher un message peut sembler contradictoire avec la philosophie du projet de loi consistant à retirer les contenus inappropriés. Mais, vous l’aurez compris, notre objectif est de traiter la masse, donc autant se doter des deux outils – tant que le contenu n’est pas retiré, il reste toujours le message.

Je partage votre volonté d’aller plus loin en imposant l’affichage du message pendant toute la durée du visionnage. J’ai déposé l’amendement CS879 qui est encore plus complet puisqu’il ajoute à votre proposition l’affichage des peines encourues pour chaque comportement illégal, conformément à une demande formulée lors des auditions. Je vous demande de retirer votre amendement au profit du mien.

La commission rejette successivement les amendements.

Amendement CS757 de M. Erwan Balanant

M. Erwan Balanant (Dem). Puisque message d’avertissement il y a, autant qu’il soit parfaitement utile. C’est la raison pour laquelle je propose d’afficher les numéros d’aide aux victimes. Pour avoir travaillé sur les violences conjugales, je sais que certaines femmes sont forcées à regarder des films pornographiques avec leur conjoint ou leur compagnon. L’affichage des numéros d’aide me semble une idée plutôt efficace.

Mme Louise Morel, rapporteure. Il ne faut pas trop alourdir le message. Par ailleurs, si je partage votre objectif, je ne suis pas convaincue par la méthode. La cible des messages d’avertissement, ce sont avant tout les personnes qui souhaitent accéder à des contenus pornographiques. Demande de retrait, sinon avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Demande de retrait au profit de l’amendement CS756, qui me semble plus solide.

Je le répète, s’agissant d’un sujet qui n’est pas traité explicitement par le DSA, la seule manière de respecter la conventionalité, c’est de se placer sous les auspices du point 4 de l’article 3 de la directive sur le commerce électronique, c’est-à-dire la dérogation au principe selon lequel « les États ne peuvent, pour des raisons relevant du domaine coordonné, restreindre la libre circulation des services de la société de l’information en provenance d’un autre État membre ». Les dérogations doivent être justifiées par « l’ordre public, la protection de la santé publique, la sécurité publique, la protection des consommateurs » ; elles doivent être proportionnelles aux objectifs ; elles doivent être prises à l’encontre d’un service de la société de l’information. Ces conditions très restrictives nous semblent réunies s’agissant des mesures liées à la protection des mineurs dans les articles 1er et 2.

Je souhaiterais que des messages d’avertissement puissent s’afficher. Mais lorsque cette disposition sera contestée par les sites concernés, nous ne serons pas en mesure d’arguer d’un danger immédiat pour les mineurs pour justifier la dérogation. C’est au niveau européen que la France doit convaincre ses partenaires, comme elle l’a fait pour le DSA, d’imposer l’affichage partout en Europe pour contourner le principe du pays d’origine qui est fixé dans l’article 3.

Mme Élisa Martin (LFI-NUPES). L’appel à ne pas alourdir le message m’a troublée. On ne peut pas balayer d’un revers de main un sujet qui, malheureusement, fait écho à certaines réalités. Soit on adopte l’amendement, et on verra bien ce qu’il en est ; soit, à la faveur d’un engagement du ministre délégué ou sous une forme à définir, on considère que le sujet doit faire l’objet de discussions avec les autres États membres.

M. Erwan Balanant (Dem). Je comprends le souci du ministre délégué. C’est toute la difficulté de tenir la ligne de crête entre le respect de nos engagements européens et la réponse à nos préoccupations.

Pour moi, l’ordre public ou la santé mentale ou physique seront toujours plus importants que la liberté du marché et d’autres préoccupations de la Commission européenne.

Je propose de maintenir l’amendement pour prendre date. J’ai déposé un amendement de repli qui laisse une liberté aux sites pour afficher le message. J’aimerais que soit validée l’idée selon laquelle l’affichage des numéros d’urgence pour les victimes est utile. J’espère que l’amendement sera adopté et nous pourrons ensuite le retravailler en vue de la séance.

Mme Louise Morel, rapporteure. Je ne balaye pas le sujet d’un revers de main. J’en veux pour preuve mon amendement qui vise à allonger la durée du message et à afficher les peines encourues. Abstenons-nous des faux procès, nous sommes tous concernés.

J’estime qu’un message ne peut avoir qu’une cible pour être compréhensible. On ne peut pas parler à tout le monde. Ce que vivent les femmes victimes de violences, obligées de regarder des images ou des films pornographiques, est terrifiant. Il faut s’adresser à elles par des messages adéquats au bon endroit au bon moment.

Dans cet article, le message a une visée pédagogique. Il s’adresse aux personnes qui regardent les contenus sans avoir conscience du fait qu’ils reproduisent des comportements illégaux.

La commission rejette l’amendement.

Amendement CS579 de Mme Marie Guévenoux

Mme Marie Guévenoux (RE). Il s’agit de préciser dans le message d’avertissement, « clair, lisible, unique et compréhensible », selon les mots du Sénat, les sanctions encourues pour les crimes ou délits présentés sur la vidéo. Je crois avoir compris que la rapporteure a déposé un amendement reprenant cette idée.

Mme Louise Morel, rapporteure. En effet, mon amendement reprend à la fois l’idée de l’affichage constant du message et de la mention des peines encourues pour les comportements visibles sur les vidéos. Je vous demande donc de retirer votre amendement.

M. Jean-Noël Barrot, ministre délégué. Les précisions sont bienvenues parce qu’elles permettent de matérialiser l’illégalité des comportements. Toutefois, je le répète, dans un souci de sécurité juridique, je vous proposerais volontiers de vous rallier à l’amendement CS756 de M. Balanant qui offre un peu plus de flexibilité. J’émets donc un avis de sagesse.

M. Bruno Studer (RE). Devons-nous comprendre que le Gouvernement a l’intention de déposer un amendement de suppression de l’article 4 A pour la séance ?

M. Jean-Noël Barrot, ministre délégué. Monsieur le député, vous savez mieux que quiconque que le Parlement est souverain. Le Parlement décidera du sort de l’article.

L’amendement est retiré.

Amendement CS879 de Mme Louise Morel.

Mme Louise Morel, rapporteure. Voici donc l’amendement qui, disais-je, rendra l’article plus effectif. Le message devra être visible pendant toute la durée du visionnage et mentionner explicitement le caractère illégal des comportements représentés ainsi que les sanctions pénales associées.

M. Jean-Noël Barrot, ministre délégué. L’amendement CS756 me paraît offrir des garanties supplémentaires parce qu’il renvoie au décret le soin de décrire les caractéristiques du message, en tenant compte de la durée et des sanctions. Je réitère donc mon avis un peu dépité de sagesse tout en invitant la rapporteure à se rallier à cette solution qui me semble plus sûre juridiquement.

M. Jean-François Coulomme (LFI-NUPES). Je ne nie pas la pertinence ni l’intention louable de l’amendement. Vous risquez toutefois de vous heurter au même écueil que pour les cigarettes – un message écrit en tout petit, au coin en bas du paquet. Pour l’éviter, il faudrait préciser aussi la place que doit occuper le message par rapport à la taille de l’écran sur lequel est diffusé le contenu pornographique.

M. Erwan Balanant (Dem). Madame la rapporteure, votre amendement va dans le bon sens. Vous parlez de comportements illégaux et de sanctions pénales associées. Certaines victimes de violences conjugales ou sexuelles n’ont pas conscience d’être violentées. C’est notamment pour elles qu’il me semble particulièrement utile de faire figurer les numéros d’aide aux victimes.

La commission adopte l’amendement.

Amendement CS756 de M. Erwan Balanant et sous-amendement CS945 de Mme Louise Morel

M. Erwan Balanant (Dem). Le ministre délégué l’a dit, il s’agit de préciser par décret – je n’ai rien contre le décret simple que suggère la rapporteure dans son sous-amendement – le contenu du message. Nos débats éclairent les futurs rédacteurs sur la teneur du message d’avertissement que nous attendons : un message efficace pour les jeunes mais aussi pour les victimes, proposant des solutions concrètes telles que les numéros d’urgence ou d’aide aux victimes.

Mme Louise Morel, rapporteure. L’avis de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) me semble intéressant. Je suis favorable à l’amendement, sous réserve de l’adoption de mon sous-amendement qui substitue un décret simple au décret en Conseil d’État.

M. Jean-Noël Barrot, ministre délégué. Avis favorable au sous-amendement et à l’amendement ainsi sous-amendé.

Mme Marie Guévenoux (RE). Je souhaite que le ministre délégué s’engage à ce que le décret précise bien les sanctions encourues – ce que demandait l’amendement que j’ai retiré.

M. Jean-Noël Barrot, ministre délégué. Je l’ai dit précédemment, il me paraît pertinent que les sanctions et la durée soient prises en considération.

La commission adopte successivement le sous-amendement et l’amendement sous-amendé.

Amendement CS372 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). L’amendement vise à préciser les sanctions pour les plateformes qui ne respecteraient pas leur obligation d’avertissement, en les alignant sur celles applicables aux plateformes pornographiques qui n’auraient pas respecté le référentiel.

Mme Louise Morel, rapporteure. La sanction est déjà prévue dans le texte : un an d’emprisonnement et 75 000 euros d’amende. Elle me paraît plus appropriée que la sanction proportionnelle au chiffre d’affaires que vous souhaitez – 1 % du chiffre d’affaires mondial. Mon avis est donc défavorable.

La commission rejette l’amendement.

Amendement CS507 de M. Stéphane Vojetta

M. Stéphane Vojetta (RE). J’espère que vous me répondrez que mon amendement est satisfait.

Le DSA imposera aux plateformes numériques la mise à disposition des utilisateurs d’instruments efficaces et accessibles afin de leur permettre de signaler des contenus problématiques. Il les soumet à une obligation de résultat pour le traitement de ces signalements. L’amendement vise à s’assurer que le DSA s’appliquera bien aux plateformes proposant des contenus pornographiques.

Mme Louise Morel, rapporteure. Je suis embêtée car votre amendement conduirait en quelque sorte les utilisateurs à faire eux-mêmes la police. Pour avertir les utilisateurs, l’objectif est de cibler les éditeurs de sites et non les plateformes, ce qui serait contraire au règlement sur les services numériques. Avis défavorable.

L’amendement est retiré.

La commission adopte l’article 4 A modifié.

La réunion est suspendue de dix-sept heures à dix-sept heures quinze.

Article 4 B : Obligation de retrait de contenus pornographiques diffusés en violation d’un accord de cession de droit

Amendement de suppression CS880 de Mme Louise Morel

Mme Louise Morel, rapporteure. Il s’agit de supprimer l’article 4 B, qui vise à imposer aux fournisseurs l’obligation d’agir promptement pour retirer tout contenu pornographique qui est diffusé en violation d’un accord de cession de droit à l’image.

Cet article ne permet pas vraiment de résoudre le problème mis en exergue par le rapport d’information sénatorial sur la pornographie « Porno : l’enfer du décor », à savoir le faible niveau de protection juridique dont bénéficient les personnes qui travaillent dans l’industrie pornographique, notamment pour ce qui concerne la cession de leur droit à l’image.

En effet, les contenus pornographiques diffusés en violation de l’accord de cession de droit à l’image sont déjà un contenu illicite qui peut être signalé par la personne concernée aux plateformes en vue d’un retrait dans des conditions prévues à l’article 6 de la loi de confiance dans l’économie numérique (LCEN). Si l’hébergeur ne procède pas au retrait, il engage sa responsabilité pénale.

L’article 4 B va plus loin en imposant aux fournisseurs de retirer le contenu promptement. C’est ce retrait instantané, à la demande d’une personne privée et non publique, qui pose problème, notamment en matière de vérification des signalements.

M. Jean-Noël Barrot, ministre délégué. L’article, qui s’inspire des travaux du Sénat sur la pornographie, ne nous emmène pas beaucoup plus loin que la LCEN. J’avais donné un avis défavorable à l’amendement d’Annick Billon au Sénat ; j’émets donc ici un avis favorable à la suppression de l’article.

M. Philippe Gosselin (LR). Le présent article va quand même un peu plus loin que la LCEN, monsieur le ministre délégué. Pourquoi se priver de la possibilité qu’il offre ? Il serait dommage d’envoyer un signal contraire à la rapidité que nous appelons de nos vœux.

M. Hervé Saulignac (SOC). Les arguments de Mme la rapporteure et de M. le ministre délégué, qui démontrent notamment l’inefficience de l’article 4 B, sont tout à fait fondés. Il n’en demeure pas moins que le problème soulevé, bien réel, n’est toujours pas réglé. Les tribunaux sont saisis d’un nombre croissant de plaintes liées à la diffusion de contenus en violation d’un accord de cession de droit à l’image, notamment par des femmes qui prétendent s’y retrouver. Il ne faudrait pas écarter ce problème au motif qu’il est très difficile à résoudre. Je considère, comme M. Gosselin, que cet article contenait quelques avancées, s’agissant notamment de la nécessité d’agir promptement, pour des raisons que chacun peut facilement imaginer. Je regrette donc sa suppression.

M. Bruno Studer (RE). Alors que j’avais déposé un amendement à cet article, je me suis laissé convaincre par les arguments de M. le ministre délégué et de Mme la rapporteure. Il ne s’agit pas de se faire plaisir : je voterai donc cet amendement de suppression.

La commission adopte l’amendement.

En conséquence, l’article 4 B est supprimé et les autres amendements s’y rapportant tombent.

Article 4 : Protection des citoyens contre les vecteurs de propagande étrangère manifestement destinés à la désinformation et à l’ingérence

Amendements de suppression CS182 de Mme Christine Loir et CS205 de Mme Caroline Parmentier

Mme Christine Loir (RN). La protection des Français est un enjeu fondamental. Il est impensable de continuer à soumettre notre législation aux desiderata de la Commission européenne : les interdictions de diffusion de contenus doivent être votées par notre assemblée et non décidées par une autorité supranationale très éloignée des idéaux de la République française.

Mme Caroline Parmentier (RN). Nous demandons également la suppression de l’article 4, qui étend les compétences de l’Arcom afin de permettre la mise en œuvre d’éventuelles mesures restrictives prises par l’Union européenne à l’encontre d’États tiers lorsqu’elles consistent en des interdictions de diffusion de contenus émanant de médias liés à ces États. Cet article pose problème dans la mesure où il porte directement atteinte à la souveraineté de notre pays.

L’Union européenne n’a pas vocation à assumer des responsabilités devant relever de la compétence exclusive des États. Elle est riche de pays aux traditions politiques, aux liens diplomatiques, économiques et culturels divers avec des nations tierces. Dès lors, des appréciations différentes sont susceptibles d’être portées sur certains contenus, dont plusieurs États pourraient vouloir empêcher la diffusion tandis que d’autres souhaiteraient l’autoriser. Cet amendement de sagesse entend donc respecter la souveraineté de chaque État membre de l’Union européenne.

Mme Louise Morel, rapporteure. Je me demandais si les députés du groupe Rassemblement national demanderaient la suppression de cet article : je ne suis pas déçue.

Rassurez-vous, l’article 4 ne pose aucun problème quant à la souveraineté de notre pays, qui vous est chère. La France prend part aux décisions relatives aux relations économiques et financières avec un ou plusieurs pays tiers prises sur le fondement de l’article 215 du Traité sur le fonctionnement de l’Union européenne (TFUE). L’article 4 du présent projet de loi vise précisément à garantir l’effectivité des mesures décidées au niveau européen et à empêcher que des contenus produits par des chaînes interdites de diffusion soient accessibles en France. Je pense en particulier à certaines chaînes interdites en raison de la guerre en Ukraine : puisque les Vingt-Sept se sont entendus pour faire cesser leur diffusion, nous devons faire en sorte que ces sanctions soient effectives sur le sol national.

M. Jean-Noël Barrot, ministre délégué. Quelques mois après la décision prise par l’Union européenne de sanctionner certains médias russes, notamment RT France et Sputnik, il est apparu que la diffusion de ces chaînes, qui avait pourtant cessé sur les canaux traditionnels, se poursuivait via des sites internet localisés bien loin de l’Union européenne. Il nous a donc semblé nécessaire de donner à l’Arcom un pouvoir de mise en demeure et éventuellement de blocage des flux lorsque les sites concernés refusent de se soumettre aux décisions de l’Union européenne. Avis défavorable aux amendements de suppression.

Mme Marie Guévenoux (RE). Nous ne sommes malheureusement pas surpris par ces amendements du groupe Rassemblement national, qui ne visent qu’à s’opposer aux sanctions décidées par l’Union européenne. L’article 4 permet de garantir la souveraineté de l’État, à qui il appartient de décider quels médias ont le droit d’être diffusés sur notre territoire. L’Union européenne a pris des sanctions contre certains médias, qui tentent de les contourner, et nous proposons donc de doter l’Arcom du pouvoir d’empêcher leur diffusion. La seule chose qui perturbe nos collègues, c’est que les médias incriminés soient russes.

M. Aurélien Lopez-Liguori (RN). La seule question qui vaille est celle de la souveraineté : ce n’est pas à l’Union européenne mais au gouvernement français de décider quel média peut être diffusé sur notre territoire. Imaginons qu’une décision européenne interdise un média d’un État africain comptant parmi nos alliés : l’État français doit avoir la possibilité de ne pas suivre la Commission européenne, ce qu’il sera tenu de faire si nous adoptons cet article.

La commission rejette les amendements.

Amendement CS713 de M. Quentin Bataillon

M. Quentin Bataillon (RE). Il s’agit d’un amendement de cohérence : la compétence donnée à l’Arcom pour ce qui concerne les services de streaming et de diffusion « over the top » (OTT) doit être élargie aux services de télévision classiques, linéaires.

Mme Louise Morel, rapporteure. Cet ajout est tout à fait cohérent avec les dispositions adoptées par le Sénat. Avis favorable.

La commission adopte l’amendement.

Amendements identiques CS776 de Mme Louise Morel et CS733 de M. Quentin Bataillon

Mme Louise Morel, rapporteure. L’Arcom doit pouvoir mettre en demeure non seulement les éditeurs, mais aussi les hébergeurs de retirer des contenus contraires aux stipulations de l’article 215 du TFUE.

La commission adopte les amendements.

Elle adopte l’amendement de précision CS778 de Mme Louise Morel, rapporteure.

Amendement CS779 de Mme Louise Morel

Mme Louise Morel, rapporteure. La rédaction actuelle de l’article 4 permettrait de bloquer des contenus non contraires aux stipulations de l’article 215 du TFUE, ce qui n’est pas souhaitable. Aussi convient-il de préciser que seules les adresses électroniques des personnes ayant été mises en demeure, donc ayant hébergé ou diffusé un contenu contraire à ces stipulations, pourront être bloquées.

La commission adopte l’amendement.

Elle adopte successivement les amendements rédactionnels CS780 et CS777 de Mme Louise Morel, rapporteure.

Elle adopte l’article 4 modifié.

Article 4 bis : Pénalisation de l’hypertrucage publié sans consentement

Amendement CS436 de Mme Sonia Chikirou

Mme Élisa Martin (LFI-NUPES). Il convient d’être le plus clair, précis et transparent possible s’agissant des montages et illusions créés par intelligence artificielle (IA), dont les artifices permettent de détourner l’image du corps d’une personne.

Mme Louise Morel, rapporteure. L’article 4 bis insère un nouvel alinéa au sein de l’article 226-8 du code pénal, qui traite des montages malveillants, afin de bien distinguer ces derniers des hypertrucages. Or votre amendement vise précisément à regrouper en un seul alinéa ces deux catégories de montages, ce qui ne me semble pas souhaitable. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Avis défavorable également, mais pour une autre raison assez subtile tenant à la manière dont la nouvelle disposition sur l’hypertrucage – le deepfake – est présentée. Votre amendement reformule la loi de telle sorte qu’elle paraît interpréter une disposition existante plutôt que d’en créer une nouvelle. Ainsi, l’infraction et la sanction associée deviendraient rétroactives, ce qui n’est pas l’intention du Gouvernement.

Mme Élisa Martin (LFI-NUPES). Plus nous avancerons, plus il sera difficile de différencier tous ces types de montages.

Mme Ségolène Amiot (LFI-NUPES). Nous retravaillerons notre amendement afin d’éviter tout effet rétroactif.

L’amendement est retiré.

Amendement CS752 de M. Erwan Balanant

M. Erwan Balanant (Dem). Mon amendement comporte une petite maladresse rédactionnelle car il pourrait laisser penser qu’il vise à interdire la production de deepfakes. Or il serait inopportun de prohiber toute utilisation des IA génératives : la production d’un deepfake chez soi, dans son studio, pour son usage personnel ou dans un but artistique peut être acceptable. Cependant, produire avant de publier, ce n’est pas tout à fait la même chose que publier uniquement – un peu comme dans l’audiovisuel, où les responsabilités du producteur et du diffuseur sont différentes. Il me semblerait assez logique que la publication d’un contenu illicite précédée de sa création soit sanctionnée plus lourdement que la seule publication de ce même contenu récupéré ailleurs, même si l’infraction est grave dans les deux cas.

Je ne peux plus rectifier mon amendement, mais l’un de nos rapporteurs aura peut-être la gentillesse de déposer un sous-amendement visant à remplacer le mot « ou » par le mot « puis ». Dans le cas contraire, je le retirerai, de même que mon amendement CS755, pour les retravailler en vue de la séance.

M. Paul Midy, rapporteur général. Outre la question de la production, il faudra veiller à ne pas criminaliser les personnes qui diffuseraient un contenu sans savoir qu’il s’agit d’un deepfake. Nous pourrons effectivement travailler ensemble sur ces deux sujets en vue de la séance.

L’amendement est retiré.

Amendement CS754 de M. Erwan Balanant

M. Erwan Balanant (Dem). L’article 4 bis cible la reproduction et la publication de l’image et des paroles d’une personne, mais il oublie sa voix. Alors que les paroles correspondent à des propos tenus, la voix renvoie à une intonation – ce n’est pas tout à fait la même chose. Cet amendement de précision vise donc à éviter toute confusion.

M. Paul Midy, rapporteur général. Il nous semble que la parole s’entend, dans le code pénal, comme un concept plus large englobant la voix. Il paraît donc préférable de laisser la disposition en l’état ; c’est pourquoi je vous invite à retirer votre amendement. Cependant, nous devons encore procéder à quelques vérifications supplémentaires d’ici à la séance afin d’être totalement sûrs de notre position.

Mme Ségolène Amiot (LFI-NUPES). Le commerce de la voix existe. D’ailleurs, dans les conventions conclues par les artistes qui prêtent leur voix, il est bien question de « voix », non de « parole » – ce sont deux notions distinctes. « Personne n’a craqué » est une parole, qui peut être prononcée par la voix de M. Dussopt. Il va donc falloir continuer vos recherches, monsieur le rapporteur général, pour être sûr de votre avis.

M. Paul Midy, rapporteur général. Nous avons bien compris la distinction que vous faites. Nous partageons votre objectif, que nous nous assurerons de traduire correctement en droit.

L’amendement est retiré.

Amendement CS300 de M. Jean-François Coulomme

M. Jean-François Coulomme (LFI-NUPES). Les techniques d’hypertrucage sont devenues tellement sophistiquées et performantes que certains contenus pornographiques sont désormais réalisés sans l’intervention du moindre être humain : les scènes sont fabriquées de manière infographique, avec un talent certain.

Nous nous opposons à toute surenchère pénale à l’encontre de l’hypertrucage, qui n’est pas répréhensible en soi – la loi réprime son utilisation malveillante, mais dans des conditions qui méritent encore d’être précisées. C’est pourquoi nous demandons la suppression des alinéas 3 et 4, qui créent une circonstance aggravante liée à l’hypertrucage.

Mme Louise Morel, rapporteure. Pour ma part je suis favorable à l’aggravation de la peine en cas d’hypertrucage, lorsque l’infraction est réalisée en utilisant un service de communication au public en ligne. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Jean-François Coulomme (LFI-NUPES). Ce n’est pas une circonstance aggravante que de recourir à une technique d’hypertrucage pour réaliser des scènes à caractère pornographique, qui ne sont d’ailleurs pas forcément illégales. C’est même plutôt une circonstance atténuante que de ne pas demander à des êtres humains de jouer ce type de scène !

M. Jean-Noël Barrot, ministre délégué. L’article 4 bis introduit dans le code pénal une nouvelle infraction consistant à « publier, par quelque voie que ce soit, un contenu visuel ou sonore généré par un traitement algorithmique et reproduisant l’image ou les paroles d’une personne, sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un contenu généré algorithmiquement ou s’il n’en est pas expressément fait mention ». Les alinéas 3 et 4 qualifient de circonstance aggravante l’utilisation d’un service de communication au public en ligne, qui accentue les effets néfastes d’un tel montage ; les peines encourues sont alors portées à deux ans d’emprisonnement et à 45 000 euros d’amende. La suppression de ces alinéas paraît contre-productive car nous avons besoin d’un dispositif dissuasif.

La commission rejette l’amendement.

L’amendement CS755 de M. Erwan Balanant est retiré.

La commission adopte l’article 4 bis non modifié.

Article 5 : Peine complémentaire de suspension de l’accès à un service de plateforme en ligne

Amendement de suppression CS301 de Mme Ségolène Amiot

Mme Ségolène Amiot (LFI-NUPES). L’article 5 prévoit une série de cas dans lesquels une suspension d’accès à un réseau social ou à une plateforme de partage de contenus peut être prononcée.

L’application d’une telle peine nécessiterait des vérifications très poussées de l’identité de chaque utilisateur ; elle mettrait fin au droit à l’anonymat en ligne pourtant reconnu par le droit de l’Union européenne et par la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales. Par ailleurs, au sein d’un foyer, d’une entreprise ou même d’un réseau ouvert comme celui de l’Assemblée nationale, je vous mets au défi d’identifier précisément un utilisateur. Si le contrevenant a utilisé un ordinateur public ou commun, à qui faudra-t-il retirer l’accès aux plateformes ?

Une telle mesure constitue à nos yeux une atteinte disproportionnée au droit et à la liberté d’information ainsi qu’au droit à l’accès à internet. Vous avez dit vous-mêmes, monsieur le ministre délégué, monsieur le rapporteur général, que les réseaux sociaux n’étaient pas seulement un espace d’échange et de dialogue, mais également un espace d’information. Ainsi, dans mon département, les pompiers communiquent régulièrement sur ces réseaux pour indiquer que telle voie est inondée et qu’il ne faut pas chercher à s’en approcher. La préfecture utilise aussi ce canal pour diffuser au public certaines informations. Lorsqu’on est privé d’accès aux réseaux sociaux, quelle qu’en soit la raison, on ne dispose plus des informations indispensables qui nous permettent de continuer à faire société.

Mme Louise Morel, rapporteure. Je suis bien évidemment défavorable à votre amendement, qui vise à supprimer du texte la peine de bannissement des réseaux sociaux pendant une période pouvant aller jusqu’à six mois.

Cela me donne l’occasion d’exposer la philosophie de l’article 5. Vous avez montré lors de nos précédents échanges que vous étiez sensible à la place du juge : je pense donc que vous serez attentive aux moyens qui lui sont accordés. Nous voulons mettre à sa disposition un nouvel outil permettant de faire cesser le sentiment d’impunité qui peut exister sur les plateformes. Il ne s’agit pas d’associer cette peine à l’ensemble des infractions susceptibles d’être commises en ligne, mais de la proposer au juge dans les cas où l’arsenal juridique est insuffisant.

Cette mesure est proportionnée et attendue. Toutefois, je défendrai plusieurs amendements visant à restreindre légèrement le champ des ajouts opérés par le Sénat, s’agissant notamment des délits auxquels cette peine complémentaire peut s’appliquer.

M. Jean-Noël Barrot, ministre délégué. Cette mesure est issue des travaux du Conseil national de la refondation ainsi que des consultations menées notamment auprès de femmes créatrices de contenus en ligne au sujet de leur expérience du cyberharcèlement.

La rapporteure l’a dit, et cela transparaissait très clairement dans les propos des créatrices de contenus : ce dispositif ne résoudra pas tous les problèmes. Côté police et justice, nous devons encore progresser mais les lois d’orientation et de programmation des ministères de l’intérieur et de la justice contiennent déjà quelques avancées. Quoi qu’il en soit, l’article 5 apportera une réponse à la consternation, régulièrement exprimée par les femmes interrogées, de voir sans cesse réapparaître les personnes qui les avaient harcelées, malgré leur exclusion des plateformes. Nous entourons ce dispositif d’un certain nombre de garanties afin d’en assurer la solidité juridique.

Je remercie le rapporteur général et la rapporteure pour leur gros travail d’analyse des apports du Sénat, qui permettra de continuer à renforcer cet article et de le rendre à la fois efficace et robuste juridiquement.

M. Stéphane Vojetta (RE). Madame Amiot, c’est toujours un plaisir d’échanger avec vous sur ces sujets. Même si nous ne siégeons pas sur les mêmes bancs, nous arrivons parfois à nous mettre d’accord. Vous avez d’ailleurs participé au groupe de travail sur les influenceurs.

Nous avons incorporé certains aspects du DSA dans la loi visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, dite loi « influenceurs ». Il fallait en effet responsabiliser les plateformes en les obligeant à mettre en place des instruments de signalement, à retirer les contenus illicites voire à bloquer les comptes des contrevenants.

Le but du législateur n’est pas forcément d’infliger des amendes et d’envoyer des gens en prison ; il est plutôt de mettre en place des structures mentales qui incitent ou désincitent à certains comportements. Les influenceurs se faisant remarquer par leur mauvaise conduite sur les réseaux sociaux pensent trop souvent qu’en s’expatriant, ils sortiront du champ d’application de la loi française et échapperont ainsi aux amendes. La perspective du blocage de leur compte ou du bannissement est autrement plus incitative. Je défendrai d’ailleurs un amendement visant à étendre la peine complémentaire de bannissement aux infractions graves et répétées à la loi « influenceurs ».

Mme Ségolène Amiot (LFI-NUPES). J’entends vos arguments et je vous rejoins quant à la nécessité de donner au juge des moyens supplémentaires. Pour autant, l’article 5, tel qu’il est rédigé, ne permet pas seulement de bannir un utilisateur d’un réseau social – il est beaucoup plus large.

Je m’interroge par ailleurs sur l’efficacité du dispositif. L’un de nos collègues expliquait tout à l’heure qu’il n’était pas nécessaire de présenter une carte d’identité pour acheter une carte SIM : un individu condamné à cette peine complémentaire pourra donc se reconnecter à une plateforme depuis n’importe quel appareil, avec un nouveau compte, sans être identifié comme étant la même personne. S’il est juste d’interdire à certaines personnes l’accès à certains réseaux, ce moyen-là risque de ne pas être opérant.

M. Paul Midy, rapporteur général. Cette mesure de bannissement est importante : elle transcrit dans l’espace numérique les lois applicables dans l’espace physique. De même que le juge a la possibilité d’ordonner l’éloignement physique d’un conjoint violent en lui interdisant de se rendre, pendant une période déterminée, dans une ville ou un département donné, il doit pouvoir bannir des plateformes les cyberharceleurs dont le comportement peut mener leurs victimes jusqu’au suicide.

Vous mettez en avant la difficulté technique d’identifier précisément les personnes qui se cachent derrière ces comptes. Soit on dit qu’il n’y a pas d’anonymat en ligne, auquel cas il n’était pas utile de nous poser toutes les questions qui nous ont occupés en début d’après-midi, soit on admet que l’anonymat existe nécessairement, et dans ce cas vous conviendrez qu’il serait plus simple d’instaurer une certification des profils des personnes physiques et morales.

Mme Ségolène Amiot (LFI-NUPES). Ce serait plus simple, mais complètement liberticide !

M. Paul Midy, rapporteur général. Vous avez enfin évoqué le droit à l’information, qui est en effet très important : c’est pourquoi l’article 5 prévoit de limiter la peine de bannissement susceptible d’être prononcée par le juge aux plateformes où le cyberharcèlement s’est produit. Nous aurions voulu envisager d’élargir le bannissement aux autres plateformes où les deux personnes sont en interaction sans qu’un cyberharcèlement n’ait eu lieu, mais cette limitation paraît nécessaire pour ne pas mettre à mal la liberté de s’informer.

La commission rejette l’amendement.

Amendement CS302 de M. Andy Kerbrat

Mme Élisa Martin (LFI-NUPES). Cet amendement vise à imposer l’interopérabilité entre les plateformes, ce qui créerait les conditions d’une plus grande liberté pour les utilisateurs, lesquels se sentiraient moins enfermés par tel ou tel réseau social. Il y a cependant une petite difficulté : tel qu’il est rédigé, notre amendement placerait les réseaux sociaux les moins importants sous la domination des géants du secteur, puisque les premiers devraient sans aucun doute adopter les outils techniques des seconds afin de permettre cette interopérabilité. Il manque donc quelque chose, par exemple la création d’un régulateur qui éviterait aux petites plateformes d’être enfermées dans les solutions techniques des plus grandes. Nous retirons donc notre amendement afin de le compléter en vue de son examen en séance. Il me semble par ailleurs qu’un autre groupe de la NUPES a déposé des amendements similaires mais plus précis que le nôtre.

L’amendement est retiré.

La commission adopte l’amendement rédactionnel CS783 de Mme Louise Morel, rapporteure.

Amendement CS654 de M. Erwan Balanant

M. Erwan Balanant (Dem). Au lieu d’imposer aux plateformes de suspendre des comptes, il serait plus simple d’interdire aux personnes concernées d’aller sur les sites. Si cette peine n’est pas respectée, on pourra passer à autre chose. Nous suivrons ainsi la même logique que pour les interdictions de déplacement ou de périmètre, s’agissant d’autres infractions. Je précise que nous avons travaillé sur cet amendement avec l’association Stop Fisha.

Mme Louise Morel, rapporteure. Plusieurs amendements proposent diverses rédactions visant à interdire à la personne condamnée à la peine de bannissement des réseaux sociaux d’accéder soit à l’ensemble de ses comptes, soit seulement au compte qui a servi à la commission de l’infraction. Je partage complètement l’objectif d’un équilibre entre les obligations reposant sur les plateformes et celles reposant sur les individus concernés, mais il me semble que ces rédactions ne sont pas suffisamment abouties à ce stade. Je vous propose de les retirer en vue de déposer en séance un amendement transpartisan.

M. Jean-Noël Barrot, ministre délégué. Le Gouvernement partage l’idée qui a été proposée par de nombreux groupes – le Modem, des groupes de la NUPES, le Rassemblement national, LR et Renaissance, me semble-t-il – sous forme d’amendements aux rédactions diverses. Cela correspond à l’une des trois suggestions que le Gouvernement a faites à M. le rapporteur général et à Mmes et MM. les rapporteurs, à la suite du groupe de travail transpartisan qui s’est réuni cet été pour faire l’analyse des violences urbaines de début juillet. J’imagine qu’un éventuel amendement pourrait être proposé à la signature de l’ensemble des groupes.

L’amendement est retiré.

L’amendement CS764 de M. Erwan Balanant est retiré.

La commission adopte l’amendement rédactionnel CS784 de Mme Louise Morel, rapporteure.

Amendements CS374 de Mme Isabelle Santiago et CS716 de Mme Caroline Yadan (discussion commune)

M. Hervé Saulignac (SOC). L’amendement CS374 vise à porter de six à neuf mois la durée de la suspension d’un compte. De nombreuses associations familiales soulignent qu’en cas de harcèlement, par exemple, un bannissement de neuf mois permettrait de couvrir toute une année scolaire. Cela ne serait toutefois qu’un maximum : rien n’empêchera le juge de prévoir une durée plus courte.

En cas de récidive, dans le même esprit, l’amendement CS375 tend à porter d’un à deux ans la durée de la suspension.

Mme Caroline Yadan (RE). Suspendre pendant six mois un compte utilisé pour des faits de haine en ligne ne nous paraît pas suffisant, notamment parce que cela ne permettra pas, en cas de cyberharcèlement, de couvrir une année scolaire. Il nous semble plus judicieux, après avoir échangé avec plusieurs associations, de prévoir une durée maximale de neuf mois. Tel est l’objet de l’amendement CS716.

Pour ce qui est de la récidive, l’amendement CS877 tend à faire passer la durée maximale de suspension à dix-huit mois.

Mme Louise Morel, rapporteure. Je me suis également demandé s’il fallait allonger la durée de suspension des comptes mais je crois, à l’issue des auditions, que six mois seraient déjà une bonne chose, d’autant qu’il s’agit d’une privation de la liberté d’expression et que c’est une période assez longue dans la vie d’un mineur.

L’article 5 permet, par ailleurs, de porter la durée de la suspension à un an en cas de récidive, ce qui répond à une partie de vos préoccupations.

Enfin, la peine de bannissement n’est pas la seule mesure qui peut être prise pour stopper le harcèlement à l’école. Il est notamment possible, depuis le 16 août, de changer d’école l’élève harceleur. Tout un spectre de mesures permettra de lutter contre le cyberharcèlement.

En conséquence, avis défavorable aux amendements CS374 et CS716.

M. Jean-Noël Barrot, ministre délégué. Le Gouvernement émettra un avis défavorable aux différents amendements qui visent à augmenter les durées prévues.

L’article 5 constitue une innovation. Jusqu’à présent, les limites que nous avons fixées à la liberté d’expression concernent des faits passés : des contenus illicites sont retirés et leurs auteurs sont éventuellement sanctionnés. La peine de bannissement posera désormais une limite à l’expression à venir.

Pour que cette peine soit solide sur le plan constitutionnel, il faut réunir trois conditions. Tout d’abord, la peine de bannissement ne doit être prononcée, à titre complémentaire, qu’en cas de condamnation pour des délits graves, énumérés de façon limitative dans la loi, qui sont punis d’au moins deux ans de prison et de 30 000 euros d’amende, qui ont été commis en ligne et qui constituent des abus de la liberté d’expression. Deuxième condition, cette peine ne doit s’appliquer qu’au compte de la plateforme à partir duquel la violence a été commise. Enfin, et c’est également très important, la durée de la peine doit être strictement limitée.

Le juge constitutionnel prendra en considération ces trois critères s’il est interrogé sur la conformité du dispositif à la Constitution, et c’est parce qu’ils étaient remplis que le Conseil d’État a donné un avis favorable au présent article, qui prévoit une suspension de six mois la première fois et d’un an en cas de récidive.

Je comprends qu’on souhaite couvrir l’ensemble d’une période scolaire, qu’on se dise que le bannissement d’une seule plateforme ne suffira peut-être pas ou qu’on propose d’ajouter à la liste actuelle d’autres délits qui ne font pas l’objet d’une peine de deux ans de prison et de 30 000 euros d’amende, mais cela reviendrait à prendre un risque sérieux de fragilisation du dispositif.

La commission rejette successivement les amendements CS374 et CS716.

Amendements CS375 de Mme Isabelle Santiago et CS877 de Mme Caroline Yadan (discussion commune)

Mme Louise Morel, rapporteure. Ces deux amendements, déjà présentés, laissent au juge la possibilité de fixer la durée de la peine complémentaire à, respectivement, deux ans et dix-huit mois en cas de récidive légale. Une telle peine, je l’ai dit, est une restriction très forte de la liberté d’expression : un délai d’un an est donc largement suffisant.

La commission rejette successivement les amendements.

Amendement CS235 de Mme Estelle Folest

Mme Estelle Folest (Dem). Cet amendement vise également à durcir la peine de bannissement : je vous propose de la doubler quand une personne est condamnée pour des faits de haine en ligne ou de cyberharcèlement commis à l’encontre d’un mineur. J’entends les arguments qui viennent d’être développés, mais je rappelle que le projet de loi prévoit déjà un doublement de la peine en cas de récidive et que la commission d’une infraction à l’égard d’un mineur est une circonstance aggravante selon le code pénal. Enfin, le doublement de la peine ne sera qu’une possibilité offerte au juge : il pourra ne pas l’appliquer.

Mme Louise Morel, rapporteure. Je comprends l’idée de sanctionner davantage les auteurs des faits lorsque ces derniers concernent des mineurs, mais vous connaissez mon manque d’enthousiasme pour l’allongement des durées prévues par le projet de loi. Je rappelle, en outre, qu’il s’agit d’une peine complémentaire – elle s’ajoutera à celles existant déjà dans notre droit – et que pour certains délits, lorsque c’est pertinent, des distinctions sont déjà faites selon que les faits portent, ou non, sur des mineurs. Je ne crois donc pas qu’il soit nécessaire d’aller plus loin. Je vous demande de retirer cet amendement ; sinon, avis défavorable.

La commission rejette l’amendement.

Amendement CS720 de Mme Caroline Yadan

Mme Caroline Yadan (RE). La responsabilisation des personnes nécessite non seulement des sanctions mais aussi une réponse éducative, par un signal destiné à l’auteur des faits et à la victime.

En cas de suspension d’un ou de plusieurs comptes d’accès à un ou plusieurs services en ligne, ordonnée par la justice à la suite de faits de cyberharcèlement ou de contenus haineux, l’utilisateur concerné devra suivre un stage de citoyenneté et de respect numérique, auprès d’une association agrée, afin de récupérer l’usage de son compte ou de ses comptes.

Ce stage aura pour objectif d’assurer une sensibilisation aux bonnes pratiques en ligne, de prévenir la cyberviolence et de promouvoir des comportements responsables sur les plateformes numériques. Dispensé par des formateurs qualifiés, le stage de citoyenneté et de respect numérique sera effectué aux frais du condamné ou de ses parents, s’il est mineur, dans un délai de six mois à compter de la date à laquelle la condamnation est devenue définitive.

Mme Louise Morel, rapporteur. Je suis tout à fait sensible à la proposition de créer un stage de citoyenneté et de respect numérique – j’irai d’ailleurs ultérieurement dans ce sens. Ce qui me gêne dans la rédaction que vous proposez, c’est que la peine de bannissement serait allongée, puisque vous voulez conditionner la récupération effective des accès aux comptes au suivi d’un stage après la période de suspension. Du point de vue de l’équilibre du dispositif, cela me paraît aller trop loin. Qui plus est, votre amendement cible tous les délits concernés par la peine complémentaire de bannissement, et pas seulement le cyberharcèlement. Je vous demande donc un retrait ; sinon, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. Je signale en particulier un point d’inquiétude pour la solidité juridique du dispositif, qui est l’allongement de la durée de la privation de la liberté d’expression.

Mme Mireille Clapot (RE). Il faut aussi éduquer les auteurs des faits : souvent, ils ne rendent pas compte de leur gravité, ce qui conduit à la récidive. J’aimerais donc qu’on puisse intégrer dans la loi, d’une façon ou d’une autre, un stage de citoyenneté numérique.

M. Jean-Noël Barrot, ministre délégué. Des propositions ont été faites, par Mme Yadan et par d’autres députés, pour créer une forme de stage dans ce domaine, et je comprends que Mme la rapporteure en présentera une synthèse. Ce sera un des apports importants de vos travaux en commission.

M. Erwan Balanant (Dem). Les juges peuvent désormais confisquer les portables – cela se fait notamment à Amiens. Au-delà des grandes questions que nous sommes en train de nous poser, c’est une piste à suivre : une telle peine complémentaire permettra à un adolescent de prendre la mesure de ce qu’il a fait.

Mme Élisa Martin (LFI-NUPES). La brique fondamentale de l’éducation et de la prévention ne doit pas être laissée de côté. Il faut également regarder comment on peut aborder ces questions dans le cadre de l’éducation nationale, même si on lui demande déjà de faire beaucoup de choses, dans des conditions très difficiles. Si on en arrive à un stage de citoyenneté, on est déjà dans la réparation. Or il faut veiller à faire de la prévention.

Par ailleurs, plusieurs questions nous viennent à la lecture du présent amendement : par qui, avec quels moyens et grâce à quels professionnels ces stages seront-ils faits ?

La commission rejette l’amendement.

Amendement CS795 de Mme Louise Morel

Mme Louise Morel, rapporteure. Il s’agit de revenir au texte initial pour ce qui doit être signifié aux plateformes : la décision de condamnation mentionnera déjà la dénomination du compte d’accès concerné.

La commission adopte l’amendement.

En conséquence, l’amendement CS207 de M. Laurent Esquenet-Goxes tombe.

Amendement CS250 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). L’article 5 prévoit une peine complémentaire de bannissement de services en ligne : très bien, seulement vous ajoutez l’obligation, pour les réseaux sociaux, d’empêcher la création de nouveaux comptes par la même personne et de bloquer les autres qu’elle aurait déjà. Notre amendement vise à supprimer cette obligation. En effet, comment fera-t-on pour être sûr d’avoir trouvé les autres comptes de la personne visée, si celle-ci ne les fournit pas, et comment l’empêcher d’en recréer d’autres ? Il existe deux possibilités. La première est de demander aux réseaux sociaux de faire un travail de renseignement, ce qui n’est pas leur rôle, et je peux vous assurer que cela tomberait dès la première QPC – question prioritaire de constitutionnalité. La seconde possibilité est de demander aux réseaux sociaux de lier identité numérique et identité physique en enregistrant les documents d’identité. L’article 5 signifierait donc la fin de l’anonymat sur les réseaux sociaux, et les amendements précédemment défendus par M. Midy reviendraient ainsi par la petite porte. J’invite tous les députés qui y étaient opposés à voter pour notre amendement.

Mme Louise Morel, rapporteure. En supprimant l’obligation faite aux plateformes d’appliquer des mesures pour empêcher la création de nouveaux comptes, on réduirait la portée de la peine complémentaire de suspension des comptes d’accès, qui doit permettre de responsabiliser les plateformes et de les associer pleinement à la lutte contre les comportements nuisibles et le sentiment d’impunité qui peut régner en ligne. Je vous demande de retirer votre amendement, sans quoi j’émettrai un avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même position.

M. Aurélien Lopez-Liguori (RN). Vous êtes en train de réintroduire la fin de l’anonymat sur les réseaux sociaux : le ministre délégué ne peut pas se contenter de dire « même position ». Il a pris tout à l’heure cinq minutes pour expliquer pourquoi il n’était pas d’accord avec les amendements de M. Midy. Or c’est exactement le même type de dispositions qui est prévu.

M. Jean-Noël Barrot, ministre délégué. Non, rassurez-vous. Les plateformes ont la possibilité, offerte par la loi « informatique et libertés » et par le RGPD, de conserver certaines données qui sont identifiantes mais ne dévoilent pas l’identité de la personne, afin de prévenir sa réinscription en cas de violation des conditions générales d’utilisation. Certaines plateformes le font déjà en utilisant des éléments tels que la signature du browser, le navigateur, ou celle du téléphone, qui sont uniquement conservés lorsque la personne a manifestement violé les conditions générales d’utilisation. C’est ce type de moyens qui est ici visé, dans les limites permises par notre droit. Les plateformes ne disposent pas nécessairement de l’identité de la personne.

La commission rejette l’amendement.

Amendements CS848 de M. Aurélien Taché et CS551 de Mme Naïma Moutchou (discussion commune)

M. Aurélien Taché (Écolo-NUPES). Nous allons regarder, avec prudence, ce que la nouvelle sanction, la peine de bannissement, peut apporter dans certains domaines. Il est vrai que nous sommes un peu démunis quand il s’agit de lutter contre le cyberharcèlement, et contre le harcèlement en général, mais il ne faut toucher au code pénal que d’une main tremblante, en essayant de circonscrire au maximum les dérives potentielles. Si la peine de bannissement nous paraît intéressante dans certains cas, elle doit être limitée dans le temps et à certains agissements.

L’amendement CS848, qui a fait l’objet d’un travail avec le Conseil national des barreaux, est presque anecdotique par rapport à ceux que nous allons examiner par la suite, mais il vise tout de même à préciser un peu la procédure de notification.

Mme Naïma Moutchou (HOR). Notre amendement est quasiment de précision, puisqu’il vise à lever une petite ambiguïté juridique. La rédaction actuelle donne à penser que la mesure de bannissement relève des plateformes, alors que ce n’est évidemment pas notre objectif. Nous proposons donc d’écrire que c’est à compter de la signification de la décision aux fournisseurs que la personne condamnée ne peut plus utiliser son compte.

Mme Louise Morel, rapporteure. Beaucoup d’amendements, prévoyant des rédactions différentes, ont été déposés à ce sujet. Le vôtre, madame Moutchou, n’est pas tout à fait de précision.

Je vous propose un retrait, afin que nous puissions retravailler sur la question de manière transpartisane d’ici à la séance ; sinon, j’émettrai un avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Ce que vous proposez, madame Moutchou, est plus qu’une précision, en effet.

La rédaction initiale prévoyait que seule la responsabilité des plateformes était engagée en cas de réinscription. Toutefois, parmi les mesures qui ont été proposées dans le cadre du groupe de travail transpartisan de cet été, il y a notamment eu l’idée que, pour plus d’efficacité, la personne condamnée devait elle-même être sanctionnée si elle contournait la mesure de bannissement prononcée à son encontre. Plusieurs amendements ont été déposés en ce sens, mais je suis sûr que nous parviendrons à une rédaction consensuelle en séance.

Mme Naïma Moutchou (HOR). Je vais retirer mon amendement, mais je veux redire que si nous faisons peser la responsabilité sur les fournisseurs, nous n’atteindrons pas notre objectif d’efficacité. Nous pourrons retravailler sur cette question, mais il me semble qu’une bonne rédaction, sur ce sujet très technique, ne devrait pas être si difficile à trouver.

Les amendements sont retirés.

Amendement CS717 de Mme Caroline Yadan

Mme Caroline Yadan (RE). Cet amendement prévoit tout simplement la communication d’un rappel des conditions générales d’utilisation de la plateforme sur la page d’accès du compte suspendu, ce qui permettra notamment de prévenir son environnement.

Mme Louise Morel, rapporteure. Je comprends parfaitement votre préoccupation, mais ce que vous proposez serait contre-productif. L’objectif est que le compte ne soit plus accessible, ni visible, pendant la durée de sa suspension. Or l’affichage des conditions générales d’utilisation sur la page du compte bloqué ferait en sorte qu’il reste visible. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Ségolène Amiot (LFI-NUPES). Nous ne trouvons pas l’idée complètement « déconnante », mais elle manque peut-être de précision. Il faudrait s’assurer que seules les conditions générales d’utilisation sont affichées, et pas d’autres contenus.

La commission rejette l’amendement.

Amendement CS849 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). Il s’agit toujours d’essayer de border au maximum le nouveau dispositif. Le Conseil national des barreaux s’est inquiété du fait que l’interdiction d’un compte pourrait conduire d’autres personnes, n’ayant rien à voir avec celle qui a été condamnée, à ne plus pouvoir accéder aux réseaux sociaux.

Mme Louise Morel, rapporteure. Vous souhaitez préciser que les mesures prises par les plateformes ne peuvent avoir pour effet d’empêcher d’autres personnes d’avoir accès à elles. Je partage cet objectif, mais je ne crois pas qu’une telle précision dans la loi soit utile, car il est dans l’intérêt même des plateformes d’adopter des mesures qui ne gênent pas l’accès à leurs propres services. Par conséquent, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même position. Il faudrait peut-être, si le débat devait revenir en séance, se pencher au préalable sur des exemples dans lesquels un tel problème se manifesterait.

Mme Sophia Chikirou (LFI-NUPES). Je soutiens cet amendement, car nous avons affaire à des plateformes basées à l’étranger, pour beaucoup d’entre elles, dont les pratiques de modération sont à la fois contestées et contestables. Si nous n’établissons pas des règles, les pratiques seront très différentes et certaines personnes subiront des dommages collatéraux causés par le manque de précision de la loi. J’aurai également l’occasion de défendre un amendement en ce sens.

M. Éric Bothorel (RE). Imaginons, par exemple, que le compte d’une association, partagé par plusieurs acteurs, ait servi à faire du cyberharcèlement et soit l’objet d’une peine complémentaire de bannissement. Que se passera-t-il, monsieur Taché, si votre amendement est adopté ? Ce compte restera-t-il actif ?

M. Aurélien Taché (Écolo-NUPES). Madame la rapporteure, je ne doute pas que vous soyez, comme l’ensemble de la commission, opposée aux peines collectives, dans le monde numérique et dans le monde réel. En revanche, je ne suis pas très convaincu par l’argument selon lequel on devrait faire confiance aux plateformes. Je remercie Sophia Chikirou d’avoir rappelé qu’il est préférable de fixer une règle commune. Si nous adoptons cet amendement, nous pourrons continuer à travailler ensemble sur le dispositif d’ici à la séance, afin que tout le monde soit parfaitement à l’aise avec le texte.

La commission rejette l’amendement.

Amendement CS647 de M. Erwan Balanant

M. Erwan Balanant (Dem). Il s’agit notamment de préciser la manière dont les fournisseurs de services sont informés des décisions de justice dans lesquelles est prononcée une peine complémentaire de suspension d’un compte – même si je pense que nous devrions plutôt parler d’interdiction, car cela permettrait de régler bon nombre de questions –, ainsi que le délai dans lequel cette mesure doit être appliquée.

Mme Louise Morel, rapporteure. Les modalités d’application relèvent plus du code de procédure pénale que du décret auquel votre amendement renvoie. Avis défavorable.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CS785 de Mme Louise Morel, rapporteure.

Amendement CS472 de Mme Sophia Chikirou

Mme Sophia Chikirou (LFI-NUPES). Nous sommes en train de légiférer sans forcément prendre toute la mesure des conséquences que cela impliquera – nous les découvrirons dans la pratique… Afin de mieux cadrer les choses, nous souhaitons préciser que les plateformes, qui sont souvent des géants étrangers, je l’ai dit, ne pourront à aucun moment demander l’identité précise des personnes concernées. Si la loi ne le dit pas, c’est qu’elle le permet, et les géants du numérique, comme Tiktok, ne se gêneront pas. Vous nous avez garanti qu’il existait des systèmes qui permettraient de préserver l’anonymat.

Mme Louise Morel, rapporteure. Nous avons fait une soixantaine d’auditions, qui nous ont permis d’entendre environ cent experts : on ne s’est pas dit qu’on légiférerait et qu’on verrait bien ce qui se passerait ensuite. Un travail sérieux a été fait, et nous avons été nombreux à y participer.

S’agissant du fond, il est évident que les plateformes devront respecter le RGPD. Il ne me paraît donc pas utile de le rappeler. Si on devait préciser à chaque fois dans la loi toutes les dispositions qui s’appliquent par ailleurs, l’exercice serait assez compliqué.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CS782 de Mme Louise Morel, rapporteure.

Amendement CS881 de Mme Louise Morel

Mme Louise Morel, rapporteure. L’objectif de la peine complémentaire est de donner au juge un outil innovant pour combattre l’impunité sur les réseaux sociaux. Les cas les plus fréquents concernent le cyberharcèlement en ligne, les victimes étant exaspérées de constater que leur harceleur continue d’être actif même après une condamnation. Les réseaux sociaux amplifient également des délits comme la provocation publique à la haine ou la discrimination.

Néanmoins, la peine complémentaire ne doit pouvoir être prononcée que pour certains délits ciblés : je serai ainsi défavorable à tous les amendements qui proposent d’ajouter des délits pour lesquels la réponse pénale est actuellement suffisante et le lien avec les réseaux sociaux plus éloigné.

Cet amendement et les trois suivants visent à restreindre la liste des délits concernés par la peine complémentaire. Le CS881 a pour objet de supprimer l’application de cette peine à la gestion d’un établissement de prostitution.

M. Jean-Noël Barrot, ministre délégué. Je salue la sagesse de la rapporteure. Ses propositions peuvent sembler impopulaires à première vue, mais elles servent la cause de l’article 5. Le Gouvernement a respecté les contraintes que le Conseil d’État avait fixées, l’une d’entre elles étant de limiter la liste des délits pouvant donner lieu au prononcé d’une peine complémentaire.

Le Sénat a considérablement allongé cette liste, cette orientation fragilisant considérablement l’article. Le Conseil constitutionnel ne fera pas dans la dentelle : s’il estime que son dispositif est disproportionné, il le censurera totalement, sans faire le départ entre les délits légitimes et les autres.

Dans les amendements CS881 à CS884, la rapporteure réduit le nombre de délits pouvant donner lieu au prononcé de la peine complémentaire, afin de présenter une liste ne comportant que des infractions dont la commission entraîne des peines de prison et d’amende élevées et dont le rapport avec la liberté d’expression est avéré.

La commission adopte l’amendement.

Amendement CS882 de Mme Louise Morel

Mme Louise Morel, rapporteure. Il vise à supprimer de la liste la violation par une personne des interdictions prononcées dans une ordonnance de protection, car celles-ci ne comportent aucune mention des réseaux sociaux.

La commission adopte l’amendement.

Amendement CS883 de Mme Louise Morel

Mme Louise Morel, rapporteure. Il vise à supprimer l’application de la peine complémentaire au délit de détournement des données à caractère personnel, car celui-ci est déjà puni de cinq ans d’emprisonnement et de 300 000 euros d’amende et ne repose pas sur l’accès aux réseaux sociaux.

La commission adopte l’amendement.

Amendement CS884 de Mme Louise Morel

Mme Louise Morel, rapporteure. Le délit exclu de la liste est le chantage, dont il est rarement fait la publicité sur les réseaux sociaux car ses auteurs utilisent plutôt les messageries privées.

M. Jean-Noël Barrot, ministre délégué. Avis favorable.

Mme Ségolène Amiot (LFI-NUPES). Les réseaux sociaux constituent un vecteur de harponnage pour les chantages. En outre, les messageries privées sont parfois hébergées par des réseaux sociaux. Je m’interroge donc sur la pertinence de retirer ce délit de la liste, même si le juge peut toujours décider d’interdire l’accès de la personne incriminée aux réseaux sociaux si celle-là a utilisé ceux-ci pour commettre son infraction.

Mme Louise Morel, rapporteure. Le code pénal prévoit déjà des peines contre le chantage en ligne. La question que pose cette liste est celle de l’utilité d’une peine complémentaire de bannissement des réseaux sociaux. Le Sénat a dressé un inventaire à la Prévert d’infractions pour lesquelles une peine complémentaire pourrait être prononcée, alors que ces délits n’ont pas tous de lien direct avec l’objet du projet de loi. Dans la grande majorité des cas, le chantage en ligne ne s’exerce pas publiquement sur les réseaux sociaux, mais dans les messageries privées, d’où notre souhait de retirer ce délit de la liste.

La commission adopte l’amendement.

Amendement CS230 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). À trop vouloir étendre le champ de la peine de bannissement des réseaux sociaux, on peut créer des effets de bord complexes à gérer. Nous ne sommes pas opposés à cette peine pour certaines infractions très précises, mais il faut faire preuve de prudence.

Cet amendement vise à supprimer la provocation au suicide de la liste des infractions pouvant donner lieu à un bannissement des réseaux sociaux : des associations promouvant le droit à mourir dans la dignité nous ont alertés sur leur crainte de voir leur liberté d’expression restreinte.

Mme Louise Morel, rapporteure. Je salue votre volonté de travailler sur l’élaboration de la liste, mais je ne suis pas favorable à votre amendement car les réseaux sociaux peuvent amplifier le délit de provocation au suicide. J’entends votre argument sur les associations militant pour le droit à mourir dans la dignité, peut-être devrions-nous réfléchir à la meilleure façon de bien calibrer le périmètre de ce délit, mais le lien entre celui-ci et les réseaux sociaux est avéré.

La commission rejette l’amendement.

Amendement CS229 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). Il vise à supprimer le délit d’atteinte à l’autorité de l’État de la liste des infractions pouvant donner lieu au prononcé d’une peine complémentaire de bannissement des réseaux sociaux : nous sommes là dans une zone grise entre l’expression politique et des faits pouvant être assimilés à un délit.

Mme Louise Morel, rapporteure. Vous souhaitez supprimer de la liste le délit de provocation à un attroupement armé : je n’y suis pas favorable, car il ne s’agit pas de répression politique mais de bannissement des réseaux sociaux pendant six mois des personnes qui appellent à la violence armée.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Ségolène Amiot (LFI-NUPES). Les délits commis avec arme par destination – pipettes de sérum physiologique, casques de vélo – se sont multipliés ces dernières années. Qu’est-ce qu’un attroupement armé ? Comment sera perçu un appel à manifester avec des casseroles, considérées comme des armes par destination ? Face au risque de dérive de répression des manifestations écologiques et politiques, je soutiens l’amendement d’Aurélien Taché.

M. Paul Midy, rapporteur général. Provoquer un attroupement armé constitue un délit, défini par le code pénal. Les armes et les armes par destination sont la même chose. Les enseignements de l’actualité des douze derniers mois n’ont peut-être pas été bien compris par tout le monde ; il est salutaire que des personnes utilisant les réseaux sociaux pour provoquer des attroupements armés en soient bannies.

Mme Naïma Moutchou (HOR). La loi donne un cadre et la jurisprudence interprète les situations au cas par cas : quelles sont les circonstances ayant conduit à un attroupement ? Les armes étaient-elles par destination ou non ? Le législateur ne peut pas répondre à ces questions. Il faut faire confiance aux magistrats.

La commission rejette l’amendement.

Amendement CS64 de Mme Corinne Vignon

Mme Mireille Clapot (RE). L’article 5 est indispensable : la suspension du compte d’accès aux services des plateformes en ligne possède des vertus pédagogiques et prévient la récidive, mais il est délicat et doit être encadré. Je m’interroge néanmoins sur l’absence du délit de sévices sexuels sur les animaux. L’amendement vise à faire figurer sur la liste des infractions pouvant donner lieu au prononcé de la peine complémentaire celles de zoopornographie et de publication de petites annonces zoophiles.

Mme Louise Morel, rapporteure. Nous avons réduit la liste et vous nous proposez de l’étendre. Le délit que vous évoquez sanctionne les utilisateurs plutôt que les contenus, alors que notre objectif est le retrait des contenus illicites. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. Une peine complémentaire serait légitime pour un tel délit, mais nous souhaitons avant tout sécuriser le dispositif, qui est ciblé sur une restriction de la liberté d’expression à venir. Comme c’est la première fois que cette liberté est réprimée par avance, nous sommes particulièrement vigilants à calibrer le mieux possible ce nouveau régime juridique.

La commission rejette l’amendement.

Amendements CS212 de M. François Cormier-Bouligeon, CS14 de M. Raphaël Gérard et amendements identiques CS376 de Mme Isabelle Santiago, CS769 de M. Laurent Esquenet-Goxes et CS850 de M. Aurélien Taché (discussion commune)

M. Bruno Studer (RE). L’amendement vise à permettre au juge de prononcer une peine complémentaire de bannissement des réseaux sociaux en cas de condamnation pour injure ou diffamation.

Mme Caroline Yadan (RE). Il a pour objet d’étendre la possibilité pour le juge de prononcer la peine complémentaire au cas de condamnation pour injure ou diffamation à caractère discriminatoire, afin de renforcer l’efficacité de la sanction et de prévenir la récidive. Les délits d’injure et de diffamation ont représenté près de 65 % de l’ensemble des condamnations pour infractions à caractère raciste entre 2016 et 2019, d’où l’intérêt de l’amendement.

M. Hervé Saulignac (SOC). Il vise à élargir le champ de la peine complémentaire aux infractions qui relèvent de la diffamation et de l’injure publiques ainsi que de l’entrave au droit à l’avortement.

M. Aurélien Taché (Écolo-NUPES). De plus en plus de fondations de milliardaires financent de la propagande contre l’avortement sur internet, donc il importe d’agir contre ces moyens considérables, déployés souvent depuis l’étranger pour menacer le droit à l’IVG, droit fondamental que nous défendons, je crois, tous ici.

Mme Louise Morel, rapporteure. Je m’en remets à la sagesse de la commission pour l’amendement CS14 et émets un avis défavorable pour les autres.

M. Jean-Noël Barrot, ministre délégué. Même avis. Nous acceptons le CS14 plutôt que les autres car il retient un champ restreint de l’infraction, limité à l’injure publique.

Mme Sophia Chikirou (LFI-NUPES). Nous ne soutenons pas ces amendements car nous sommes opposés à la peine complémentaire, mais nous estimons qu’il est préférable d’adopter des dispositions précises : c’est le cas pour l’injure – vous semblez du même avis.

Cependant, je comprends difficilement que vous ne souteniez pas l’amendement relatif au délit d’entrave à l’exercice du droit à l’avortement, au moment où il est question d’inscrire celui-ci dans la Constitution. De même, les guets-apens, notamment contre les personnes homosexuelles, sont un véritable fléau, dont je constate l’extension dans ma circonscription ; en effet, une grande partie des agressions homophobes sont organisées sur internet.

La commission rejette l’amendement CS212.

Elle adopte l’amendement CS14.

En conséquence, les amendements CS376, CS769 et CS850 tombent.

Amendement CS15 de M. Raphaël Gérard

Mme Clara Chassaniol (RE). Il vise à étendre la peine complémentaire de bannissement temporaire d’un service en ligne au cas où celui-ci a été utilisé pour organiser un guet-apens. Le documentaire « Guet-apens, des crimes invisibles » a montré que de nombreuses personnes homosexuelles en étaient victimes sur des applications. Le mobile discriminatoire et la gravité des faits – souvent des violences physiques – commandent l’application d’une peine complémentaire pour empêcher les auteurs de ces délits de recréer un compte et pour prévenir la récidive.

Mme Louise Morel, rapporteure. Les auteurs des guets-apens utilisent les messageries privées plutôt que les réseaux sociaux. Notre objectif est de mettre fin à une forme d’impunité sur les réseaux, mais la peine complémentaire n’a pas vocation à s’appliquer dès qu’une plateforme a été impliquée de près ou de loin dans la préparation d’une infraction. Je vous demande le retrait de l’amendement – à défaut, l’avis sera défavorable –, ce qui ne signifie évidemment pas que nous ne partagions pas votre volonté de lutter davantage contre ces guets-apens.

M. Jean-Noël Barrot, ministre délégué. L’amendement vise tous les crimes et délits dont la circonstance aggravante est le guet-apens : son adoption conduirait à élargir excessivement la liste et à y intégrer des infractions n’ayant pas de rapport avec la liberté d’expression.

Mme Ségolène Amiot (LFI-NUPES). Prononcer une peine complémentaire est une faculté laissée à la discrétion du juge ; en outre, ce sont certes des messageries privées qui sont utilisées pour tendre des guets-apens, mais celles-ci sont hébergées par des réseaux sociaux ou des sites de rencontre.

M. Jean-Noël Barrot, ministre délégué. Le juge constitutionnel ne se fie pas à la libre appréciation du juge ordinaire, il distingue la peine principale de la peine complémentaire. Certains crimes et délits commis avec la circonstance aggravante du guet-apens ne contiennent aucune dimension relative à la liberté d’expression ou aux réseaux sociaux. Ils n’ont donc pas à figurer sur la liste des infractions pouvant donner lieu au prononcé d’une peine complémentaire de bannissement de ces réseaux. Si nous inscrivions sur cette liste tous les délits du monde en considérant que le juge fera la part des choses, le juge constitutionnel censurerait l’article à cause de son périmètre trop large.

La commission rejette l’amendement.

Amendement CS745 de M. Erwan Balanant

M. Erwan Balanant (Dem). Il est issu du travail de Christophe Blanchet, qui est très engagé dans la lutte contre la contrefaçon. La France est le deuxième pays le plus touché par ce délit, qui pose des problèmes économiques mais également de santé publique, les produits contrefaits – les cigarettes, par exemple – étant souvent de moins bonne qualité. La contrefaçon pose également un problème éthique, car ces marchandises sont souvent produites sans respecter nos standards et, à l’étranger, elles sont parfois fabriquées par des enfants.

L’amendement vise à mieux lutter contre les vendeurs de produits de contrefaçon, qui agissent presque impunément sur les services de vente en ligne.

Mme Louise Morel, rapporteure. Je vous remercie de souligner l’importance de la lutte contre la contrefaçon, infraction dont les auteurs utilisent les réseaux sociaux. L’objectif de la liste est de fixer une peine complémentaire visant à empêcher quelqu’un d’accéder aux réseaux sociaux. En l’espèce, il serait préférable de saisir les biens contrefaits en amont : ce serait bien plus efficace que de prononcer cette peine complémentaire. Je vous demande de retirer l’amendement ; à défaut, l’avis sera défavorable.

M. Jean-Noël Barrot, ministre délégué. Il est tentant de prévoir une peine complémentaire visant à bannir une personne, condamnée pour contrefaçon sur internet, de la place de marché sur laquelle elle a opéré. Malheureusement, on est loin de l’encadrement de la liberté d’expression, donc je vous demande de retirer l’amendement. Nous pourrions, en revanche, réfléchir à un dispositif ad hoc à insérer dans un autre texte.

Mme Ségolène Amiot (LFI-NUPES). L’un des principes du droit français est l’individualisation de la peine. Je suis très opposée aux peines complémentaires, mais je ne comprends pas votre argument, monsieur le ministre délégué, consistant à dire que le juge ne pourrait pas s’adapter à la situation, alors qu’il se prononce au cas par cas et qu’il peut tout à fait apprécier le rôle qu’a pu jouer l’utilisation des réseaux sociaux dans la commission d’une infraction.

M. Jean-Noël Barrot, ministre délégué. Je parlais du juge constitutionnel, qui raisonne in abstracto, c’est-à-dire qu’il ne s’interroge pas sur le degré d’appréciation qu’aura le juge ordinaire, il se demande si les peines prévues sont excessives ou non par rapport à la préservation des libertés fondamentales. Dans ce contexte, notre préoccupation est d’assurer la sécurité juridique du dispositif.

Mme Naïma Moutchou (HOR). Je soutiens les propos du ministre délégué : la peine complémentaire de bannissement doit être exceptionnelle car elle restreint les libertés. Elle doit donc être proportionnée et ne peut pas concerner tous les délits. Le lien entre les réseaux sociaux et la contrefaçon peut parfois exister, mais il ne se vérifie pas toujours : il appartient au législateur de fixer le curseur, en l’occurrence d’exclure de la liste les infractions plus éloignées de l’objectif du texte.

M. Jean-Noël Barrot, ministre délégué. L’article L. 716-13 du code de la propriété intellectuelle dispose que les personnes physiques coupables de contrefaçon « peuvent être condamnées, à leurs frais, à retirer des circuits commerciaux les objets jugés contrefaisants et toute chose qui a servi ou était destinée à commettre l’infraction. » Une interprétation extensive de cet article pourrait conduire un juge à considérer que le compte à partir duquel la marchandise contrefaite a été commercialisée doit être suspendu.

La commission rejette l’amendement.

Amendements identiques CS651 de M. Erwan Balanant, CS726 de Mme Caroline Yadan, CS862 de Mme Isabelle Santiago et CS863 de M. Aurélien Taché

M. Erwan Balanant (Dem). Il vise à insérer le délit d’entrave à l’avortement sur la liste des infractions pouvant donner lieu au prononcé de la peine complémentaire. La pratique, pénalement répréhensible depuis une loi du 4 août 2004, se répand sur internet. L’amendement a été travaillé avec l’association Stop Fisha.

Mme Caroline Yadan (RE). Le fait d’empêcher ou de tenter d’empêcher de pratiquer ou de s’informer sur une IVG ou sur les actes préalables à celle-ci constitue un délit réprimé par l’article L. 2223-2 du code de la santé publique. Malgré cette interdiction, les pressions morales et psychologiques, les menaces et les intimidations à l’encontre des personnels médicaux et des femmes qui souhaitent recourir à une IVG sont fréquentes, notamment par voie électronique en ligne. C’est pourquoi l’amendement intègre le délit d’entrave à l’avortement dans la liste de ceux pouvant donner lieu au prononcé d’une peine complémentaire de suspension du compte ayant été utilisé pour commettre l’infraction.

M. Hervé Saulignac (SOC). Dans un contexte politique de tensions extrêmement fortes en France, et aux États-Unis où se multiplient les entraves au droit à l’avortement, l’élargissement de la peine complémentaire enverrait un signal fort. La question ne se serait peut-être pas posée de la même manière il y a quelques années, mais elle est prégnante aujourd’hui, d’où le dépôt de cet amendement.

M. Aurélien Taché (Écolo-NUPES). Il y a une offensive internationale très forte contre le droit à l’avortement, financée par des milieux réactionnaires puissants. Tout ce qui pourra contrecarrer leur action et rendre le droit à l’IVG plus effectif sera bienvenu.

Mme Louise Morel, rapporteure. Vous l’aurez compris, je ne suis pas favorable à l’élargissement de la liste des délits pouvant donner lieu au prononcé de la peine complémentaire, mais je comprends tout à fait votre préoccupation car il est insupportable que des comptes prospèrent sur internet alors qu’ils ne véhiculent que désinformation et intimidations dans ce domaine. Je m’en remets à la sagesse de la commission.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Élisa Martin (LFI-NUPES). Nous sommes très réticents au sujet de cette peine, lourde de conséquences sur le plan social. Sur le fond, nous sommes d’accord : ce qui se passe n’est pas acceptable. Mais on pourrait aussi s’occuper des prières dans l’espace public contre l’avortement, si la police et la justice en avaient les moyens. En tout cas, nos débats témoignent d’un tâtonnement qui nous préoccupe s’agissant d’un tel enjeu.

Mme Marie Guévenoux (RE). Le groupe Renaissance soutient les amendements. Le droit à l’interruption volontaire de grossesse est de plus en plus menacé sur les réseaux.

La commission adopte les amendements.

Amendement CS508 de M. Stéphane Vojetta

M. Stéphane Vojetta (RE). La nouvelle peine complémentaire serait aussi un outil adapté pour les juges ayant à se prononcer sur des comportements contraires à la loi « influenceurs ». En effet, si le DSA permet aux plateformes de retirer des contenus signalés ou manifestement illicites, voire de suspendre les comptes de contrevenants, cette possibilité théorique n’est pas assez dissuasive. Certains influenceurs continuent des promotions interdites qui peuvent mettre en danger la santé de leur audience ou exposer celle-ci à des arnaques. D’aucuns prétendent échapper à la loi et à la justice françaises en s’établissant à l’étranger, où les amendes prononcées par la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) sont plus difficiles à recouvrer.

Pour dissuader des personnes dont le compte sur les réseaux sociaux est la seule source de revenus, nous proposons donc que la peine soit également applicable à des sanctions graves et répétées à la loi « influenceurs ».

Mme Louise Morel, rapporteure. L’article 4 de la loi « influenceurs », que vous visez, porte sur la promotion de certains biens et services. On est un peu loin de notre objectif de faire cesser l’impunité sur les réseaux, mais l’outil principal reste le compte d’accès à une plateforme. Sagesse.

M. Jean-Noël Barrot, ministre délégué. La rapporteure connaît bien le sujet. Je suis plus réservé, même si les délits qu’il est proposé d’ajouter ont trait à l’activité dans l’espace numérique. Demande de retrait.

La commission adopte l’amendement.

Amendement CS814 de M. Laurent Esquenet-Goxes

Mme Estelle Folest (Dem). Cet amendement de repli vise à étendre aux outrages la liste des infractions passibles de la peine complémentaire de suspension du compte ou des comptes d’accès aux services de plateforme en ligne. Il permet ainsi de viser les personnes qui insultent les élus de la République, particulièrement nos maires, si malmenés ces derniers temps.

M. Paul Midy, rapporteur général. Demande de retrait ; à défaut, avis défavorable. Le délit d’outrage envers une personne chargée d’une mission de service public n’a qu’un lien très indirect avec les services de plateformes en ligne. Par ailleurs, une peine restrictive de la liberté d’expression serait probablement disproportionnée à ce délit, aujourd’hui passible d’une amende de 7 500 euros.

M. Jean-Noël Barrot, ministre délégué. Même avis, notamment en vertu du dernier argument invoqué par le rapporteur général. Le fait que la liste soit limitative et énumère des délits assez lourdement punis fait partie des critères qu’a fixés le Conseil d’État au moment de donner son avis sur le projet de loi.

Mme Élisa Martin (LFI-NUPES). Il faudrait que l’outrage soit lié à la communication sur internet. Encore une fois, on tâtonne. La liste n’est pas destinée à satisfaire chacun à des fins d’affichage. La situation des élus, « si malmenés », en effet, n’a-t-elle pas à voir avec le manque de moyens dont ils pâtissent en raison de l’austérité ? Enfin, gardons-nous d’abaisser les peines encourues.

La commission rejette l’amendement.

Amendement CS799 de Mme Louise Morel

Mme Louise Morel, rapporteure. Il modifie le cadre dans lequel le bannissement des réseaux sociaux est susceptible d’être prononcé à titre d’alternative à la peine, en prévoyant que seuls les comptes utilisés pour commettre l’infraction peuvent faire l’objet d’une suspension.

L’équilibre du dispositif repose sur le fait que la peine s’applique aux outils utilisés pour commettre l’infraction, et non à des comptes choisis arbitrairement par le juge. Cette approche ayant été retenue au sujet de la peine complémentaire, il paraît logique de prévoir les mêmes garanties s’agissant de l’alternative à la peine. C’est conforme au principe de proportionnalité et à la liberté d’expression.

M. Jean-Noël Barrot, ministre délégué. C’est essentiel pour sécuriser l’article. Avis favorable.

La commission adopte l’amendement.

Amendement CS796 de Mme Louise Morel

Mme Louise Morel, rapporteure. Il restreint le champ des infractions passibles d’une peine alternative à l’emprisonnement à la liste des délits pour lesquels pourra être prononcée une peine complémentaire, c’est-à-dire des délits dont l’utilisation des plateformes en ligne est un élément central.

M. Jean-Noël Barrot, ministre délégué. Autre élément essentiel à la sécurisation du dispositif. Avis très favorable.

La commission adopte l’amendement.

Amendements identiques CS794 de Mme Louise Morel, CS439 de Mme Sophia Chikirou et CS851 de M. Aurélien Taché

Mme Louise Morel, rapporteure. Il s’agit de revenir sur un ajout du Sénat qui permet au juge de prononcer une peine de bannissement des réseaux sociaux dans le cadre d’un sursis probatoire. En effet, la durée de celui-ci peut aller jusqu’à cinq ans, ce qui est très long pour une peine de bannissement.

Mme Sophia Chikirou (LFI-NUPES). J’ajoute qu’une telle peine est susceptible de priver des citoyens, pendant une durée excessive, de l’accès à des services en ligne incluant des services publics, à l’information et à leur réseau social. La punition serait totalement disproportionnée. En outre, elle risquerait d’être déclarée inconstitutionnelle.

La Quadrature du net et le Conseil national des barreaux nous ont alertés sur ces deux alinéas, dont tous les spécialistes de l’internet et tous les juristes demandent la suppression. Je suis heureuse que Mme la rapporteure soit du même avis.

La commission adopte les amendements.

Amendement CS852 de M. Aurélien Taché

Mme Louise Morel, rapporteure. Cet amendement n’a plus lieu d’être après l’adoption des précédents. Demande de retrait.

L’amendement est retiré.

Amendements identiques CS473 de Mme Sophia Chikirou et CS853 de M. Aurélien Taché

Mme Élisa Martin (LFI-NUPES). Notre amendement est de repli. Nous ne voulons pas que le bannissement puisse faire suite à un dispositif de composition pénale, sous peine de nuire au contradictoire, au droit à la défense et à l’individualisation de la peine.

Mme Louise Morel, rapporteure. Je comprends vos réserves. C’est pourquoi j’ai déposé des amendements tendant à restreindre l’interdiction aux comptes utilisés pour commettre l’infraction, d’une part, et à limiter la liste des infractions, d’autre part. Ces deux garde-fous me paraissent suffisants pour que l’on maintienne la possibilité offerte au juge de prononcer une interdiction d’utilisation dans le cadre d’une composition pénale.

Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Ségolène Amiot (LFI-NUPES). La composition pénale peut entraîner de graves dérives, dont témoigne le système judiciaire américain. La peine dont nous parlons est une restriction de liberté ; ce n’est pas rien. L’intégrer à un dispositif de composition pénale serait très dangereux.

M. Jean-Noël Barrot, ministre délégué. Je rappelle que, dans le cadre de la composition pénale, la personne condamnée a le choix de la manière dont elle est sanctionnée.

La commission rejette les amendements.

Amendement CS797 de Mme Louise Morel

Mme Louise Morel, rapporteure. Il s’agit de l’amendement restreignant l’interdiction prononcée dans le cadre d’une composition pénale aux comptes utilisés pour commettre l’infraction.

La commission adopte l’amendement.

Amendement CS798 de Mme Louise Morel

Mme Louise Morel, rapporteure. C’est le second garde-fou : il restreint le champ des infractions passibles d’une interdiction d’accès dans le cadre d’une composition pénale à la liste des délits pour lesquels une peine complémentaire pourra être prononcée, c’est-à-dire ceux dont l’utilisation d’une plateforme en ligne est un élément central.

La commission adopte l’amendement.

Amendement CS748 de Mme Estelle Folest

Mme Estelle Folest (Dem). Il s’agit de mettre à la disposition du juge une peine complémentaire au bannissement, à valeur pédagogique : un stage de sensibilisation au cyberharcèlement.

Les personnes coupables de cyberharcèlement ne mesurent souvent la portée de leurs actes qu’au moment de l’audience ou de la condamnation et commencent par minimiser la gravité de leur comportement au prétexte qu’il a eu lieu en ligne. Un tel stage pourrait jouer un rôle important dans la prise de conscience des personnes condamnées et prévenir la récidive, particulièrement s’agissant des mineurs.

Différents acteurs, notamment associatifs, pourraient l’encadrer. Le contenu et la durée du stage, ses modalités d’organisation, la ou les autorités compétentes pour assurer la formation ainsi que les dispositions spécifiques applicables aux mineurs condamnés seraient fixés par décret.

M. Paul Midy, rapporteur général. Nous sommes d’accord pour permettre au juge de jouer de différentes options. Mais nous aurons plus loin un amendement un peu plus robuste en ce sens, au profit duquel nous vous demandons de retirer le vôtre. À défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Le juge a déjà la possibilité de condamner à un stage à titre de peine complémentaire. La liste dans laquelle il peut puiser n’inclut pas encore de stage ayant trait au numérique. Nous allons en débattre ; je pense que nous trouverons une solution et que ce sera l’un des grands apports de nos travaux en commission. Dès lors que nous aurons défini un stage relatif au numérique, l’amendement sera satisfait.

L’amendement est retiré.

La commission adopte l’article 5 modifié.

Après l’article 5

Amendement CS709 de M. Bruno Studer

M. Bruno Studer (RE). C’est un amendement auquel je suis très attaché.

L’idée est d’informer avant qu’il ne soit trop tard. Imaginons que mes enfants aient vu un de leurs contenus supprimé à la suite d’un signalement par un tiers de confiance adressé à la plateforme e-enfance, qui gère le numéro d’appel 3018. Je n’en suis pas informé. Comment, en tant que parent, pourrais-je intervenir avant que mon enfant ne fasse l’objet d’une plainte ou que le pire n’arrive à la personne harcelée ?

Je me suis inspiré du dispositif de la Haute autorité pour la diffusion des œuvres et la protection des droits sur internet (Hadopi) et de sa réponse graduée. Je propose que, lorsqu’un contenu a été supprimé à la suite d’un signalement par un tiers de confiance, le titulaire de l’abonnement en soit informé afin de pouvoir engager le dialogue à la maison avant qu’il ne soit trop tard pour l’enfant harceleur, pour l’enfant harcelé et pour la famille.

Peut-être le dispositif n’est-il pas entièrement abouti sur le plan juridique, mais j’aimerais vous entendre au sujet de cette proposition.

M. Paul Midy, rapporteur général. Merci de votre engagement ancien dans ce domaine. Ce que vous proposez nous enthousiasme : c’est une piste très intéressante que nous voulons explorer. Il faut toutefois la parfaire sur le plan technique et juridique et en assurer la cohérence avec le dispositif d’amendes dont nous allons débattre ensuite. Nous vous suggérons donc de retirer votre amendement pour le retravailler en vue de la séance ; sinon, défavorable.

M. Jean-Noël Barrot, ministre délégué. Je salue à mon tour votre travail.

La rédaction actuelle de l’amendement reste éloignée de l’idée que vous défendez. En particulier, toute la première partie du dispositif est une réécriture des mesures relatives à la peine de bannissement, dépourvue des précautions et garanties que nous avions pris soin d’y faire figurer.

De plus, dans la rédaction proposée, tout signalement peut conduire l’Arcom à recourir au dispositif inspiré de la Hadopi et à commencer d’envoyer des courriers. Or, même si le signalement peut faire défaut – on l’a vu dans les tragédies récentes –, il y a aussi des cas de signalements en masse. Il ne faudrait pas que n’importe quel signalement, y compris malveillant, puisse déclencher une procédure de type Hadopi à l’encontre de quelqu’un.

M. Hervé Saulignac (SOC). L’amendement est frappé au coin du bon sens. Le rôle éducatif des parents en la matière est central. Si les signalements doivent se multiplier à l’avenir, les parents ne comprendraient pas qu’on ne les tienne pas informés de faits concernant leurs enfants et réclameront de l’être. J’ignore si le dispositif Hadopi est le meilleur véhicule ; en tout cas, nous devons trouver la rédaction la plus consensuelle possible pour qu’elle puisse être adoptée en séance.

Mme Marie Guévenoux (RE). Je soutiens moi aussi l’amendement. Il permet aux parents d’exercer leur responsabilité parentale et responsabilise les titulaires d’abonnements à internet.

Merci au rapporteur général de l’intérêt qu’il manifeste. Concernant l’aspect technique et juridique, nous devrions trouver une solution – il serait surprenant que l’on parvienne à contenir le téléchargement de contenus piratés, mais pas le cyberharcèlement. Quant au volet relatif aux amendes, l’amendement propose une information puis une contravention : il ne se situe pas dans le champ délictuel. Là aussi, nous devrions pouvoir trouver un chemin.

M. Bruno Studer (RE). Il n’y a pas de solution miracle. Mais le cyberharcèlement est un phénomène massif qui appelle une réponse massive. Je veux bien retirer mon amendement, monsieur le ministre, si vous vous engagez à ce que l’on trouve une solution d’ici à la séance. À la lumière de mon expérience des textes sur la protection de l’enfance en ligne, je pense que mon idée est bonne et qu’il faut la creuser.

Monsieur le rapporteur général, j’espère déposer en vue de la séance un autre amendement né de notre collaboration ; sinon, je redéposerai celui-là.

L’amendement est retiré.

Amendement CS377 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). L’article 138 du code de procédure pénale donne au juge d’instruction ou au juge des libertés et de la détention le pouvoir de limiter la liberté d’une personne mise en cause pendant la période d’instruction, notamment en lui interdisant l’accès à certains lieux physiques. Afin de réagir à des faits de délinquance ou de criminalité commis ou entrepris dans l’espace numérique, nous proposons que cet article prévoie également l’interdiction de fréquenter certains sites ou certaines applications.

Mme Louise Morel, rapporteure. Le contrôle judiciaire n’est pas limité dans le temps, de sorte que le bannissement serait trop long pour une mesure de restriction de liberté. En outre, il concerne des personnes qui n’ont pas encore été jugées : ce serait une restriction très forte alors que le procès n’a pas eu lieu. Cela me paraît disproportionné.

Avis défavorable.

La commission rejette l’amendement.

Amendement CS102 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). Si le groupe Écologiste regarde la peine de bannissement avec beaucoup de prudence, il identifie certaines situations où elle pourrait être utile. En cas de cyberharcèlement, de violences conjugales, de violences sexistes et sexuelles, le juge peut prononcer pendant le contrôle judiciaire des mesures empêchant la personne concernée de fréquenter certains lieux ou d’entrer en contact avec les plaignants. La police et la justice ne sont pas toujours assez rapides pour empêcher des drames. La suspension des réseaux sociaux pendant la durée de l’instruction pourrait y contribuer.

Mme Louise Morel, rapporteure. Le temps de l’instruction peut être très long. Avis défavorable, pour les mêmes raisons que précédemment.

M. Jean-Noël Barrot, ministre délégué. J’ai les mêmes réserves. Comme pour la composition pénale, la peine de substitution à une peine de prison ou la peine complémentaire, il faut que la mesure de suspension soit limitée dans le temps, restreinte aux comptes à partir desquels l’infraction a été commise et associée à une liste limitative de délits.

Mme Sophia Chikirou (LFI-NUPES). Ce type de peine est inapplicable et reviendrait à punir avant même de juger. Avec regret puisqu’il s’agit d’un amendement du groupe Écolo-NUPES, nous voterons contre.

La commission rejette l’amendement.

Amendements identiques CS727 de Mme Caroline Yadan et CS734 de M. Bruno Studer

Mme Caroline Yadan (RE). Pendant une enquête ou une instruction liée à la commission d’une infraction sur internet, les cyberviolences ayant donné lieu aux poursuites peuvent continuer. Une mesure de contrôle judiciaire interdisant à la personne en attente de son procès ou mise en examen d’utiliser le compte ayant servi à commettre l’infraction permettrait d’interrompre plus rapidement le processus et de mieux protéger les victimes.

Mme Louise Morel, rapporteure. Avis défavorable, pour les mêmes raisons que précédemment.

M. Jean-Noël Barrot, ministre délégué. Même avis, comme sur l’amendement suivant, de M. Balanant. M. Balanant avait proposé dans un amendement à l’article 5 des précautions qui auraient pu sécuriser ce type de dispositif ; malheureusement, il n’était pas là pour le défendre.

Mme Sophia Chikirou (LFI-NUPES). Les juges ne sont pas particulièrement formés au numérique, ils n’en maîtrisent pas les enjeux. Même un juge des libertés ne mesurerait pas toutes les implications de la décision qu’il est ici proposé de lui permettre. Dans ces conditions, la privation, même temporaire, du droit d’accéder à internet serait injuste et dangereuse. Son caractère disproportionné pourrait même la rendre inconstitutionnelle.

Mme Naïma Moutchou (HOR). Je ne peux pas laisser dire que les juges ne seraient pas compétents en matière de numérique. Ils sont formés et continuent de l’être ; il existe depuis très longtemps des chambres spécialisées dans ce domaine ; nous avons créé il y a quelques années un parquet numérique. Tout cela fonctionne bien.

La commission rejette les amendements.

Amendement CS636 de M. Erwan Balanant

M. Erwan Balanant (Dem). Monsieur le ministre, vous m’avez grondé parce que je m’étais absenté, mais c’était pour la bonne cause : je suivais une visioconférence de Gabriel Attal sur le même sujet.

Suivant l’avis de Mme Louise Morel, rapporteure, la commission rejette l’amendement.

Amendement CS751 de M. Laurent Esquenet-Goxes

M. Laurent Esquenet-Goxes (Dem). Bien que les utilisateurs et utilisatrices des réseaux sociaux soient en permanence exposés à des contenus offensants, voire haineux, un jeune sur trois ne signale pas les agressions dont il est victime. Face aux difficultés de l’action en justice et à sa lenteur, il est urgent de trouver des solutions. La médiation entre utilisateurs volontaires, assurée par des associations reconnues dans le domaine de la lutte contre les cyberviolences, peut en faire partie.

Cette nouvelle voie de résolution amiable des conflits permettrait à la personne se sentant heurtée de faire entendre sa voix et à l’autre partie de revenir sur ses messages et sur son comportement cyberviolents. L’intérêt est de modérer le contenu problématique avec le consentement de l’émetteur.

La médiation viserait essentiellement les contenus harcelants ou offensants suscitant une charge mentale dits « contenus gris », car non manifestement illicites.

Cette proposition a été distinguée comme projet du Child Online Protection Lab du Forum international de la paix à Paris, en septembre dernier. Toutefois, les réticences des géants du numérique nécessitent d’en passer par une obligation légale.

La médiation relève de la tendance actuelle au développement des modes alternatifs de règlement des conflits. Nous proposons d’accompagner cette transformation.

Mme Louise Morel, rapporteure. Tout à fait d’accord sur le principe, mais je préférerais que le dispositif soit confié non aux plateformes mais à l’État. Nous pourrions retravailler l’amendement en ce sens en vue de la séance. Demande de retrait.

M. Jean-Noël Barrot, ministre délégué. Il est avéré qu’un médiateur peut résoudre les problèmes de violence en ligne. Mais imposer aux plateformes de réseaux sociaux, régulées par le DSA, des obligations nouvelles serait non conventionnel. Je ne peux donc pas donner un avis favorable.

Les plateformes pressenties pour l’expérimentation dans le cadre du Laboratoire pour la protection de l’enfance en ligne n’ayant pas répondu présent, je m’engage à solliciter plus activement certaines d’entre elles. Par ailleurs, nous vous proposerons un amendement créant une réserve citoyenne du numérique, laquelle viendra renforcer les associations œuvrant dans ce domaine.

Mme Sophia Chikirou (LFI-NUPES). J’aurais aimé être l’auteure de l’amendement. Dans ma circonscription, avec le commissaire de police du 20e arrondissement, nous réfléchissons beaucoup à la lutte contre le harcèlement ; cette proposition est l’une de celles que nous voulons défendre. Comme l’a dit Mme la rapporteure, le dispositif doit être confié à l’État et non aux plateformes. Je prône même le recrutement de médiateurs et d’éducateurs spécialisés ainsi que de policiers spécialisés. Il faudrait taxer les plateformes pour financer tout cela, puisqu’elles se rendent responsables de la situation en utilisant la violence et l’affrontement pour faire le buzz et de l’audience. Nous y penserons lors de l’examen du projet de loi de finances.

L’amendement est retiré.

4.    Troisième réunion du mercredi 20 septembre 2023 à 21 heures 30

Lien vidéo : https://assnat.fr/G0qPSa

M. le président Luc Lamirault. Nous poursuivons l’examen du projet de loi visant à sécuriser et réguler l’espace numérique, dont 396 amendements restent en discussion.

Article 5 bis : Création d’un délit général d’outrage en ligne pouvant faire l’objet d’une amende forfaitaire délictuelle

Amendement de suppression CS251 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Le délit d’outrage en ligne a été introduit par un amendement du rapporteur au Sénat. Il permettrait de sanctionner d’une amende forfaitaire délictuelle (AFD) la diffusion de certains contenus sur une plateforme en ligne, sans l’intervention d’un juge.

Outre la nécessité d’être prudent dans le recours à l’AFD, l’outrage en ligne est un délit complexe à appréhender et nécessitant une enquête approfondie. L’AFD exclut tout procès et toute enquête. Au demeurant, la Défenseure des droits s’est prononcée contre l’AFD le 31 mai 2023. Cette sanction nous semble inadaptée au délit d’outrage en ligne.

Par ailleurs, l’article souffre d’insécurité juridique, s’agissant notamment de la définition des circonstances aggravantes, qui est floue. Qu’est-ce qu’une « personne dont la particulière vulnérabilité ou dépendance résultant de la précarité de sa situation économique ou sociale est apparente ou connue de son auteur » ? Qu’est-ce que « l’identité de genre, vraie ou supposée » d’une personne ? Moi, je ne le sais pas, et je doute que le juge le sache.

Mme Louise Morel, rapporteure pour les titres Ier et II. Vous avez raison, cette définition de l’outrage en ligne n’est pas parfaite ; les contours de l’infraction sont flous et elle n’est pas aisément constatable, ce qui fait courir un risque sur la constitutionnalité des dispositions relatives à l’AFD. En effet, le Conseil constitutionnel a fixé des limites constitutionnelles à l’AFD : elle ne peut sanctionner que des infractions passibles de trois ans d’emprisonnement au plus et, surtout, qui sont aisément constatables.

Je souscris à certains de vos arguments, mais je suis défavorable à l’adoption d’un amendement de suppression, car je partage l’esprit de l’article de poser le principe d’une réponse pénale rapide et efficace aux propos haineux tenus en ligne, le plus souvent avec un fort sentiment d’impunité.

Par ailleurs, l’article fait l’objet de nombreux amendements, qui nous permettront de l’étudier plus avant. J’en présenterai un visant à en améliorer la rédaction tout en en préservant l’esprit pour éviter les écueils constitutionnels précités.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique. Au Sénat, le Gouvernement a été très défavorable à l’amendement portant création de l’article 5 bis, considérant que la rédaction de l’article exposait ses dispositions à de sérieuses difficultés d’application. Une en particulier surgit d’emblée : s’agissant d’une AFD, l’infraction doit être aisément constatable. Or la définition de l’outrage en ligne, telle qu’elle est rédigée, rend sa sanction très compliquée à automatiser par le biais d’une AFD.

Depuis l’examen du texte au Sénat, en lien avec plusieurs membres de la commission spéciale, notamment le rapporteur général et les autres rapporteurs, des travaux ont été menés, par les parlementaires et par le Gouvernement, qui a formé sa position dans le cadre d’une discussion interministérielle. Il me semble important que nous débattions de ces travaux.

En dépit de l’avis très défavorable émis par le Gouvernement sur l’article 5 bis lors de son examen au Sénat, je suggère le retrait de l’amendement CS251 et émets, à défaut, un avis défavorable, afin que le débat ait lieu et que nous entendions les arguments de celles et ceux qui ont travaillé dur pour formuler des dispositions qui tiennent la route, si j’ose ainsi m’exprimer.

M. Erwan Balanant (Dem). La version de l’article 5 bis adoptée par le Sénat pose des problèmes de mise en œuvre et de constitutionnalité. Toutefois, adopter un amendement de suppression nous empêche de mener une réflexion et de trouver le bon équilibre. À cet effet, je présenterai ultérieurement un amendement raisonnable qui devrait emporter l’adhésion de la commission spéciale.

Mme Virginie Duby-Muller (LR). Je suis également défavorable à la suppression de l’article. Je tiens à saluer l’effort de notre collègue sénateur Loïc Hervé, qui a créé le délit d’outrage en ligne en s’inspirant de l’outrage sexiste ou sexuel, lequel peut faire l’objet d’une AFD, afin d’améliorer la réactivité de la sanction. Il s’agit, à mes yeux, d’une avancée importante pour mettre un terme, sans délai, à des situations de harcèlement ou d’injure en ligne, ce qui constitue un net progrès pour les victimes. Je suis ouverte à toute proposition d’amélioration mais je pense qu’il faut ouvrir le débat, dont l’enjeu est d’améliorer la protection des victimes d’outrage en ligne.

La commission rejette l’amendement.

Amendements identiques CS817 de M. Paul Midy et CS662 de Mme Marie Guévenoux et sous-amendement CS942 de Mme Caroline Yadan, amendement CS760 de M. Erwan Balanant (discussion commune)

M. Paul Midy, rapporteur général. En ajoutant l’article 5 bis, les sénateurs ont souhaité introduire le recours à l’AFD, d’une part, et, d’autre part, créer l’infraction d’outrage en ligne.

Le principe de l’amende nous semble être une belle avancée, en ce qu’il permet de sanctionner les faits de cyberharcèlement de façon graduée. Dans 95 % des cas, il ne se passe pas grand-chose. Dans les autres, si, comme Hoshi ou Eddy de Pretto, vous disposez de suffisamment de temps et d’argent pour faire face à une procédure de trois ans, vous ferez peut-être condamner dix personnes parmi les quelques milliers, voire millions qui vous ont harcelé.

Il faut un panel de sanctions graduées, allant des mesures d’éducation à des peines lourdes en passant par l’amende. Nous avons travaillé à l’élaboration de dispositions les plus robustes possible pour réussir à infliger des amendes dans les cas où l’infraction est aisément constatable et relève d’un délit figurant d’ores et déjà dans le code pénal, compte tenu de la difficulté, d’après certains experts, à rendre aisément constatable un délit nouvellement créé.

L’amendement permet la délivrance d’une AFD de 300 euros, soit le montant prévu par les sénateurs. Les délits concernés sont les injures et diffamations publiques racistes, proférées à raison de l’origine ou de l’appartenance ou de la non-appartenance à une ethnie, une nation, une race ou une religion déterminée, et les injures et diffamations publiques sexistes, homophobes, handiphobes et transphobes. S’agissant des propos négationnistes, nous souhaitons les retirer du champ de l’amendement.

Il ne s’agit ni d’une déqualification ni d’un allégement de la répression. Les infractions visées demeureront passibles d’une peine d’emprisonnement. Notre objectif est de punir des faits qui ne sont pas poursuivis. Nous créons un outil supplémentaire pour que la réponse pénale soit plus efficace et traite plus de cas, selon la logique suivie pour le recours à l’AFD s’agissant d’usage de stupéfiants, de conduite sans permis et de certains vols, soit des délits qui demeurent passibles de peines d’emprisonnement bien plus lourdes qu’une amende.

Le montant de l’AFD, qui est plutôt faible à l’aune des peines prévues par le code pénal, peut faire l’objet d’un débat. Quant au mécanisme lui-même, il vise à lutter contre le sentiment d’impunité. Chaque année, les parquets traitent 3 000 dossiers d’injure et de diffamation à caractère raciste, dont très peu jusqu’au bout de la procédure.

Notre rédaction est robuste sur le plan constitutionnel. Le cadre fixé par le Conseil constitutionnel à l’AFD est le suivant : elle doit sanctionner des infractions passibles de trois ans d’emprisonnement au plus – tel est le cas des délits retenus par l’amendement – et elle doit sanctionner des infractions aisément constatables, ce qui est le cas grâce à l’usage de l’adverbe « manifestement ». Notre rédaction est donc opérationnelle, pourvu que des circulaires du Gouvernement définissent le champ d’intervention des forces de l’ordre et des parquets dans ce cadre. Il s’agit d’une nette amélioration du texte.

Mme Marie Guévenoux (RE). Chaque année, des dizaines de milliers d’injures à caractère raciste, sexiste, homophobe ou handiphobe sont proférées en ligne ; 3 000 seulement sont traitées par les parquets. Dans 20 % des cas, les faits ne sont pas poursuivis. La durée médiane de la procédure est de neuf à dix mois, et peut atteindre trois ans en cas d’instruction.

L’AFD est un outil supplémentaire permettant d’améliorer la réponse pénale, qui n’en est en aucun cas moins-disante, et de lutter contre le sentiment d’impunité sur internet. Elle permet le prononcé de peines effectives pour des faits à ce jour peu poursuivis. Nos amendements cernent précisément la diffamation et l’injure visées.

Mme Caroline Yadan (RE). Le sous-amendement CS942 tend à supprimer le délit de négationnisme du champ de l’AFD pour contenu haineux en ligne. Les infractions visées – injures et diffamation publique à caractère raciste, sexiste, homophobe ou handiphobe –, proférées par des primo-délinquants sur internet, ne sont absolument pas du même ordre que les propos contestant l’existence de crimes contre l’humanité, qui sont punis d’un an d’emprisonnement et de 45 000 euros d’amende en vertu de l’article 24 bis de la loi du 29 juillet 1881 sur la liberté de la presse. Il ne semble pas pertinent de faire figurer le délit de négationnisme dans le périmètre de l’AFD prévu par l’article 5 bis.

M. Erwan Balanant (Dem). Avec mon amendement, je propose de calquer les dispositions réprimant l’outrage sexiste ou sexuel, dont la définition nous avait demandé beaucoup de travail, pour nous tenir sur une ligne de crête permettant de définir et sanctionner facilement le premier niveau d’interdit.

Comme le montre le sous-amendement CS942, les amendements CS817 et CS662 dépassent cette ligne de crête en incluant des délits sanctionnés par la loi sur la liberté de la presse, dans le cadre de contentieux souvent lourds, exigeant du juge une interprétation.

Je propose de restreindre le champ de l’AFD aux outrages à caractère sexiste ou sexuel, ce qui permet de « taper » de nombreux cas, tels que les propos sexistes postés sur les profils Twitter des parlementaires, et de définir le premier niveau d’interdit. En définissant un seuil de tolérance, nous casserons le sentiment d’impunité sur internet.

Je regrette que nous n’ayons pas songé à procéder ainsi lors de l’élaboration de la loi renforçant la lutte contre les violences sexuelles et sexistes, qui visait surtout à combattre le harcèlement de rue. En adoptant mon amendement, nous disposerons d’un outil pour assainir l’espace public numérique. Tout amendement allant au-delà sera censuré par le Conseil constitutionnel, ce qui nous priverait de l’occasion d’avancer concrètement.

M. Paul Midy, rapporteur général. J’émets un avis favorable au sous-amendement CS942 et à l’adoption des amendements identiques CS817 et CS662 ainsi sous-amendés. Je suggère, tout en étant aligné avec la proposition formulée par notre collègue Balanant, qui a fait un travail utile, le retrait de l’amendement CS760 à leur profit. Cela permet de conserver l’esprit de l’article 5 bis tout en avançant.

M. Jean-Noël Barrot, ministre délégué. Chacune des deux rédactions proposées permet de progresser considérablement sur la base de l’amendement adopté par les sénateurs, auquel le Gouvernement était défavorable.

Les amendements identiques CS817 et CS662 sous-amendés ont le mérite d’embrasser, grâce au recours à l’injure publique et à la diffamation discriminatoires, de nombreux délits relevant de la propagation de la haine en ligne. Ils présentent deux fragilités. D’abord, les délits visés ne sont pas en eux-mêmes manifestement illicites. Leur caractérisation suppose parfois l’interprétation du juge. Toutefois, les auteurs des amendements ont précisé que l’AFD est applicable dans les seules situations où leur commission est manifeste. Ensuite, certains délits visés – le sous-amendement CS942 le révèle – sont sanctionnés de peines relativement lourdes. On ne peut pas sanctionner d’une amende de 300 euros une infraction passible d’un an d’emprisonnement et de 45 000 euros d’amende.

L’amendement CS760 embrasse moins large. Il se fonde sur un outrage figurant dans notre droit, l’outrage sexiste et sexuel, en ajoutant aux huit circonstances aggravantes permettant, pour éteindre les poursuites, de recourir à une AFD de 300 euros – au lieu d’un montant maximal de 3 750 euros –, celle d’être commis en ligne.

À ce stade, le Gouvernement privilégie la formulation plus resserrée, donc plus sûre – ce critère a déterminé seul ou presque le débat interministériel – présentée par M. Balanant, même si elle embrasse moins large que ce que l’on pourrait souhaiter. Je rappelle que les femmes sont harcelées vingt-six fois plus que les hommes sur internet, et que, dans la masse des violences et de la haine en ligne, l’outrage à caractère sexiste et sexuel est bien représenté.

Avec une forme de prudence, le Gouvernement émet un avis de sagesse sur l’amendement CS760 et suggère le retrait des amendements CS817 et CS662. Il a accueilli ces deux pistes de réflexion avec beaucoup de bienveillance. Il émet un avis favorable au sous-amendement CS942.

Mme Ségolène Amiot (LFI-NUPES). Nous nous interrogeons sur l’application réelle des amendements. Qui sera chargé de distribuer les amendes ? La police, donc la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos) ? Le procureur ?

S’il s’agit de Pharos, on peut s’inquiéter de la fixation d’objectifs chiffrés, qui a commencé dans les années Sarkozy, et qui pourrait, compte tenu du nombre d’outrages commis sur la toile, réduire les effectifs affectés aux réseaux pédocriminels ou terroristes au profit d’une distribution à la pelle d’AFD pour faire du chiffre.

M. Philippe Latombe (Dem). Le groupe MoDem soutient unanimement l’amendement d’Erwan Balanant.

La rédaction proposée par les sénateurs a le mérite d’ouvrir le débat. Elle pose un problème constitutionnel. Chacun s’accordera à dire, me semble-t-il, qu’elle n’est pas ce qu’elle devrait être.

La rédaction proposée par Erwan Balanant a l’avantage de la simplicité. Son fonctionnement est garanti, s’agissant d’une disposition ayant passé la barre constitutionnelle. Tel n’est pas le cas des amendements identiques CS817 et CS662. Lors de l’examen de la loi visant à lutter contre les contenus haineux sur internet, dite loi Avia, le Conseil constitutionnel a soulevé le problème d’une sanction par AFD s’agissant d’une zone grise exigeant l’interprétation du juge. Le sous-amendement CS942 ne règle pas le problème.

L’amendement CS760 offre une forme de sécurité. Il est efficace et permet de protéger nos concitoyens.

Mme Emeline K/Bidi (GDR-NUPES). Le groupe GDR est opposé au recours à l’AFD en général. Il la considère comme un moyen de juger certes rapidement, mais sans garantir les droits de la défense.

L’amendement de M. Balanant mêle deux notions, celle de harcèlement et celle d’outrage en ligne. Or le harcèlement suppose une répétition. S’agissant d’un seul outrage en ligne, je ne vois pas en quoi sa commission sur internet le rend plus grave que s’il était commis dans la rue. En faire une circonstance aggravante ne permettra pas de lutter contre le harcèlement et introduira une distinction de gravité qui n’a pas lieu d’être.

M. Pierre Cazeneuve (RE). Je suis assez favorable au principe de l’AFD. Cependant, celle-ci a été conçue pour sanctionner le délit de consommation de drogue : vu le grand nombre de consommateurs pris sur le fait, c’était un moyen efficace et rapide de les sanctionner en évitant d’engorger les tribunaux. Par contraste, les auteurs de délits commis en ligne sont beaucoup plus longs à appréhender et les poursuites sont rares. Comment va-t-on pouvoir « industrialiser » le processus par l’AFD ?

Mme Marie Guévenoux (RE). L’usage de stupéfiants, passible d’un an d’emprisonnement, une peine plus sévère qu’une AFD, peut cependant faire l’objet d’une AFD de 200 euros. Nous proposons le même principe. Il ne s’agit pas de remplacer une sanction plus lourde prévue par le code pénal, mais de traiter des faits qui ne font généralement pas l’objet de poursuites. C’est parce qu’il s’agit d’une délinquance de masse, peu poursuivie, que l’AFD peut être utile, ici comme en matière de stupéfiants.

M. Paul Midy, rapporteur général. Qui mettra l’amende ? À l’exécutif de décider de sa politique, mais, en droit, une AFD relève d’un officier de police judiciaire (OPJ). En l’occurrence, il pourra être rattaché à Pharos ou à un commissariat.

Il nous a été objecté qu’on allait punir d’une amende de 300 euros des faits horribles, passibles de la prison. Nous souhaitons que, lorsque l’OPJ prononce l’amende, le parquet soit systématiquement saisi et se prononce en opportunité ; s’il estime l’amende trop faible au regard de la gravité des faits, ceux-ci feront l’objet d’une procédure judiciaire. Deux voies seraient donc ouvertes : soit une victime aura déposé une plainte, ce qui générera des poursuites ; soit, en l’absence de plainte, l’amende pourra être délivrée par l’OPJ ou bien le parquet, informé par l’OPJ, pourra décider d’autres types de poursuites. Avec ce dispositif, il y aura beaucoup plus de chances qu’il se passe quelque chose.

M. Jean-Noël Barrot, ministre délégué. L’usage de drogue est certes passible d’un an d’emprisonnement, comme la diffamation à caractère discriminatoire, mais aussi de 3 750 euros d’amende, comme l’outrage sexiste et sexuel. La façon dont l’amendement de M. Balanant greffe le recours à l’AFD sur le dispositif punissant l’outrage sexiste et sexuel est donc juridiquement très rassurante, car elle rappelle ce qui a été fait pour la consommation de cannabis. Ce recentrement sur l’outrage sexiste et sexuel est plus sûr que l’approche plus large des deux autres amendements. Un tiens vaut mieux que deux tu l’auras.

La commission adopte successivement le sous-amendement CS942 et les amendements CS817 et CS662 sous-amendés ; l’article 5 bis est ainsi rédigé.

En conséquence, l’amendement CS760 tombe, ainsi que tous les autres amendements à l’article 5 bis.

Après l’article 5 bis

Amendement CS866 de Mme Caroline Yadan, amendement CS549 de Mme Louise Morel et sous-amendement CS951 de Mme Caroline Yadan (discussion commune)

Mme Caroline Yadan (RE). On a objecté à mon précédent amendement CS720, relatif au stage de citoyenneté numérique, que la durée d’interdiction d’exercice de la liberté d’expression y était trop longue. Le présent amendement permet de tenir compte de cette objection tout en apportant une réponse éducative à l’auteur des violences en ligne, donc d’envoyer un signal fort aux deux parties.

Il s’agit d’ajouter le stage de citoyenneté numérique aux stages que le juge peut prescrire au condamné à la place ou en même temps que l’emprisonnement. Le juge pourra y recourir en cas de suspension d’un ou de plusieurs comptes en ligne pour cyberharcèlement ou contenu haineux.

Le stage sensibilisera aux bonnes pratiques en ligne les utilisateurs condamnés et, en leur faisant prendre conscience de la gravité de leurs actes, évitera des récidives.

Mme Louise Morel, rapporteure. Nous approuvons l’idée de créer un stage de citoyenneté numérique. Il fera partie du panel de sanctions qu’il s’agit ici de mettre à la disposition du juge.

La nouvelle peine de stage que je propose d’introduire dans le code pénal est susceptible de s’appliquer à tous les délits punis d’une peine d’emprisonnement. Dédié à la sensibilisation au respect des personnes dans l’environnement numérique, le stage sera particulièrement adapté à des primo-délinquants ayant tenu en ligne des propos constitutifs de cyberharcèlement ou d’injure.

Le dispositif sera complémentaire de la peine de bannissement ou de l’AFD. Il faut fournir une gamme d’outils à la justice et aux enquêteurs.

Mme Caroline Yadan (RE). Le sous-amendement CS951 apporte une précision rédactionnelle.

Mme Louise Morel, rapporteure. Merci de votre vigilance : notre travail conjoint permet d’aboutir à la meilleure rédaction. Avis favorable au sous-amendement et demande de retrait de l’amendement CS866.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Sophia Chikirou (LFI-NUPES). Nous sommes favorables à l’introduction d’un stage de sensibilisation à la lutte contre le cyberharcèlement. Mais nous trouverions beaucoup plus logique, sain et réaliste d’en faire la première peine, avant même l’amende. Cela aurait beaucoup plus de sens s’agissant d’un public souvent jeune. L’amende forfaitaire pourrait s’appliquer en cas de récidive.

Mme Caroline Yadan (RE). Le juge peut toujours ordonner une mesure avant dire droit. Dans ce cadre, il peut prononcer la peine qu’il souhaite, y compris des peines considérées comme complémentaires. Ainsi, il pourra obliger le futur condamné à faire un stage, puis le convoquer à nouveau et rendre alors un jugement définitif.

L’amendement CS866 est retiré.

La commission adopte successivement le sous-amendement CS951 et l’amendement CS549 sous-amendé. L’article 5 ter A est ainsi rédigé.

Amendements identiques CS341 de Mme Soumya Bourouaha, CS379 de Mme Isabelle Santiago et CS804 de Mme Marie Guévenoux

Mme Emeline K/Bidi (GDR-NUPES). Notre amendement vise à appliquer une préconisation du Conseil national des barreaux destinée à favoriser le développement de peines complémentaires ou alternatives adaptées aux enjeux du cyberharcèlement, compte tenu du nombre croissant d’infractions commises en ligne.

Le juge des enfants statuant en chambre du conseil, sur réquisition du procureur de la République et si les circonstances et la personnalité du mineur le justifient, pourrait condamner un mineur d’au moins 13 ans à une peine alternative. Il s’agirait notamment d’un stage de sensibilisation comportant un volet relatif aux risques liés au harcèlement scolaire, à l’espace numérique et au cyberharcèlement. S’agissant d’un public jeune, nous réaffirmons la nécessité de privilégier les peines éducatives plutôt que les sanctions.

M. Hervé Saulignac (SOC). Pour les mineurs, il faut des peines alternatives, en particulier des peines éducatives.

Mme Marie Guévenoux (RE). Je profite de cet amendement pour remercier Caroline Yadan de son formidable travail sur les stages de sensibilisation au cyberharcèlement et de citoyenneté dans l’espace numérique.

Mme Louise Morel, rapporteure. Les amendements sont satisfaits par l’inscription du stage dans le code pénal à laquelle nous venons de procéder. Le renvoi de code à code entre le code pénal et le code de la justice pénale des mineurs rend inutile une mention supplémentaire.

Demande de retrait ; sinon, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. Le mérite de la création de ce nouveau stage revient à Mme Yadan et je l’en remercie à mon tour.

Mme Élisa Martin (LFI-NUPES). Dans ces affaires, le rôle de l’éducation et de la prévention est majeur. C’est justement pour cela que nous ne devons pas nous payer de mots. Qui va assurer les stages et comment seront-ils financés ? On ne nous a pas répondu sur ce point, alors que c’est indispensable. Une loi qui se pare de vertus mais ne se donne pas les moyens d’être applicable n’a aucun sens. Elle n’est qu’affichage.

M. Erwan Balanant (Dem). C’est très bien de créer des stages, mais les textes en prévoient déjà, par exemple à l’article L. 112-2 du code de la justice pénale des mineurs. À chaque nouvelle loi, on ajoute un stage ! Ces stages ne sont jamais prononcés par les magistrats, car il y en a tellement que cela devient incohérent. Pour la séance, je vais déposer un amendement demandant un rapport sur l’harmonisation des stages !

L’amendement CS804 est retiré.

La commission rejette les amendements CS341 et CS379.

Article 5 ter

Amendements CS25 de Mme Véronique Riotton, CS465 de Mme Virginie Duby-Muller et CS661 de M. Laurent Esquenet-Goxes (discussion commune)

Mme Mireille Clapot (RE). Notre amendement, préparé avec l’association Stop Fisha, vise à mieux sanctionner les deepfakes à caractère sexuel. En 2019, huit des dix sites pornographiques les plus consultés en hébergeaient et une dizaine de sites pornographiques leur étaient exclusivement dédiés.

L’amendement fait référence non à la publication des deepfakes, mais au fait de les porter à la connaissance du public ou d’un tiers, ce qui correspond mieux à la façon dont, en pratique, ils sont diffusés.

Mme Virginie Duby-Muller (LR). L’alinéa 2 est issu d’un amendement adopté au Sénat qui pénalise la publication de deepfakes pornographiques. Il convient d’en améliorer la rédaction en visant le fait de les porter à la connaissance du public ou d’un tiers. Cela permettra de sanctionner l’ensemble des personnes qui repartagent un contenu précédemment publié.

M. Laurent Esquenet-Goxes (Dem). Cet amendement technique, auquel j’ai travaillé avec le Conseil national des barreaux, tend à préciser que ce qui est prohibé n’est pas la publication, mais le fait de porter à la connaissance d’un tiers le montage réalisé avec les paroles ou l’image d’une personne et présentant un caractère sexuel. Il permettra de lutter bien mieux contre les deepfakes à caractère sexuel.

Mme Louise Morel, rapporteure. Je suis favorable à l’esprit de ces amendements. La rédaction la plus solide est celle du CS465, au profit duquel je demande donc le retrait des deux autres.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Ségolène Amiot (LFI-NUPES). La rédaction des amendements n’est pas assez précise : elle pourrait conduire à sanctionner quelqu’un qui ne saurait pas qu’il republie un deepfake ou le porte à la connaissance d’un tiers ou du public. « Porter à la connaissance d’un tiers » peut concerner l’échange par messagerie interpersonnelle. Or on peut partager une image sans savoir qu’il s’agit d’un deepfake.

La commission rejette l’amendement CS25.

Elle adopte l’amendement CS465.

En conséquence, l’amendement CS661 tombe.

Elle adopte les amendements rédactionnels CS527, CS528 et CS529 de Mme Louise Morel, rapporteure.

La commission adopte l’article 5 ter modifié.

Après l’article 5 ter

Amendement CS715 de Mme Caroline Yadan

Mme Louise Morel, rapporteure. L’amendement est satisfait : nous venons de voter les dispositions relatives au stage de citoyenneté numérique. Demande de retrait.

L’amendement est retiré.

Amendements identiques CS21 de Mme Véronique Riotton, CS723 de Mme Caroline Yadan et CS762 de M. Erwan Balanant et amendement CS55 de M. Ian Boucard (discussion commune)

Mme Caroline Yadan (RE). Cet amendement a pour objectif d’appliquer sur internet le délit d’outrage sexiste – initialement, le harcèlement de rue, pensé pour protéger les femmes dans des situations intimidantes, hostiles ou offensantes dans la rue – aux cyberoutrages sexistes. L’association Stop Fisha est favorable à ce que cette procédure soit étendue aux outrages associés donc, au-delà du sexisme, à l’ensemble des critères de discrimination.

M. Erwan Balanant (Dem). Comme je suis têtu, cet amendement que vous avez rejeté tout à l’heure, je le représente à un autre endroit du texte. Ce serait une belle avancée et une sécurisation appréciable pour les nombreuses femmes qui subissent du harcèlement sur les réseaux sociaux que de définir un premier niveau d’interdit en matière de cyberharcèlement.

M. Maxime Minot (LR). L’amendement de Ian Boucard tend à créer, pour les injures à connotation sexuelle ou sexiste commises en ligne, une amende forfaitaire semblable à celle visant les injures commises dans la rue ou dans les transports en commun. Cette sanction serait très dissuasive puisque la preuve serait facile à apporter – l’écrit laisse des traces. Son effectivité serait garantie par la possibilité de prononcer les réquisitions permettant d’identifier la personne ayant commis l’infraction.

M. Paul Midy, rapporteur général. Je donne un avis favorable aux trois amendements identiques – nous avions rejeté le précédent amendement de M. Balanant au profit du présent CS762. Demande de retrait pour l’amendement CS55.

La commission adopte les amendements identiques et l’article 5 quater est ainsi rédigé.

En conséquence, l’amendement CS55 tombe.

Suivant l’avis de la rapporteure, la commission rejette l’amendement CS514 de M. Stéphane Vojetta.

Amendement CS729 de Mme Caroline Yadan

Mme Caroline Yadan (RE). Il vise à mieux sanctionner les hypertrucages, ou deepfakes, à caractère sexuel. Selon une étude de l’association Deeptrace, 96 % d’entre eux sont des vidéos pornographiques où les personnes visées sont des femmes dans 99 % des cas, ce qui en fait un enjeu de lutte contre le sexisme. En 2019, huit des dix sites pornographiques les plus consultés hébergeaient des deepfakes et une dizaine de sites pornographiques leur étaient exclusivement dédiés. Il convient d’améliorer l’amendement adopté au Sénat sur cette question, en faisant référence, non à la publication d’un deepfake, mais au fait de le porter à la connaissance du public ou d’un tiers, afin de mieux appréhender la façon dont les deepfakes à caractère sexuel sont diffusés et de sanctionner l’ensemble des personnes qui repartageraient le contenu publié.

Mme Louise Morel, rapporteure. Nous avons déjà amélioré la rédaction de l’article 5 ter. Votre amendement est donc satisfait. Demande de retrait ; à défaut, avis défavorable.

L’amendement est retiré.

Amendement CS383 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). En l’état du droit, les auteurs d’injures et de diffamations publiques sur internet, qui publient de manière anonymisée, ne peuvent pas être identifiés du fait qu’ils n’encourent qu’une simple amende. Le code de procédure pénale limite en effet la possibilité de solliciter les données techniques, notamment les adresses IP, aux infractions punies d’au moins un an d’emprisonnement. En dessous de ce seuil, il n’est possible d’accéder qu’à certaines données purement déclaratives des internautes. Il s’agit donc de modifier l’article 60-1-2 du code de procédure pénale afin de permettre l’accès aux données d’identification en cas d’infractions prévues par la loi du 29 juillet 1881.

Mme Louise Morel, rapporteure. L’amendement étend les possibilités d’identification à tous les délits de presse. Il permet notamment l’identification de l’auteur de l’infraction en cas d’injure publique simple. On peut régler ce problème de deux manières : soit on prévoit une peine d’emprisonnement pour tous les délits d’expression commis sur internet ; soit on étend les possibilités de réquisition, comme vous le proposez. Cette option rencontre peut-être des limites constitutionnelles ou de droit européen, qui nous conduiraient à retravailler la disposition d’ici à la séance, mais j’y suis favorable.

M. Jean-Noël Barrot, ministre délégué. L’avis du Gouvernement est très défavorable, car l’adoption d’un tel amendement nous placerait en contravention totale avec les engagements européens de la France.

L’amendement est retiré.

Article 6 : Déploiement d’un filtre national de cybersécurité grand public

Amendement de suppression CS307 de M. Jean-François Coulomme

M. Jean-François Coulomme (LFI-NUPES). L’article 6 est techniquement inapplicable. On ne peut pas faire porter la charge de la diffusion des contenus sur les navigateurs et les éditeurs de navigateurs. Il est impensable que le Gouvernement, l’Arcom ou toute autre autorité administrative puisse décider d’une configuration spécifique de l’outil logiciel qui permet d’accéder aux différentes pages URL, de la même façon que pour les téléphones portables.

Vous allez tenter de configurer des navigateurs avec des codes sources propriétaires, comme ceux de Microsoft ou d’Apple, mais il existe un grand nombre de navigateurs, dont certains ont des codes sources ouverts, qui donnent lieu à des forks, c’est-à-dire des déclinaisons des navigateurs du monde du libre. Il n’est donc pas possible d’affecter la responsabilité de ces contenus aux éditeurs de logiciels.

L’article 6 prévoit également de mettre en cause les fournisseurs d’accès internet (FAI) dont le rôle est pour ainsi dire, de fournir des tuyaux. On ne peut pas leur demander d’équiper ces tuyaux avec les filtres nécessaires pour sélectionner les contenus qui pourraient s’afficher.

Pour toutes ces raisons nous proposons de supprimer l’article.

Mme Louise Morel, rapporteure. Cet amendement tend à supprimer une partie majeure du projet de loi. Vos craintes sont infondées. Le filtre anti-arnaque est entouré de nombreuses garanties. Il débute par un simple message d’avertissement. Le recours de l’éditeur du site est immédiatement suspensif – il n’y a aucun risque que des sites légaux soient bloqués un jour. Le modèle européen et le modèle français se caractérisent par une forte protection des libertés fondamentales, qui sont contrôlées au quotidien par des juridictions dont l’indépendance est reconnue – Conseil constitutionnel, Conseil d’État, Cour européenne des droits de l’homme. Il n’y a pas de risque en Europe pour la liberté dans l’espace numérique. Tout élargissement du filtre anti-arnaque à des infractions non évidentes ou à de la censure de contenus sera, à coup sûr, censuré par le Conseil constitutionnel.

Pour toutes ces raisons, je suis défavorable à votre amendement de suppression.

M. Jean-Noël Barrot, ministre délégué. Il faut évidemment une base légale pour instaurer un tel dispositif anti-arnaque, qui est essentiel pour protéger les Français les plus vulnérables et éloignés du numérique de l’explosion des campagnes d’hameçonnage ou de typosquatting. Ce filtre n’a pas vocation à éliminer tous les problèmes liés au numérique mais uniquement ceux qui ont trait aux cyberarnaques du quotidien.

En parallèle de votre travail législatif, le Gouvernement a engagé des travaux techniques. Dès que la loi sera votée, les acteurs concernés par le déploiement de cette solution de protection devront engager un travail approfondi pour faire en sorte que le dispositif soit prêt, nous l’espérons, à l’horizon de l’été prochain, au moment où la France sera la cible de nombreuses tentatives d’intrusion. Des centaines de millions, voire des milliards de tentatives ont été commises lors des précédentes éditions des Jeux olympiques et paralympiques.

Avec ce dispositif, nous voulons répondre, non à la menace cyber dans l’ensemble du spectre, mais aux petites arnaques du quotidien, dont nous pouvons fournir de nombreux exemples. Il faut y mettre fin.

Avis défavorable.

M. Philippe Latombe (Dem). Tout en étant favorable au filtre anti-arnaque, je partage une partie des questions techniques que soulève l’amendement de suppression. Pour inscrire, comme vous le souhaitez, ce filtre dans le navigateur, il faudrait que les navigateurs l’introduisent dans leur code, ce qui figerait le dispositif. Cela risque de causer un conflit de lois, notamment avec les États-Unis : pour les entreprises américaines dont émane une grande partie des navigateurs, le premier amendement s’impose ; en cas de conflit de normes, il y a de fortes chances qu’entre la France et les États-Unis ces derniers l’emportent.

C’est pourquoi je propose de supprimer l’alinéa 3, pour le rédiger de manière plus satisfaisante. On peut prévoir des add-ons, des références, que le navigateur vient interroger et qui sont géographiquement liées à la France, pour permettre que le filtre soit efficace. Il faut éviter que les navigateurs américains préfèrent le mettre de côté et payer une amende

M. Éric Bothorel (RE). Il ne faut pas supprimer l’article, car il rendra les services décrits par la rapporteure et le ministre délégué. Pour filer la métaphore maritime, les cyberarnaqueurs sont les naufrageurs d’antan, qui allumaient des feux pour attirer les navigateurs sur les côtes et leur faire les fonds de cales.

Le but du filtre anti-arnaque n’est pas d’empêcher les gens de naviguer, il doit leur permettre de naviguer en sécurité. Il fonctionnera à peu près comme le service Google Safe Browsing. Il est sage, comme le propose la version du Gouvernement, que nous ne nous immiscions pas dans les solutions technologiques à déployer. Laissons le soin à l’ensemble des acteurs – fournisseurs de DNS, d’accès à internet ou de navigateurs – de mettre en œuvre ce qu’on leur demande : le rapatriement des sites de compromission ou frauduleux, de nature à prévenir l’utilisateur du risque qu’il encourt à continuer sa navigation. Le filtre anti-arnaque n’est rien d’autre que cela.

Mme Ségolène Amiot (LFI-NUPES). Internet est une toile mondiale ; elle n’est pas réservée à la France. Nos intentions sont bonnes, en voulant filtrer les arnaques et empêcher les gens d’arriver sur de telles pages web, mais d’autres superbes démocraties mondiales n’attendent que cette possibilité de blocage pour empêcher de parler d’IVG, d’homosexualité, d’un opposant politique, etc. Pour le moment, les représentants des navigateurs et des FAI nous ont dit qu’ils tenaient la barre et ne cédaient pas à ce chantage. Ne les poussons pas à ouvrir la porte, car, s’ils le font pour la France, ils ne pourront pas la fermer pour d’autres.

D’autres solutions existent, comme d’ajouter une page d’alerte plutôt qu’un blocage pur et simple.

M. Paul Midy, rapporteur général. Nous devons absolument garder l’article 6, car le filtre anti-arnaque est une excellente idée. La moitié des arnaques ont lieu en ligne : 18 millions de Français en sont victimes chaque année ; 9 millions ont perdu de l’argent après avoir reçu des textos pour payer de fausses amendes ou accepter des livraisons de faux acteurs du e-commerce. Le dispositif ne filtrera pas 100 % des arnaques, mais, même s’il n’en filtre que 80 %, il aura un effet quotidien sur le pouvoir d’achat de millions de Français. Je salue le travail qu’a réalisé le Gouvernement sur cette question qui paraît simple conceptuellement parlant, mais qui est techniquement compliquée.

Il faut aussi rejeter l’amendement de suppression pour ne pas nous priver de débattre par la suite de la manière d’améliorer encore le dispositif.

La commission rejette l’amendement.

Amendements identiques CS530 de Mme Louise Morel et CS404 de M. Éric Bothorel

Mme Louise Morel, rapporteure. Il s’agit de revenir à la rédaction approuvée par le Conseil d’État, qui vise à n’inclure dans le filtre anti-arnaque que les sites conçus dès l’origine à des fins d’arnaque. À défaut, on changerait la nature du dispositif, ce qui créerait un risque sur la constitutionnalité de l’article.

M. Jean-Noël Barrot, ministre délégué. Avis favorable. Je rends hommage au travail d’Éric Bothorel, qui a largement inspiré la proposition du filtre anti-arnaque.

La commission adopte les amendements.

Amendements identiques CS534 de Mme Louise Morel, CS659 de Mme Mireille Clapot et CS406 de M. Éric Bothorel, et amendements CS213 de M. Laurent Esquenet-Goxes et CS255 de M. Aurélien Lopez-Liguori (discussion commune)

Mme Louise Morel, rapporteure. Cet amendement vise à inclure les faux sites de vente dans le champ d’application du filtre anti-arnaque. Chaque mot a été pesé pour éviter que l’extension du dispositif n’en affaiblisse la constitutionnalité. C’est pourquoi nous ne visons pas l’escroquerie en général, ce qui donnerait une marge d’appréciation trop importante à l’administration.

Mme Mireille Clapot (RE). Selon cybermalveillance.gouv.fr, l’hameçonnage concentre 80 % des demandes d’assistance, ce qui en fait le principal acte de malveillance en ligne. Faciles à diffuser, les opérations d’hameçonnage touchent des milliers voire des millions de personnes : il suffit d’un lien dans un mail ou un SMS prétendant être un service connu pour être renvoyé vers un site frauduleux dont le but est d’usurper votre identité, collecter vos données personnelles ou contrefaire vos moyens de paiement.

L’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC) a signalé que les infractions visées à l’article 226-4-1, 226-18 et 323-1 du code pénal ou à l’article L. 163-4 du code monétaire et financier sont insuffisantes à qualifier l’hameçonnage. Par cet amendement, le groupe Renaissance et les députés apparentés souhaitent donc ajouter l’hameçonnage comme constitutif des escroqueries en ligne au sens de l’article 313-1 du code pénal et préciser ce que sont les opérations d’hameçonnage.

M. Éric Bothorel (RE). Le numérique et la criminalité concentrent beaucoup d’innovation et de créativité. C’est pourquoi il faut définir dans le droit de nouveaux objets, qui permettent de qualifier ces délits et crimes, pour mieux les cibler et instaurer des mécanismes de réponse.

M. Laurent Esquenet-Goxes (Dem). L’article 6 prévoit l’affichage d’un message d’avertissement dans le navigateur des internautes souhaitant accéder à une adresse internet présentant un risque avéré d’arnaque ou d’escroquerie. Nous proposons qu’un tel message concerne également les adresses internet rendant accessibles des données obtenues par piratage. Les données frauduleusement obtenues sont consultées massivement et cette simple consultation n’est pas qualifiable pénalement, alors qu’elle participe à l’escalade de l’hameçonnage. Un message d’avertissement associé à une qualification pénale de la consultation de telles données constituerait un outil efficace pour lutter contre cette violation du respect de la vie privée.

L’amendement admet toutefois comme exception les lanceurs d’alerte, qui doivent parfois publier des informations volées.

Mme Louise Morel, rapporteure. Avis favorable aux amendements identiques.

Monsieur Esquenet-Goxes, l’exception que vous proposez pour les contenus issus d’une démarche engagée par un lanceur d’alerte n’entre pas dans le champ du filtre anti-arnaque : celui-ci ne vise pas à empêcher l’utilisateur de commettre une infraction mais à lui éviter d’être victime. L’adoption de votre amendement changerait la nature du dispositif et risquerait de l’affaiblir sur le plan constitutionnel. Je vous propose de le retirer ; à défaut, j’émettrai un avis défavorable.

Sur l’amendement de M. Aurélien Lopez-Liguori, l’avis est défavorable.

M. Jean-Noël Barrot, ministre délégué. Les amendements identiques tendent à insérer à l’alinéa 2 une précision très utile pour garantir l’efficacité du filtre contre les campagnes d’hameçonnage. Avis favorable.

Nous avons déjà débattu du dispositif de l’amendement CS213 au Sénat. Vous voulez que la puissance publique interdise la consultation de sites hébergeant des données obtenues frauduleusement. Une telle mesure risque fort d’être inconstitutionnelle. En 2017, le Conseil constitutionnel a censuré à deux reprises le délit de consultation habituelle de sites à caractère terroriste. Avis défavorable.

L’amendement CS255 est satisfait puisque la précision est redondante. Demande de retrait ; sinon, avis défavorable.

M. Jean-François Coulomme (LFI-NUPES). Il serait fort dangereux de pénaliser la consultation de données issues d’un piratage au prétexte qu’on se prémunirait des abus en excluant les lanceurs d’alerte du dispositif. D’abord, qui définit ce qu’est un lanceur d’alerte ? La journaliste Ariane Lavrilleux vient d’être libérée, après quarante heures de garde à vue. Elle fait partie de ceux qui ont mis à disposition, sur un site internet, des informations qu’un gouvernement, autoritaire par exemple, considère secrètes. En réalité, c’est une lanceuse d’alerte. Qui distinguera les données piratées des publications des lanceurs d’alerte ?

La commission adopte les amendements identiques.

En conséquence, les autres amendements tombent.

Amendement CS510 de M. Stéphane Vojetta

M. Stéphane Vojetta (RE). Nous sommes tous certains de la rapidité de l’entrée en vigueur du référentiel mentionné à l’article 1er, grâce auquel les mineurs n’auront plus accès aux sites pornographiques. Toutefois, nous ne connaissons pas le délai exact : que pouvons-nous faire en attendant ? J’ouvre le débat avec une proposition, sans doute techniquement et juridiquement imparfaite.

L’amendement vise à élargir le périmètre du filtre anti-arnaque pour qu’il s’applique aux plateformes pornographiques qui ne respectent pas l’obligation du blocage de l’accès aux mineurs, pendant l’élaboration du référentiel de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom). Une autorité compétente qui constaterait qu’une plateforme n’interdit pas l’accès aux mineurs pourrait ainsi activer le filtre afin de protéger les enfants.

Mme Louise Morel, rapporteure. L’intention est louable mais il ne faut pas mélanger les dispositifs de retrait de contenu – qui font l’objet d’autres articles – et le filtre anti-arnaque. Celui-ci ne s’applique qu’aux fraudes évidentes, aux faux sites qui ne sont que des interfaces de façade n’offrant aucune contrepartie à l’utilisateur piégé. L’objectif est de pouvoir agir vite, par la voie administrative, or le mélange des dispositifs risquerait d’affaiblir l’efficacité de la mesure et sa constitutionnalité. Demande de retrait ; à défaut, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Vous avez le mérite de vouloir affermir la cohérence entre les articles. L’application de l’article 6 conduira à créer une liste de sites malveillants, actualisée à haute fréquence, pour permettre les filtrages et les blocages. Un tel mécanisme suppose un spectre le plus étroit possible. C’est pourquoi la précédente série d’amendements visait à préciser qu’il s’agit d’hameçonnage : seuls les sites malveillants manifestement conçus à cette fin seront pris dans le filet. La précision ici garantit la sécurité juridique du dispositif. Demande de retrait ; sinon, avis défavorable.

M. Stéphane Vojetta (RE). L’objectif n’est pas de fragiliser ce dispositif essentiel, que je soutiens pleinement.

L’amendement est retiré.

Amendement CS95 de M. Philippe Latombe.

M. Philippe Latombe (Dem). Je ne suis pas opposé au filtre anti-arnaque. Toutefois, je continue à m’interroger, notamment sur le plan technique, même si M. Bothorel a expliqué l’intérêt d’appliquer la mesure au niveau des navigateurs. Pourquoi ne pas prévoir que les interfaces de programmation d’application (API) ou les add-ons des navigateurs constitueront des listes, afin d’éviter les possibles conflits de normes, en particulier avec les États-Unis, et d’embrasser les logiciels libres téléchargés, pour lesquels nous n’aurons pas d’éditeur accessible ?

Mme Louise Morel, rapporteure. Nous entrons dans le débat sur le choix entre blocage et filtrage, qui nous conduit à distinguer les fournisseurs d’accès à internet et les navigateurs. Vous voulez exclure les seconds du dispositif, au moins durant la phase de filtrage, parce que vous estimez que seuls les fournisseurs d’accès devraient pouvoir procéder au blocage. L’amendement CS620 de M. Éric Bothorel, que nous examinerons dans un instant, répondra à plusieurs de vos objections.

En l’état de la technique, les fournisseurs d’accès à internet ne savent faire que du blocage et les navigateurs, que du filtrage. Exclure les navigateurs du dispositif reviendrait à supprimer le filtrage. Or il serait trop brutal de bloquer les sites dès la phase de suspicion, alors même qu’ils auraient rempli les obligations légales d’identification. Pour le moment, la solution la plus sage consiste à maintenir la mesure de filtrage, appliquée par les navigateurs, pour la première étape.

Lorsque l’éditeur du site dépose un recours, celui-ci est immédiatement suspensif. Le dispositif ne présente donc pas de véritable risque de dérive. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Dès qu’un site aura été identifié comme malveillant, il appartiendra au navigateur d’en filtrer l’adresse, sans en bloquer l’accès, pendant sept jours. Si l’éditeur est connu, il disposera de ce délai pour signaler qu’il n’est pas malveillant. Les mesures éventuelles de blocage n’interviendront qu’après. Le rôle des navigateurs est donc essentiel. Sans eux, il faudrait soit bloquer directement l’accès au site – ce serait brutal, en particulier en cas d’erreur –, soit laisser l’accès libre au site pendant les sept jours durant lesquels l’éditeur peut contester la décision, ce qui n’est pas satisfaisant non plus : les auteurs d’hameçonnage lancent leurs filets en envoyant d’un coup 100 000 SMS, ils piègent les données bancaires ou les données personnelles des victimes puis effacent leurs traces en supprimant le site internet lié après seulement vingt-quatre ou quarante-huit heures.

Nous reparlerons de l’articulation entre les rôles des fournisseurs d’accès à internet, des résolveurs DNS (système de noms de domaine) et des navigateurs lors de l’examen des amendements CS620 et CS621 de M. Éric Bothorel. En attendant, je vous propose de retirer le vôtre ; à défaut, l’avis sera défavorable.

M. Éric Bothorel (RE). Pour que le filtre soit efficace, il faut être agile et réactif pour détecter les URL malveillantes et identifier leur capacité à être implémentées dans différents systèmes. M. Latombe propose de distinguer les différents acteurs. Entre l’internaute et le site de compromission, on trouve le fournisseur d’accès à internet, le résolveur DNS, le navigateur. Parfois, un seul acteur fournit tous les services, mais ils peuvent être distincts ; Cloudfare, par exemple, n’offre que la résolution DNS ; le plus souvent, les FAI la fournissent également ; certains navigateurs proposent le DOH, c’est-à-dire le DNS over HTTPS, qu’ils utilisent le serveur DNS du fournisseur ou le leur propre.

Les cybercriminels ont une longueur d’avance sur nous. Pour les battre, il faut rassembler tous les acteurs concernés sur la ligne de départ.

La commission rejette l’amendement.

Amendement CS306 de Mme Sophia Chikirou

Mme Élisa Martin (LFI-NUPES). Il vise à supprimer les alinéas 7 à 14, par lesquels un pouvoir disproportionné serait confié à une autorité administrative non définie – il est parfois compliqué de travailler sur les textes du Gouvernement, tant ils sont imprécis –, qui pourra bloquer l’accès à des sites, sans contrôle judiciaire.

Nous ne nous opposons évidemment pas à la lutte contre les arnaques en ligne, nombreuses et diverses. Cependant, ce dispositif risque d’être inefficace et d’avoir des conséquences indésirables. Une telle mesure pourrait induire le grand public à imaginer qu’un site qui n’a pas été bloqué n’est pas malveillant. Or il sera impossible de bloquer les sites concernés à l’instant t de leur publication.

Non seulement l’atteinte aux libertés publiques est disproportionnée, mais le dispositif est inefficace.

Mme Louise Morel, rapporteure. Comme le précédent, cet amendement serait techniquement inopérant, puisque les fournisseurs d’accès à internet ne pourraient pas filtrer les sites – ils ne savent que les bloquer. Outre qu’il déconstruit le dispositif, il comporte des imprécisions rédactionnelles qui en rendent la constitutionnalité hasardeuse, comme le fait qu’une autorité administrative puisse déconseiller l’accès à un site. Avis défavorable.

Mme Élisa Martin (LFI-NUPES). Vous n’avez absolument pas répondu à mes questions, ni à mes objections.

M. Jean-Noël Barrot, ministre délégué. Le filtre anti-arnaque fonctionne – des pays comme la Belgique, le Royaume-Uni ou le Canada l’ont testé –, pourvu que chacun des acteurs concernés, fournisseurs d’accès, résolveurs DNS et navigateurs, joue son rôle. Ce n’est pas parce que c’est compliqué qu’il ne faut pas essayer. On découvre tous les jours de nouvelles cyberarnaques incroyables, qu’il faut bien distinguer de la cybercriminalité du haut du spectre, celle qui s’attaque à des grandes entreprises ou à des hôpitaux. La dernière en date a consisté à voler les cartes SIM des boîtiers d’appel d’urgence équipant les ascenseurs de HLM d’Aubervilliers pour envoyer des SMS frauduleux. Quatre mille familles ont été touchées par l’arrêt forcé des ascenseurs provoqué par des petits malins, pas des grands criminels internationaux. Il est vraiment facile de constituer un fichier de données bancaires en utilisant simplement la carte SIM d’un ascenseur.

Nous avons beaucoup travaillé et nous allons sûrement encore améliorer le dispositif au cours de l’examen du texte. Nos autorités compétentes se préparent à déployer ce filtre pour mettre fin à bien des situations ubuesques qui plongent trop souvent nos concitoyens dans le désarroi. Avis défavorable.

Mme Louise Morel, rapporteure. Je vous présente mes excuses, madame la députée, j’ai anticipé la réponse à l’amendement CS444, que vous défendrez dans un instant. L’amendement que vous avez défendu tend à empêcher toute possibilité de blocage de sites dont les concepteurs n’ont même pas respecté les obligations d’identification, donc à affaiblir considérablement le dispositif. Avis défavorable.

Mme Élisa Martin (LFI-NUPES). L’exemple de la carte SIM des ascenseurs n’a pas de rapport avec la mesure que nous examinons. Dans un tel cas, le mal est fait avant qu’on puisse réagir. Les voleurs ne sont pas idiots, ils auront envoyé les messages d’hameçonnage aussitôt.

Encore une fois, nous sommes inquiets de la disproportion entre l’atteinte aux libertés publiques et l’inefficacité du dispositif.

M. Jean-Noël Barrot, ministre délégué. Il est vrai que le filtre anti-arnaque n’empêchera pas les vols de carte SIM dans les ascenseurs, mais il sera utile dans l’hameçonnage pour lequel elles seront utilisées. Les SMS frauduleux, comme chacun d’entre nous a pu en recevoir, prétendument envoyés par Chronopost, l’Agence nationale de traitement automatisé des infractions, Crit’Air, le compte personnel de formation ou encore la sécu, contiennent un lien vers un site, souvent identique à celui de l’organisme choisi. Dès que l’adresse du site sera signalée aux autorités, elles vérifieront qu’il a été manifestement conçu pour pratiquer l’hameçonnage. Immédiatement, la procédure s’appliquera et le site sera filtré, si l’éditeur en est connu ; bloqué, s’il est inconnu. Ça marchera !

La commission rejette l’amendement.

Amendement CS444 de Mme Sophia Chikirou

Mme Élisa Martin (LFI-NUPES). De repli en repli, je me demande où nous arriverons. Vous ne répondez jamais à la question de l’atteinte aux libertés publiques, en particulier avec le transfert d’un pouvoir judiciaire à une autorité administrative.

En dernier recours, nous proposons que grâce à une information, les utilisateurs puissent bloquer eux-mêmes les sites malveillants, dont la liste ne pourra évidemment être parfaitement exacte, en temps réel.

Mme Louise Morel, rapporteure. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Le filtre dispose de garanties procédurales, qui assurent que l’application sera nécessaire, adaptée et proportionnée. Le périmètre de la cybermenace concernée, l’hameçonnage, est strictement limité ; si le propriétaire du site est connu, une procédure contradictoire est engagée simultanément avec l’affichage d’un message d’avertissement ; le bien-fondé de la mesure est obligatoirement réexaminé à intervalle régulier – trois mois, puis six mois –, sous le contrôle et après avis d’une personnalité qualifiée rattachée à la Commission nationale de l’informatique et des libertés (Cnil) ; à tout instant, l’administration peut demander la levée des mesures de filtrage s’il apparaît que le constat d’infraction n’est plus valable.

S’ajoute une garantie de contrôle, qu’exerce la personnalité qualifiée rattachée à la Cnil : elle vérifie que les mesures sont justifiées et l’intégrité de la liste des sites ; à tout moment, elle peut enjoindre à l’administration de mettre fin aux mesures de filtrage ; elle recueille et instruit les recours administratifs éventuellement formulés par les éditeurs de sites filtrés, avec effet suspensif pendant l’instruction.

J’espère que ces éléments seront de nature à vous rassurer.

La commission rejette l’amendement.

Amendement CS345 de Mme Emeline K/Bidi

Mme Emeline K/Bidi (GDR-NUPES). Dans sa délibération du 20 avril 2023, la Cnil distingue différents niveaux de filtrage, selon qu’interviennent les fournisseurs d’accès à internet, les fournisseurs de systèmes de résolution de noms de domaine ou les fournisseurs de navigateurs. Si l’efficacité du filtrage est comparable, l’atteinte aux libertés individuelles varie grandement. Nous sommes soucieux de protéger les usagers d’internet des fraudes, mais également de préserver les droits fondamentaux. Cet amendement vise à limiter le dispositif à la méthode de filtrage la moins attentatoire aux libertés.

Mme Louise Morel, rapporteure. Vous reprenez une préconisation de la Cnil émise avant la rédaction de la dernière version du texte. Entre-temps, la position de la Cnil a évolué, comme le dispositif. La distinction entre navigateur et fournisseur d’accès à internet satisfait l’esprit de votre amendement. Celui-ci tend à donner la priorité au filtrage, mais nous avons besoin que les fournisseurs d’accès à internet interviennent aussi dans le dispositif. Demande de retrait ; sinon, avis défavorable.

La commission rejette l’amendement.

Amendement CS429 de Mme Virginie Duby-Muller

Mme Virginie Duby-Muller (LR). L’amendement tend à porter à deux jours minimum le délai que l’autorité administrative laisse aux navigateurs, aux fournisseurs d’accès à internet et aux résolveurs pour appliquer ses décisions, afin d’uniformiser les délais prévus aux différents articles du texte visant à bloquer des contenus illicites.

Mme Louise Morel, rapporteure. Les navigateurs peuvent mettre en place le filtre en moins d’une heure. Un délai de deux jours paraît excessif et ne permettrait pas de casser le modèle économique de ces sites malveillants. Avis défavorable.

La commission rejette l’amendement.

Elle adopte les amendements identiques, de clarification rédactionnelle, CS536 de Mme Louise Morel, rapporteure, et CS410 de M. Éric Bothorel.

Amendements CS620 et CS621 de M. Éric Bothorel (discussion commune)

M. Éric Bothorel (RE). Ces deux amendements répondent aux questions posées par M. Latombe et par nos collègues de la NUPES.

L’amendement CS621 est un amendement de repli ; il vise à préciser que les fournisseurs de navigateurs, dans le cadre du processus de protection des utilisateurs, utilisent leur faculté de filtrage et devront répondre aux exigences et aux grands principes du projet de loi. L’amendement CS620 est plus ambitieux puisqu’il précise que les fournisseurs de navigateurs permettront aux utilisateurs d’accéder à l’adresse d’un service dont l’accès est empêché.

C’est une façon de reconnaître que, dans la gradation des actions proposées par le Gouvernement, les fournisseurs de navigateurs ont un rôle de filtrage. Cela répond en partie aux attentes de la fondation Mozilla et à tous ceux qui se sont légitimement manifestés à ses côtés.

Mme Louise Morel, rapporteure. Merci pour votre travail sur ce sujet. Vous introduisez une différence de traitement entre les différents fournisseurs, mais elle est rationnelle et correspond à l’état de la technique. Je suis favorable à l’amendement CS620 et demande, en conséquence, le retrait de l’amendement CS621.

M. Jean-Noël Barrot, ministre délégué. Sagesse sur l’amendement CS620, demande de retrait de l’amendement CS621.

La proposition, qui tient compte de certaines remarques formulées ici, est un peu moins protectrice que ce que proposait le texte à l’origine, les utilisateurs ayant la possibilité d’accéder à des sites ayant pourtant manifestement pour objet de les arnaquer.

Dès lors que des mesures de blocage seraient demandées aux FAI, le fait que les navigateurs offrent ou non la possibilité d’accéder au site en question est sans objet, le site étant de toute façon bloqué en amont.

L’article 6 dote l’autorité administrative d’un pouvoir d’injonction dont elle peut moduler l’exercice au regard du cas présenté et du but recherché : il sera possible d’orienter le choix du fournisseur pertinent, en fonction du niveau de finesse qu’elle souhaitera atteindre.

Il est clair que, pour un lien unique malveillant, par exemple une page d’un réseau social, l’autorité administrative sollicitera les navigateurs, dont nous savons qu’ils sont plus précis puisqu’ils permettent d’intervenir au niveau de l’URL complète, là où les FAI sont techniquement limités au blocage DNS, c’est-à-dire au niveau du nom de domaine. Il faut éviter tout risque de rendre inaccessible un site grand public tout entier. C’est le sens de la notion de « mesure utile » qui figure à l’alinéa 7 : s’il n’était pas jugé utile d’aller jusqu’au blocage, l’autorité administrative se limiterait aux pouvoirs qui lui sont attribués au I, et donc à solliciter les navigateurs pour un filtrage. La majorité des sites visés, en raison du niveau de granularité recherchée, seront filtrés au niveau du navigateur. D’une certaine façon, votre amendement est donc en pratique satisfait.

M. Paul Midy, rapporteur général. Je remercie à mon tour M. Bothorel. Le filtrage, quand il est possible, nous paraît préférable au blocage. J’espère que tous ceux qui se sont impliqués voteront avec nous cet amendement.

La commission adopte l’amendement CS620.

En conséquence, l’amendement CS621 tombe.

Amendements CS538 de Mme Louise Morel et CS423 de M. Éric Bothorel (discussion commune)

Mme Louise Morel, rapporteure. Il s’agit d’un amendement de clarification rédactionnelle visant à préciser que le renvoi vers une page d’information ne doit pas nécessairement viser une page de l’autorité administrative.

Je demande le retrait du CS423 au profit du CS538, mieux rédigé.

L’amendement CS423 est retiré.

La commission adopte l’amendement CS538.

En conséquence, l’amendement CS89 de Mme Christine Engrand tombe.

Amendements identiques CS547 de Mme Louise Morel et CS418 de M. Éric Bothorel

Mme Louise Morel, rapporteure. Il s’agit de supprimer l’avis conforme de la personnalité qualifiée pour la prolongation de la mesure. C’est une demande de la Cnil.

La commission adopte les amendements.

Elle adopte successivement les amendements rédactionnels CS544 et CS545 de Mme Louise Morel, rapporteure.

Amendement CS417 de M. Éric Bothorel

M. Éric Bothorel (RE). Cet amendement tend à supprimer l’alinéa 10, qui créerait une charge administrative trop importante.

Suivant l’avis de la rapporteure, la commission adopte l’amendement.

Amendements identiques CS541 de Mme Louise Morel et CS413 de M. Éric Bothorel

Mme Louise Morel, rapporteure. Il s’agit de supprimer l’alinéa 13, qui prévoit que l’autorité administrative peut notifier les adresses électroniques litigieuses aux moteurs de recherche ou aux annuaires, lesquels prennent toutes mesures utiles destinées à faire cesser le référencement. Cette disposition ne paraît pas opportune.

La commission adopte les amendements.

Amendements CS542 de Mme Louise Morel et CS420 de M. Éric Bothorel (discussion commune)

Mme Louise Morel, rapporteure. L’amendement CS542 est rédactionnel.

L’amendement CS420 est retiré.

La commission adopte l’amendement CS542.

Amendement CS6 de M. Philippe Ballard

M. Alexandre Sabatou (RN). Le blocage étant suspendu le temps du recours, il importe de protéger les utilisateurs en les informant du risque de préjudice encouru.

Mme Louise Morel, rapporteure. La suspension est une garantie importante, qui contribue à la constitutionnalité du dispositif. Demande de retrait ; à défaut, avis défavorable.

La commission rejette l’amendement.

Amendements identiques CS937 de Mme Louise Morel et CS7 de M. Philippe Ballard

Mme Louise Morel, rapporteure. Il s’agit de compléter le rapport d’activité par des statistiques sur les issues réservées aux recours exercés.

La commission adopte les amendements.

Amendement CS630 de M. Éric Bothorel

M. Éric Bothorel (RE). Cet amendement vise à prévoir que la liste des sites faisant l’objet de demandes de l’administration est rendue publique. Cette transparence nourrira la confiance.

Il existe un outil qui fonctionne de manière similaire à celui que nous voulons construire : Google Safe Browsing examine 700 000 adresses toutes les minutes, mais on ne sait pas lesquelles sont bloquées. Je préfère la transparence.

Nous proposons que cette publication ait lieu dans un délai de soixante-douze heures après l’envoi de la notification ou de l’injonction.

Mme Louise Morel, rapporteure. Avis très favorable.

M. Jean-Noël Barrot, ministre délégué. Avis très favorable également. De cette façon, le dispositif inspirera confiance. Cela devrait rassurer tous ceux qui, ici, s’inquiètent des garanties apportées.

La commission adopte l’amendement.

Elle adopte l’amendement rédactionnel CS546 de Mme Louise Morel, rapporteure.

Amendement CS5 de M. Philippe Ballard

M. Alexandre Sabatou (RN). Cet amendement permet de s’assurer que le décret en Conseil d’État ne sera pas contraire à l’avis de la Cnil.

Mme Louise Morel, rapporteure. L’avis simple prévu par le texte paraît suffisant. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. Je comprends votre volonté. Toutefois, vous conviendrez que l’avis du Conseil d’État, rendu sur la base de l’avis de la Cnil, est en soi gage de la qualité de la norme qui sera produite. En outre, selon la jurisprudence du Conseil constitutionnel, la soumission d’un acte réglementaire du Gouvernement à un avis conforme d’autorité administrative indépendante du Gouvernement est inconstitutionnelle ; ce serait une atteinte à la séparation des pouvoirs et reviendrait à lier le pouvoir réglementaire.

La commission rejette l’amendement.

La commission adopte l’article 6 modifié.

Après l’article 6

Amendements CS666 et CS660 de M. Bruno Studer

M. Bruno Studer (RE). Ces amendements portent sur la santé mentale des modérateurs. La modération de contenus que nous ne supporterions pas longtemps nous-mêmes est souvent sous-traitée, et c’est là un métier particulièrement difficile. Dans le cadre d’un droit souple, les plateformes pourraient se doter de chartes qui édicteraient des standards de prise en charge, d’accompagnement et de formation pour tous ceux qui sont chargés de faire tout ce que nous exigeons, c’est-à-dire de civiliser un réseau où l’on perd parfois de vue ce qu’est un être humain.

Je propose de confier à l’Arcom le soin de vérifier que ces chartes existent et sont améliorées au fil du temps, mais aussi de faire du name and shame, c’est-à-dire de jouer sur l’enjeu de la réputation des plateformes.

Mme Louise Morel, rapporteure. Je suis assez réservée sur ces amendements, car je crains que les plateformes ne se prévalent de cette charte pour ne plus se préoccuper de la santé mentale des modérateurs. Rediscutons-en en vue de la séance. L’amendement devrait aussi être plus normatif.

M. Jean-Noël Barrot, ministre délégué. Même avis. Il paraît difficile d’imposer aux plateformes des chartes qui concernent des travailleurs qui ne relèvent pas du droit du travail français. On entrerait, en outre, dans le champ du règlement sur les services numériques, et donc dans le champ de compétence de la Commission européenne.

M. Bruno Studer (RE). C’est tout de même du droit très souple que je propose ! La loi sur les enfants influenceurs a réussi à imposer aux plateformes une charte des bonnes pratiques. Loin de moi l’idée d’écrire une loi bavarde, mais je pense qu’il y a là une vraie question. Nous exigeons beaucoup de ces plateformes, et c’est très bien ; mais en bout de chaîne, il y a des hommes et des femmes qui ont besoin d’être accompagnés.

Mme la rapporteure proposant de travailler à une meilleure rédaction en vue de la séance publique, je retire les deux amendements, même si je pourrais, je pense, faire voter cette mesure ce soir.

Les amendements sont retirés.

Amendement CS646 de M. Erwan Balanant

M. Erwan Balanant (Dem). Les plateformes, les réseaux sociaux polluent l’espace public ; leurs algorithmes provoquent des propos et des attitudes regrettables qui rendent le monde numérique dur, conflictuel, voire criminogène.

Lorsque j’ai écrit, en 2020, un rapport sur le harcèlement scolaire, j’avais proposé d’appliquer à l’espace numérique le principe pollueur-payeur : celui qui pollue un écosystème doit le réparer et le protéger. Cet amendement d’appel demande au Gouvernement un rapport sur l’opportunité de créer un fonds, alimenté par les entreprises du numérique, dédié à la lutte contre la haine en ligne.

C’est une idée qui s’appuie sur l’article L. 110‑1 du code de l’environnement, qui dispose que « les frais résultant des mesures de prévention, de réduction de la pollution et de lutte contre celle-ci doivent être supportés par le pollueur ». Les écosystèmes numériques sont pollués ; il faut que quelqu’un les répare.

Mme Louise Morel, rapporteure. L’idée d’un fonds me paraît intéressante. Toutefois, j’émets un avis défavorable, car il me semble que cette question aurait plutôt sa place dans un débat budgétaire.

M. Jean-Noël Barrot, ministre délégué. Avis défavorable également. Nous sommes là encore dans le champ du règlement sur les services numériques, qui prévoit déjà un principe pollueur-payeur. L’alinéa 1 de l’article 43 indique que « la Commission perçoit auprès des fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne une redevance de surveillance annuelle au moment de leur désignation en vertu de l’article 33 ». Ces sommes servent notamment à financer la centaine d’emplois qui servent à faire appliquer ce règlement dans l’Union.

La commission rejette l’amendement.

 

5.    Première réunion du jeudi 21 septembre 2023 à 9 heures 30

Lien vidéo : https://assnat.fr/xxqvgk

M. le président Luc Lamirault. Nous commençons l’examen du titre III, dont la rapporteure est Mme Le Hénanff. Nous avons examiné 374 amendements ; il en reste 298.

TITRE III

RENFORCER LA CONFIANCE ET LA CONCURRENCE DANS L’ÉCONOMIE DE LA DONNÉE

Chapitre Ier

Pratiques commerciales déloyales entre entreprises sur le marché de l’informatique en nuage

Article 7 : Encadrement des crédits d’informatique en nuage et des frais de transfert

Amendement CS907 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure du titre III. Il vise à aligner la définition du service d’informatique en nuage retenue dans le projet de loi sur celle du règlement européen sur les données – le Data Act.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique. Avis favorable. Je remercie Mme la rapporteure pour la qualité de son travail. Les amendements qu’elle a déposés – auxquels le Gouvernement est favorable – permettront d’enrichir le texte.

La commission adopte l’amendement.

Amendement CS908 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Il vise à supprimer le mot « temporaire » à l’alinéa 4, afin d’éviter de créer une voie de contournement de l’encadrement des avoirs d’informatique en nuage, alors que c’est précisément l’alinéa 5 qui a pour objet d’en limiter la durée.

La commission adopte l’amendement.

Amendement CS909 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Il vise également à assurer une cohérence rédactionnelle avec le Data Act, dans lequel figure le terme « client », et non pas celui d’« utilisateurs ».

La commission adopte l’amendement.

Amendement CS176 de M. Philippe Latombe

M. Philippe Latombe (Dem). L’amendement tend à introduire le terme de « logiciel d’entreprise » et à en donner une définition. Il vise également à interdire à tout fournisseur de services d’informatique en nuage qui développe également des logiciels d’entreprise d’imposer, dans le cadre de ses contrats de licence logicielle ou de tout autre façon, des conditions empêchant le détenteur de sa licence d’utiliser ce logiciel d’entreprise avec les services d’informatique en nuage d’un fournisseur tiers. L’objectif est d’éviter les ventes liées et de préserver le choix du fournisseur de services infonuagiques : le service de cloud ne doit pas être imposé par les éditeurs de logiciels d’entreprise.

Mme Anne Le Hénanff, rapporteure. Dans le cadre de la régulation des pratiques anticoncurrentielles, l’Autorité de la concurrence a déjà soulevé ce point plusieurs fois, en particulier à l’occasion de son avis sur le marché du cloud. S’il faudra assurément faire évoluer notre droit, votre amendement comporte des effets de bord, notamment pour la filière française des éditeurs de logiciel. Si je partage votre volonté de réguler les abus des grands opérateurs internationaux, je vous invite à le retirer et à le réécrire.

M. Jean-Noël Barrot, ministre délégué. Même avis. Le problème que vous soulevez est réel. D’ailleurs, la Commission européenne a ouvert, au mois de juillet, une enquête visant à déterminer si l’un des acteurs dominants de ce marché – Microsoft – avait enfreint les règles de la concurrence de l’Union européenne en liant son application de visioconférence avec sa suite de logiciels Microsoft 365. Votre amendement n’a pas exactement le même objet, mais il s’y apparente puisqu’il concerne l’articulation entre les couches matérielles et logicielles du cloud.

De son côté, l’Autorité de la concurrence française a remis un rapport, dans lequel elle soulève cette question. Elle est en train d’examiner l’opportunité d’engager ou non des enquêtes approfondies, assorties, le cas échéant, de sanctions, s’il était avéré que ces pratiques de ventes liées sont déloyales.

Est-il opportun de réguler a priori en imposant des normes d’interopérabilité ou faut-il laisser les autorités de la concurrence intervenir a posteriori, comme cela se faisait avant l’adoption du règlement sur les marchés numériques (DMA) ? L’Union européenne a commencé à interdire a priori certaines pratiques déloyales. On ne l’a pas suffisamment souligné mais, ce faisant, elle a pris une décision historique. Dans l’économie numérique, les abus de position dominante se forment plus rapidement que dans l’économie traditionnelle ; le temps laissé aux autorités de la concurrence pour diligenter les enquêtes et éventuellement prononcer des sanctions est trop long et permet d’étouffer définitivement la concurrence. Sur le segment de l’économie numérique que vous visez, la question d’imposer des normes d’interopérabilité se pose donc, en effet.

Cependant, s’il est souhaitable sur le principe, le dispositif d’interopérabilité que vous proposez risque d’affecter l’écosystème français. Celui-ci est très fortement soutenu par le Gouvernement au travers, en particulier, du volet cloud du plan France 2030 qui apporte un soutien direct aux acteurs, tant au niveau logiciel que matériel, et de la politique de certification conduite par l’Agence nationale de la sécurité des systèmes d’information (Anssi), garantissant des offres d’hébergement présentant un niveau de sécurité et d’immunité aux législations extraterritoriales suffisant. Or votre amendement suscite l’inquiétude d’une partie de la filière française de l’infonuagique – du cloud. Nous devons donc nous assurer que l’interopérabilité, théoriquement souhaitable, ne conduise pas à pénaliser des acteurs émergents ou déjà établis et en forte croissance dans notre pays.

M. Philippe Latombe (Dem). Non seulement je ne retire pas mon amendement, mais j’invite même à l’adopter, pour m’assurer que nous en rediscuterons en séance publique.

Quelles sont les entreprises inquiètes ? Celles que j’ai rencontrées en vue de rédiger l’amendement ne m’ont pas renvoyé un tel écho. Il y a un problème avec des entreprises qui font de la vente liée et prennent les marchés. Pour faire du name and shame de part et d’autre de l’Atlantique, je peux citer l’exemple de SAP, qui a décidé que les mises à jour de son logiciel se feraient non plus on-premise – sur site – mais sur un cloud américain, ou encore de Salesforce qui, avec AWS, prend l’intégralité du marché et héberge les données des clients d’entreprises publiques comme EDF et SNCF. Le combiné Salesforce avec un opérateur tiers rend les choses difficiles ; l’Autorité de la concurrence intervient trop tardivement et peu efficacement, puisque les sanctions sont provisionnées par les entreprises, donc indolores. Le problème doit être réglé en amont ; a posteriori, il est trop tard pour rétablir le marché.

M. Jean-Noël Barrot, ministre délégué. Je le redis, je suis très défavorable à cet amendement. Nous avons des acteurs français qui travaillent dur et investissent beaucoup pour développer des solutions d’infonuagique. Parmi eux, un consortium, déterminant pour notre souveraineté, formé par Dassault Systèmes, La Poste à travers Docaposte, Bouygues Telecom et la Banque des territoires, développe une offre complète de cloud, des briques matérielles jusqu’aux briques logicielles. Il investit beaucoup pour obtenir la certification SecNumCloud et mettre sa solution au service des différents acteurs au plus vite – il me semble d’ailleurs que cela fera l’objet d’un autre de vos amendements.

Or ce consortium, qui va être déterminant pour équiper les administrations, essaie de jouer à armes égales avec les acteurs aux pratiques déloyales que vous dénoncez, en développant, lui aussi, une solution tout-en-un. L’adoption de votre amendement l’obligerait à rendre sa dernière brique logicielle compatible avec les briques matérielles AWS, Microsoft ou Google, et cela lui ferait perdre la bataille. Certes, tous les acteurs français n’ont pas adopté cette stratégie tout-en-un, mais tous ceux qui l’ont fait sont inquiets. Veillons à ne pas faire de cadeau aux géants du numérique.

M. Jean-François Coulomme (LFI-NUPES). Notre opinion est exactement inverse. Nous considérons que l’interopérabilité ne constitue pas une menace pour le marché français ; ce serait, au contraire, une vertu. Il n’y aurait pas grand intérêt à remplacer la prédominance de Microsoft par celle de Dassault. Nous revendiquons même une interopérabilité absolue.

Mme Ségolène Amiot (LFI-NUPES). Seules 20 % des entreprises françaises étant passées à un système de cloud, il est fâcheux de garder captives certaines de nos entreprises clefs sur des serveurs américains. La justice américaine n’est pas totalement indépendante, puisque soumise à l’Agence nationale de sécurité des États-Unis (NSA) et à l’Agence centrale de renseignement (CIA). Il serait dommage que certains de nos fleurons industriels soient espionnés au profit de puissances étrangères – par exemple, les plans d’Airbus ne sont pas stockés sur des serveurs français.

M. Aurélien Lopez-Liguori (RN). Nous étions plutôt d’accord avec M. Latombe, puisqu’une grande partie des acteurs français ne développe pas l’intégralité des briques, mais le cas de NumSpot évoqué par M. le ministre délégué est intéressant. Dans une logique de souveraineté, on ne peut pas considérer que passer de Microsoft ou AWS à Dassault revient seulement à échanger un grand groupe capitaliste pour un autre. Nous devons soutenir nos entreprises, soutenir NumSpot, qui sera vraisemblablement le plus gros cloud français. Indubitablement, Dassault c’est mieux qu’AWS.

M. Christopher Weissberg (RE). Madame Amiot, vous semblez encore penser que l’extraterritorialité s’arrête aux États-Unis, alors que ce principe permet d’attaquer les entreprises françaises sur leur juridiction. Les règles que vous voulez imposer en matière d’extraterritorialité auraient pour effet d’empêcher les entreprises d’entrer sur le marché. La question de la souveraineté est bien plus complexe. Au demeurant, vos propos sur la CIA et la justice américaine, outre qu’ils ne sont pas avérés, sont consternants.

Mme Anne Le Hénanff, rapporteure. En matière de logiciels, les gros opérateurs internationaux augmentent effectivement leur part de marché en France, jusqu’à disposer d’un quasi-monopole – plus de 80 %. La part de marché des entreprises françaises n’augmente pas, certes, mais, depuis quelques années, leur chiffre d’affaires est en hausse ; elles gagnent donc des clients et leur développement économique est en cours.

Si l’amendement était adopté, il aurait un impact sur le modèle économique des entreprises françaises – pour beaucoup, des PME ou ayant une ambition européenne, à l’instar de Dassault et des entreprises regroupées dans le consortium NumSpot.

Enfin, madame Amiot, mesurez vos propos : nous ne sommes pas dans un film américain. L’entreprise Google a communiqué les chiffres : elle s’est opposée avec succès, à vingt-trois reprises, à la saisie des données, seuls trois dossiers étant jugés recevables par la Cour de justice.

Avis défavorable.

La commission rejette l’amendement.

Amendements CS948 de Mme Anne Le Hénanff et CS179 de M. Philippe Latombe (discussion commune)

Mme Anne Le Hénanff, rapporteure. Puisque l’amendement CS949 introduira la notion de temporalité dans le décret en Conseil d’État qui précisera les modalités d’encadrement des avoirs d’informatique en nuage, il s’agit de supprimer, à l’alinéa 5, la référence à la durée maximale de validité d’un an.

M. Philippe Latombe (Dem). L’amendement CS179 vise à préciser le régime des avoirs d’informatique en nuage, en limitant leur montant et leur durée, celle-ci ne pouvant excéder un an même si l’avoir est renouvelé. Les conditions d’octroi et de renouvellement d’un avoir seraient précisées par décret en Conseil d’État, et l’Autorité de la concurrence remettrait au Gouvernement un rapport présentant un état des lieux de la consommation de ce type d’avoir. S’agissant d’une pratique parmi celles que l’Autorité de la concurrence considère comme faussant le marché, nous ne pouvons pas nous contenter de ce que nous disent les grands groupes en audition. Nous devons avoir de la visibilité sur son utilisation et son effet, bénéfique ou délétère, sur le marché. Confions ce rôle à l’Autorité de la concurrence dans la loi.

Mme Anne Le Hénanff, rapporteure. Tel qu’il est rédigé, l’amendement complexifierait le dispositif. L’ajout d’un rapport de l’Autorité de la concurrence et le renvoi des modalités de montant et de durée à un décret en Conseil d’État nous priveraient de la capacité d’envoyer un message fort dans le cadre de nos débats.

Les auditions ont montré que la durée de douze mois introduite par le Sénat était la bonne. Nous ne sommes pas hostiles au renvoi à un décret, mais le champ que vous proposez nous semble excessif. Avis défavorable ou retrait.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Philippe Latombe (Dem). L’amendement précise bien que la durée est limitée à douze mois, « y compris si l’octroi de l’avoir est renouvelé ». La limitation du montant, dont les modalités sont précisées par décret, est laissée à la main du Gouvernement. Enfin, l’avis de l’Autorité de la concurrence est sollicité puisqu’elle est elle-même à l’origine de l’article 7, en s’étant autosaisie de la question des avoirs cloud. Rendons à César ce qui est César !

M. Jean-Noël Barrot, ministre délégué. Ne soyez pas trop modeste, monsieur Latombe. L’article 7 émane avant tout d’une recommandation de rapports du Sénat et de l’Assemblée nationale, qui avaient identifié la pratique des crédits cloud. Le Gouvernement a cherché le bon équilibre entre la nécessité d’encadrer ces pratiques et celle de préserver le soutien aux jeunes entreprises innovantes qu’elles constituent.

Mme Anne Le Hénanff, rapporteure. La multitude des situations rendrait la définition des montants dans l’article 7 trop complexe.

La commission adopte l’amendement CS948.

En conséquence, l’amendement CS179 tombe.

Amendement CS584 de Mme Clara Chassaniol

Mme Clara Chassaniol (RE). Il vise à étendre à trois ans la possibilité d’octroi des crédits cloud aux jeunes entreprises innovantes, qui ont besoin de se développer.

Mme Anne Le Hénanff, rapporteure. Nous sommes conscients que les crédits cloud entrent dans le modèle économique d’une jeune entreprise. Néanmoins, de telles pratiques seraient anticoncurrentielles et préjudiciables à la vitalité des acteurs français. La durée de trois ans rendrait, en pratique, le dispositif caduc, sans compter son caractère discriminatoire entre les très petites entreprises (TPE), les start-up et le reste des entreprises, qui emporterait un risque juridique. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Philippe Latombe (Dem). Dans son avis, l’Autorité de la concurrence évoque uniquement les tests, mais pas la perspective d’un avoir d’ensemble d’une durée de trois ans. Elle souligne d’ailleurs que les start-up, n’étant pas interopérables, sont captives du fournisseur avec lequel elles ont commencé à travailler. À terme, celui-ci peut évaluer la maturité de la solution de la start-up et prendre des participations à son capital, voire l’acheter, ce qui arrive régulièrement ; dès lors, elle est intégrée dans la solution de l’un des trois principaux géants actuels. Trois ans, c’est la durée de vie d’une start-up avant qu’elle se fasse racheter : il ne faudrait pas perdre le soutien de ces start-up dans la construction de notre économie.

M. Paul Midy, rapporteur général. Je vous remercie, madame Chassaniol, de prendre en compte le statut très particulier de nos start-up, TPE et PME innovantes. Il y a deux sujets : d’une part, celui de la souveraineté et de la concurrence ; d’autre part, il faut voir que, pour une jeune entreprise innovante, ces crédits cloud sont aussi une forme de financement très utile à l’amorçage.

La proposition à suivre de la rapporteure représente, à mon sens, le bon équilibre, en renvoyant les modalités de renouvellement de ces avoirs à un décret, qui nous permettra d’être flexibles pour suivre l’évolution du marché.

L’amendement est retiré.

Amendement CS949 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. L’amendement vise à rédiger ainsi l’alinéa 7 : « Un décret en Conseil d’État précisera les modalités d’application du II du présent article, notamment les différents types d’avoirs d’informatique en nuage. Il définit pour chacun d’eux une durée de validité maximale, qui ne peut excéder un an, et les conditions de renouvellement de ces avoirs d’informatique en nuage. » La définition par voie réglementaire aura un autre intérêt, celui d’encadrer les différents types d’avoirs et de mener au préalable une consultation approfondie avec l’écosystème.

La commission adopte l’amendement.

Amendement CS910 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Pour nous aligner sur le Data Act, l’amendement vise à scinder en deux l’actuel article 7 : le nouvel article 7 sera relatif aux seuls crédits cloud et l’article 7 bis aux frais de transfert de données.

M. Jean-Noël Barrot, ministre délégué. Avis favorable.

M. le président Luc Lamirault. Si l’amendement est adopté, il fera tomber plusieurs amendements jusqu’au CS101.

M. Philippe Latombe (Dem). Avant qu’il ne tombe, je tiens à défendre mon amendement CS101. À l’image de ce qui s’est passé lorsque nous avons favorisé la mobilité interbancaire pour les clients, nous avons besoin d’une clarification de l’ensemble des frais applicables au transfert de données. En effet, à l’époque, les établissements bancaires avaient créé de nouvelles catégories de frais dans leurs conditions générales pour essayer de se refaire la cerise sur le dos du consommateur. Je proposais qu’un arrêté du ministre détermine les frais applicables.

La commission adopte l’amendement CS910.

En conséquence, les amendements se rapportant aux alinéas 8 à 10 tombent.

Amendement CS385 de Mme Marietta Karamanli

M. Hervé Saulignac (SOC). L’amendement vise à renforcer le régime de sanctions des fournisseurs, en la définissant en pourcentage du chiffre d’affaires des fournisseurs de services cloud.

Mme Anne Le Hénanff, rapporteure. Le régime actuel me semble équilibré et évite de multiplier les peines et les amendes en fonction de la situation. En outre, les sanctions sont déjà proportionnelles. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. Pour répondre à M. Latombe, c’est l’amendement CS923 qui traitera des questions de frais de transfert et de changement de fournisseur.

Mme Sophia Chikirou (LFI-NUPES). Dans le droit européen de la concurrence, la sanction est de 10 % du chiffre d’affaires. Ce serait bien de s’aligner sur cette logique du pourcentage face à des fournisseurs dont on connaît les pratiques et les abus.

M. Jean-Noël Barrot, ministre délégué. Les 10 % sont un maximum qui sert de point de repère à la Commission européenne, compte tenu de toutes les violations constatées du règlement sur les marchés numériques. Le contexte n’est pas le même ici, puisque la sanction tomberait à chaque conclusion d’un contrat.

La commission rejette l’amendement.

Amendement CS157 de M. Philippe Latombe

M. Philippe Latombe (Dem). Je partage l’avis du ministre : 10 % ce serait trop dans ce contexte. En revanche, au moment de la signature du contrat, les hyperscalers pourraient facturer des frais de modification de services supérieurs à l’amende afin de rester gagnants. C’est pourquoi je propose, pour un contrat conclu en violation des dispositions prévues, une amende de 200 000 euros auxquels s’ajoute le montant des frais facturés, et de 400 000 euros en cas de réitération du manquement auxquels s’ajoute également le montant des frais. Ainsi, l’entreprise fautive aura bien une sanction supérieure à ce qu’elle aura gagné.

Mme Anne Le Hénanff, rapporteure. Je suis tout à fait favorable à votre amendement. Je vous suggère néanmoins de le retirer dans la mesure où mon amendement CS923 traite de la question après l’article 7.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Philippe Latombe (Dem). Ce n’est pas la même rédaction que le mien. Je le maintiens.

Mme Anne Le Hénanff, rapporteure. Mon amendement est mieux‑disant et renvoie à l’article 10. Les sanctions sont exprimées en chiffre d’affaires.

L’amendement est retiré.

Amendement CS386 de Mme Marietta Karamanli

M. Hervé Saulignac (SOC). L’amendement vise à étendre le dispositif d’amende pour sanctionner le non-respect de l’interdiction de vente liée, les travaux du Sénat ayant permis d’interdire explicitement ces pratiques.

Mme Anne Le Hénanff, rapporteure. Le régime de sanctions relatif aux pratiques commerciales trompeuses s’applique déjà, tel que défini au sein du code de la consommation. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Hervé Saulignac (SOC). À quel article du code de la consommation vous référez-vous ?

Mme Anne Le Hénanff, rapporteure. Il s’agit des articles L. 121-2 et suivants.

La commission rejette l’amendement.

Amendement CS257 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Nous voulons que les sanctions soient assez dissuasives pour éviter les pratiques anticoncurrentielles des grandes entreprises du cloud. C’est pourquoi il faut les définir selon un pourcentage du chiffre d’affaires mondial. Cela permet de doser plus finement la sanction et d’éviter que les gros acteurs ne provisionnent les amendes.

Mme Anne Le Hénanff, rapporteure. Le régime actuel de sanctions est équilibré et permet d’éviter de multiplier les peines et amendes en fonction des pratiques anticoncurrentielles, comme je l’ai déjà dit. En outre, la question de la proportionnalité est satisfaite en l’état du droit. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. L’alinéa 11 concerne toute conclusion d’un contrat. Théoriquement, le montant peut être très élevé s’il est avéré que de très nombreuses infractions ont été commises.

La commission rejette l’amendement.

Amendements CS445 et CS446 de Mme Sophia Chikirou (discussion commune)

M. Jean-François Coulomme (LFI-NUPES). L’amendement CS445 vise à établir une cohérence entre le montant des amendes et l’ampleur du marché du cloud. Les trois plus gros fournisseurs du marché – Amazon, Microsoft et Google – qui se partagent les deux tiers du marché ont un chiffre d’affaires autour de 1 500 milliards d’euros. Nous avons donc cru que le Gouvernement avait oublié trois zéros, pour que l’amende soit vraiment dissuasive.

L’amendement CS446 est un amendement de repli pour ne pas vous effrayer.

Mme Anne Le Hénanff, rapporteure. Vous avez raison, on peut prendre l’argent là où il est et plus il y en a, mieux c’est. Mais cela paraît tout de même disproportionné !

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Mireille Clapot (RE). Je sors de ma réserve : certains osent tout ! Ces amendements échappent à toute rationalité.

M. Antoine Léaument (LFI-NUPES). En commission des lois, nous entendons sans cesse qu’il faut augmenter les amendes et les peines pour dissuader les gens de ne pas respecter la loi, ce qui ne fonctionne pas. En revanche, l’augmentation des amendes à destination des entreprises fonctionne bien. Nous avons du mal à comprendre pourquoi, quand il s’agit de petits actes délinquants, vous avez tendance à vouloir augmenter les peines de prison, alors que cela ne permet pas d’éviter la délinquance, mais que, quand il s’agit de faire respecter la loi aux entreprises en définissant des amendes d’un montant conséquent pour qu’elles aient intérêt à respecter la loi, vous êtes étrangement laxistes.

M. Jean-Noël Barrot, ministre délégué. L’amendement CS923 va permettre de dissocier deux sujets : celui des avoirs commerciaux, qui vont rester assujettis à des amendes de 200 000 ou 400 000 euros à chaque violation, et celui de la portabilité et de l’interopérabilité, où les sanctions vont être considérablement relevées, comme cela apparaît à l’article 10 – 3 % et 5 % du chiffre d’affaires.

La commission rejette successivement les amendements.

Elle adopte l’article 7 modifié.

Après l’article 7

Amendement CS160 de M. Philippe Latombe et sous-amendement CS934 de Mme Anne Le Hénanff

M. Philippe Latombe (Dem). Madame la rapporteure, monsieur le ministre, est‑ce que cela signifie que, si un contrat a été conclu en violation des règles, les entreprises qui ont bénéficié de l’avoir tombent sous le coup de la répétition de l’indu ?

Mon amendement vise à ce que les entreprises qui proposent des logiciels le fassent dans des conditions tarifaires et fonctionnelles équivalentes. Ce principe d’équivalence doit devenir la règle.

Mme Anne Le Hénanff, rapporteure. Je retire mon sous‑amendement.

Monsieur Latombe, votre amendement CS160 rejoint le CS176. Je vous propose de le retirer pour nous permettre de proposer d’ici à la séance une nouvelle rédaction afin d’accompagner la filière française des logiciels.

M. Jean-Noël Barrot, ministre délégué. Même avis. L’interopérabilité est toujours théoriquement désirable. Elle l’est en pratique pour les acteurs français qui développent une brique matérielle et pourraient voir des solutions logicielles américaines se brancher sur leur solution ou développent une solution logicielle, qui pourrait être branchée sur une solution matérielle américaine. En revanche, les acteurs français qui ont décidé de lutter à armes égales avec les acteurs dominants du secteur en développant une offre complète s’inquiètent de l’interopérabilité, qui pourrait fragiliser leur développement.

M. Philippe Latombe (Dem). Je ne comprends plus ! Si vous aviez sous-amendé mon amendement, c’est que vous y étiez plutôt favorable.

Par ailleurs, monsieur le ministre, je ne comprends pas comment vous pouvez dire qu’on ne va pas regarder ce point, alors même que l’État incitait à développer des solutions du type Bleu ou S3ns, en disant qu’il fallait que les opérateurs qui allaient offrir les logiciels sous licence devaient maintenir le même niveau d’exigence entre leur solution cloud et la solution cloud sur laquelle ils seraient. Je pense notamment à Microsoft qui avait dit, dès le début, que son logiciel Azure ne serait pas au même niveau que la solution proposée par Bleu. On se tire une balle dans le pied dans un système que nous avons promu et dont nous sommes toujours promoteurs !

Pourquoi ne peut-on pas dire qu’un produit logiciel doit fonctionner de la même façon et à des conditions tarifaires identiques, quel que soit le support cloud ? Malgré ce que vous avez dit sur NumSpot, le signal envoyé à l’écosystème n’est pas bon. Ma définition du logiciel d’entreprise tenait compte de la partie fonction commerciale, qui a été totalement obérée dans la discussion, alors que c’est une limitation. Demandez à Odoo comment ça se passe aujourd’hui face à Salesforce ! Ils perdent des parts de marché et les entreprises publiques françaises vont vers Salesforce, pour du CRM client et pour du CRM RH. Il n’est pas normal que l’éducation nationale aille sur Salesforce pour sa RH.

M. Jean-François Coulomme (LFI-NUPES). À l’Assemblée, nous utilisons un petit cloud, Wimi, une entreprise française. Les gros opérateurs du marché n’existeraient pas sans les petits qui poussent derrière avec des solutions alternatives pour lesquelles il faut absolument veiller à l’interopérabilité et éviter une concurrence déloyale qui consisterait à faire la promotion de bundles, d’offres liées entre le cloud et leurs émulateurs. Rendez service aux entreprises dont vous prétendez vouloir promouvoir le développement !

Mme Anne Le Hénanff, rapporteure. Les entreprises françaises sont en construction. Il faut les accompagner et les aider à se structurer.

La proposition que vous faites dans votre amendement CS160 est intéressante. Néanmoins, en tant que rapporteure, j’ai consulté jusqu’au dernier instant les acteurs du domaine, notamment français, auxquels j’ai demandé si votre amendement représentait pour eux une chance ou un danger. Leur réponse a été claire.

M. Jean-Noël Barrot, ministre délégué. Dans un secteur de spécialistes soit du logiciel, soit du matériel, certains, pour lutter contre les dominants extraeuropéens, ont développé une solution logicielle et matérielle. Les obliger à mettre leur logiciel à disposition de ces géants représenterait pour eux un véritable obstacle. Le consortium français qui s’est construit autour de Docaposte, la filiale numérique du groupe La Poste, a exprimé son inquiétude à ce sujet.

Le sous-amendement CS934 est retiré.

La commission rejette l’amendement.

Amendement CS923 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Pour nous aligner sur le Data Act, il est nécessaire de dissocier la partie relative aux crédits cloud de celle concernant les frais de transfert. L’amendement traite spécifiquement de ces derniers et en définit les modalités. Il vise ainsi à : limiter les frais de transfert de données facturés dans le cadre de la migration et les frais de migration aux coûts directement supportés par le fournisseur de service ; permettre au ministre chargé du numérique de définir rapidement un montant de tarification maximal que les frais de transfert de données facturés dans le cadre de la migration et du multicloud ne pourront dépasser ; confier à l’Autorité de régulation des communications électroniques, des postes et de la distribution de la presse (Arcep) l’édiction de lignes directrices portant sur les frais de migration ainsi que le contrôle de ces obligations, afin d’assurer à la fois la cohérence avec le règlement européen sur les données et la lisibilité du dispositif pour les fournisseurs et utilisateurs ; créer une obligation de transparence sur les frais de transfert et de migration.

M. Jean-Noël Barrot, ministre délégué. Avis favorable.

M. Philippe Latombe (Dem). Je ne remets pas en cause la scission de l’article 7, imposée par le Data Act, mais un problème demeure sur les frais de transfert. Prenons une solution logicielle qui fait du CRM ou de la gestion RH. Si le fournisseur de logiciel dit qu’au sommet du logiciel cela marche uniquement avec AWS, vous aurez beau dire ensuite qu’il n’y aura pas de frais de transfert en choisissant un cloud français, il n’y aura en réalité pas de transfert tout court, parce que la vente sera liée ! C’est le vrai problème. Nous n’avons pas parlé du logiciel d’exploitation du cloud, seulement des logiciels permettant à une entreprise de gérer sa fonction commerciale et sa fonction RH. Or NumSpot n’est absolument pas sur ce sujet ! On a un vrai problème d’interopérabilité.

Mme Mireille Clapot (RE). Je renvoie ceux qui souhaiteraient creuser ce sujet à une étude intéressante du professeur Jenny qui a étudié les pratiques déloyales des fournisseurs de cloud. Les frais pour sortir de leur cloud sont particulièrement élevés.

La commission adopte l’amendement et l’article 7 bis ainsi rédigé.

Article 8

La commission adopte l’amendement de coordination CS914 de Mme Anne Le Hénanff, rapporteure.

Amendement CS911 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. L’amendement vise à assurer la cohérence rédactionnelle par rapport au Data Act et à définir ce que sont les actifs numériques.

M. Jean-Noël Barrot, ministre délégué. Avis favorable. Cette définition, pour donner sa pleine dimension à la portabilité, s’entend sous réserve de la protection de la propriété intellectuelle et industrielle, d’ailleurs garantie par l’article 24 du règlement.

La commission adopte l’amendement.

Amendements CS161 et CS663 de M. Philippe Latombe (discussion commune)

M. Philippe Latombe (Dem). L’amendement CS161 vise à définir l’équivalence fonctionnelle en appliquant la dernière version du Data Act.

L’amendement CS663 tend à préciser cette définition en y intégrant une mention aux services qui relèvent du modèle de déploiement IaaS – des services d’infrastructure cloud.

Mme Anne Le Hénanff, rapporteure. L’amendement CS161 étant satisfait par le CS663, je vous propose de retirer le premier au profit du second.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Philippe Latombe (Dem). J’ai déposé deux amendements pour proposer une définition claire qui pourrait être reprise dans de futurs textes sans faire référence à l’intégralité de l’article qui apparaît dans le deuxième amendement.

La commission adopte l’amendement CS161.

En conséquence, l’amendement CS663 tombe.

Amendement CS912 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Toujours dans un souci de cohérence, cet amendement vise à reprendre la définition des « données exportables » figurant dans le Data Act.

La commission adopte l’amendement.

Amendement CS913 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Il convient une nouvelle fois de nous aligner pleinement sur le Data Act en distinguant bien les services IaaS (Infrastructure-as-a-Service) des services SaaS (Software-as-a-Service) et PaaS (Platform-as-a-Service).

La commission adopte l’amendement.

Elle adopte l’article 8 modifié.

Article 9 : Obligations d’interopérabilité et de portabilité à la charge des services d’informatique en nuage

Amendement CS918 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Nous souhaitons, là encore, adopter un texte le plus proche possible, si ce n’est quasiment identique au Data Act. Aussi l’amendement CS918 vise-t-il à clarifier la disposition donnant à l’Arcep la possibilité de solliciter l’expertise d’un ou plusieurs organismes de normalisation pour établir des spécifications d’interopérabilité et de portabilité.

La commission adopte l’amendement.

Amendement CS915 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Pour s’approcher le plus possible du Data Act, il convient de clarifier la disposition imposant aux fournisseurs de services de cloud de se conformer aux décisions de l’Arcep visant à préciser les exigences de portabilité et d’interopérabilité auxquelles ils sont soumis.

La commission adopte l’amendement.

En conséquence, les amendements identiques CS387 de M. Hervé Saulignac et CS447 de M. Jean-François Coulomme tombent.

Amendement CS916 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. L’offre de référence technique obligatoirement publiée par les fournisseurs de services de cloud doit s’appuyer, le cas échéant, sur les décisions de l’Arcep visant à préciser les exigences essentielles d’interopérabilité et de portabilité.

Par ailleurs, il est souhaitable de laisser à l’Arcep le soin de fixer le délai de mise en œuvre de ses décisions, comme c’est d’ailleurs le cas dans le secteur des télécommunications.

La commission adopte l’amendement.

Amendement CS711 de M. Philippe Latombe

M. Philippe Latombe (Dem). Nous avons tous fait le même travail de bénédictin, avec la volonté d’insérer dans le projet de loi, de la façon la plus complète possible, les dispositions figurant dans la dernière version du Data Act. C’est pourquoi nous proposons de qualifier de « raisonnables » les mesures devant être prises par les fournisseurs de services de cloud pour faciliter l’équivalence fonctionnelle après la migration vers un service tiers.

Suivant l’avis de la rapporteure, la commission adopte l’amendement.

Amendement CS917 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Il s’agit encore une fois d’assurer la cohérence entre les dispositions que nous nous apprêtons à voter et le Data Act. L’article 26a du règlement européen, introduit dans le cadre des négociations en trilogue, prévoit en effet un régime d’exemption de certaines obligations en matière de portabilité et d’interopérabilité pour deux types de services.

M. Jean-Noël Barrot, ministre délégué. Avis favorable.

M. Philippe Latombe (Dem). On comprend bien que le Data Act ne puisse pas s’appliquer de la même façon dans des environnements de test, hors production. Il faudra cependant que nous nous penchions sur l’avenir du modèle on-premise, que la plupart des fournisseurs de logiciels sont en train d’abandonner alors même que certaines entreprises ont besoin d’installer des logiciels sur leurs propres serveurs. Cette question n’étant pas évoquée dans le Data Act, il faudra absolument l’aborder dans le cadre des négociations à venir. Elle concerne notamment des entreprises de la défense, qui ont besoin de stocker des données sur des serveurs sécurisés, avec les logiciels nécessaires pour les traiter ; or ces logiciels ne sont plus forcément mis à jour par leurs fournisseurs, notamment européens et américains, pour la simple raison qu’ils sont on-premise. Cela pose un certain nombre de problèmes, qui expliquent notamment le refus de la direction générale de la sécurité intérieure (DGSI) de faire appel à Palantir, l’application Foundry n’étant pas mise à jour de la même façon selon qu’elle est utilisée on-premise ou on-line.

La commission adopte l’amendement.

Elle adopte l’article 9 modifié.

La réunion est suspendue de dix heures cinquante-cinq à onze heures cinq.

Article 10 : Compétence de l’Arcep pour constater et sanctionner les manquements aux obligations nouvelles supportées par les fournisseurs de services

Amendement CS919 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Cet amendement vise à étendre les pouvoirs d’enquête et de sanction de l’Arcep à la mise en œuvre du nouveau modèle de gouvernance introduit par l’article 7 bis.

La commission adopte l’amendement.

Amendement CS258 de M. Aurélien Lopez-Liguori

Mme Géraldine Grangier (RN). L’article 10 porte notamment sur les sanctions applicables aux fournisseurs de services informatiques en nuage qui ne respecteraient pas leurs obligations en matière de portabilité et d’interopérabilité. Eu égard à l’importance de ces nouvelles obligations, qui visent à pallier la situation déséquilibrée du marché du cloud, il convient d’augmenter les sanctions afin de rendre le dispositif plus coercitif.

Mme Anne Le Hénanff, rapporteure. Je me suis déjà exprimée à ce sujet : il n’est pas souhaitable de bousculer le régime de sanctions, qui respecte le principe de proportionnalité. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Philippe Latombe (Dem). Pourquoi porter le plafond de la sanction pécuniaire de 3 % à 5 % du chiffre d’affaires de l’entreprise en cas de réitération, alors que les sanctions sont ordinairement au moins doublées en pareil cas ? Par ailleurs, ce taux n’est-il pas trop bas ? Depuis près d’une dizaine d’années, les sanctions sont systématiquement contestées en justice et provisionnées : dès lors, compte tenu de l’érosion monétaire et des gains de parts de marché permis par les manœuvres frauduleuses, elles paraissent assez indolores.

La commission rejette l’amendement.

Amendement CS450 de M. Jean-François Coulomme

M. Jean-François Coulomme (LFI-NUPES). Il convient de se départir de l’autorité trop invasive de l’Arcep en matière de normalisation des standards d’interopérabilité, que nous souhaitons les plus ouverts possible. Ces standards devraient être conformes aux normes RFC (request for comments), qui permettent une ouverture et une interopérabilité maximales. Au contraire, confier la normalisation à la seule Arcep mettrait en péril les opérateurs européens qui ne seraient pas soumis aux mêmes obligations bien qu’ils soient tout à fait capables de satisfaire à l’exigence d’interopérabilité et d’ouverture logicielle.

Mme Anne Le Hénanff, rapporteure. L’Arcep, dont nous avons auditionné les représentants, nous montre chaque jour qu’elle réalise un excellent travail, que ce soit dans le domaine des télécoms ou en matière de fibre. Elle n’agit pas seule dans son coin, mais coopère beaucoup avec ses homologues européens, dans le cadre d’un travail collégial. Je donne donc à votre amendement un avis défavorable.

La commission rejette l’amendement.

Amendement CS388 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). Nous nous réjouissons que l’article 8 pose des principes de transparence pour une interopérabilité effective. Toutefois, l’article 9 risque non seulement d’exclure du marché une dizaine de technologies européennes ou libres de cloud parfaitement interopérables, mais également d’offrir aux fournisseurs de services un moyen de contourner l’article 8 en se conformant aux normes de l’Arcep sur un sous-ensemble de fonctionnalités tout en empêchant l’interopérabilité pour les autres. Nous proposons donc un mécanisme permettant d’étendre rapidement les normes de l’Arcep lorsqu’elles ne suffisent pas à atteindre l’interopérabilité, notamment lorsque certaines fonctions d’un opérateur de cloud ne sont couvertes par aucune norme applicable.

Mme Anne Le Hénanff, rapporteure. L’Arcep n’a pas l’habitude de travailler seule dans son coin : elle consulte et interroge l’écosystème. J’ai une confiance totale dans sa capacité à préciser ces nouvelles règles d’interopérabilité et de portabilité. Avis défavorable.

La commission rejette l’amendement.

Elle adopte l’article 10 modifié.

Chapitre II bis A

Protection des données stratégiques et sensibles sur le marché de l’informatique en nuage

Article 10 bis A : Renforcement de la protection des données sensibles dans le cadre des offres d’informatique en nuage souscrites par les autorités publiques

Amendements de suppression CS933 de Mme Anne Le Hénanff et CS589 de Mme Clara Chassaniol

Mme Clara Chassaniol (RE). Bien que nous partagions tous ici l’ambition de cet article introduit par le Sénat, je propose de le supprimer.

Nous avons déjà débattu de ces sujets lors de l’examen du projet de loi de programmation militaire. Il avait alors été indiqué que des discussions étaient en cours, à l’échelle européenne, en vue d’aboutir à un référentiel souverain et sécurisé de données dans le cadre du schéma européen de cybersécurité des services cloud (EUCS). La France dispose d’un référentiel de confiance, SecNumCloud, et a mis au point la doctrine « Cloud au centre ». Intégrer ces éléments dans la loi risquerait d’affaiblir notre capacité à négocier le référentiel à l’échelle européenne. Donnons-nous au contraire les moyens de pousser les positions françaises dans le cadre de cette discussion européenne, qui n’a pas encore abouti, et de faire en sorte que le contenu du futur référentiel européen soit plus solide.

Du reste, nous n’avons pas encore les moyens d’assumer matériellement le renforcement du cloud de confiance proposé par l’article 10 bis A.

Mme Anne Le Hénanff, rapporteure. Je souscris entièrement aux propos de Mme Chassaniol, ayant moi-même déposé un amendement de suppression de l’article 10 bis A.

Le fait que les sénateurs aient introduit cet article est une bonne chose, car il est nécessaire que nous débattions de la souveraineté numérique de notre pays. Je suis pourtant arrivée à la conclusion que sa suppression était souhaitable, pour plusieurs raisons.

La première est sans doute la plus essentielle. Vous avez pu constater que, depuis le début de l’examen du titre III, nous nous efforçons de coller le plus possible au Data Act. Il se trouve qu’au niveau européen se tiennent actuellement des discussions très serrées, auxquelles la France prend toute sa part, pour relever le niveau de protection des données sensibles et tendre vers une souveraineté européenne dans ce domaine. Il faut en effet considérer la souveraineté au niveau européen, et non spécifiquement français – j’y reviendrai.

Alors que les discussions sur le Data Act se sont achevées, celles sur l’EUCS, qui correspond à la doctrine de sécurité que nous voulons à l’échelle européenne, sont encore en cours. Pas à pas, grâce notamment à l’engagement exceptionnel de l’Anssi et aux arguments qu’elle avance, la France réussit à imposer le niveau de sécurité que nous attendons dans notre pays, tendant vers la qualification SecNumCloud.

Dans ce contexte, le vote de l’article 10 bis A emporterait des conséquences assez négatives pour notre pays.

Tout d’abord, il isolerait la France car il serait perçu comme un désaveu des discussions en cours avec nos partenaires européens. Ce n’est pas le but de la manœuvre !

Ensuite, il isolerait et même stigmatiserait – je pèse mes mots – les clouders français. Lorsque je leur ai demandé, lors des auditions, quelle était leur ambition commerciale, ils m’ont tous, sans exception, parlé du marché européen. Il est clair que les clouders français ne pourront pas survivre dans un marché spécifique, avec des normes spécifiques marquées par une notion de souveraineté numérique typiquement et exclusivement française : ils n’arriveront pas à atteindre le marché européen, parce qu’ils seront sanctionnés par les acteurs des pays voisins.

Je souligne enfin qu’il existe une politique nationale tendant vers les dispositions introduites par les sénateurs à l’article 10 bis A. Je pense à la qualification SecNumCloud, à certaines normes ISO et à la doctrine « Cloud au centre » voulue par la Première ministre.

Les sénateurs eux-mêmes reconnaissent que, si nous votions cet article, les acteurs français ne disposeraient pas aujourd’hui de la capacité technique ni des structures permettant d’accueillir les données des administrations centrales.

Lors de la discussion générale, Mme Chikirou et plusieurs d’entre vous nous ont appelés à cesser les mesures d’affichage, les effets de communication, à passer à l’action et à faire preuve d’efficacité. Nous accompagnons une filière, nous souhaitons tendre vers une souveraineté, mais si nous votons aujourd’hui cet article 10 bis A, nous nous tirons clairement une balle dans le pied.

M. Jean-Noël Barrot, ministre délégué. Le Gouvernement est favorable à ces deux amendements de suppression très bien défendus par Mme Chassaniol et par Mme la rapporteure. J’aimerais apporter quelques précisions concernant la stratégie de l’État en matière de protection des données sensibles des Français.

La France compte parmi les tout premiers pays à avoir décidé de se doter d’une stratégie de cloud de confiance. Elle a élaboré une certification, délivrée par l’Anssi, qui s’impose à toutes les administrations désireuses d’organiser leur migration vers le cloud. Cette politique de l’État a été fixée dans une circulaire du 5 juillet 2021, qui s’appuie sur une doctrine dénommée « Cloud au centre », récemment actualisée et présentée à l’Assemblée nationale lors des débats sur la loi de programmation militaire.

Aux termes de cette doctrine, qui s’impose à toutes les administrations, « tous les systèmes et applications informatiques traitant des données à caractère personnel, y compris celles des agents publics, doivent être conformes au règlement général sur la protection des données (RGPD). À ce titre, une attention particulière doit être portée à d’éventuels transferts de données à caractère personnel en dehors de l’Union européenne et il est rappelé que l’hébergement sur le territoire de l’Union européenne, de l’Espace économique européen ou d’un pays tiers faisant l’objet d’une décision d’adéquation de la Commission européenne, adoptée en application de l’article 45 du RGPD, permet notamment d’assurer un niveau de protection adéquat aux données. Par ailleurs, même lorsque les données sont localisées dans l’Union, conformément aux articles 28 et 48 du RGPD, ces données doivent être immunisées contre toute demande d’autorité publique d’États tiers – judiciaire ou administrative – en dehors d’un accord international en vigueur entre le pays tiers demandeur et l’Union ou un État membre. Pour les systèmes contenant des données de santé, l’hébergeur doit de plus être conforme à la législation sur l’hébergement de données de santé.

« Si le système ou l’application informatique traite des données, à caractère personnel ou non, d’une sensibilité particulière et dont la violation est susceptible d’engendrer une atteinte à l’ordre public, à la sécurité publique, à la santé et la vie des personnes ou à la protection de la propriété intellectuelle, l’offre de cloud commerciale retenue devra impérativement respecter la qualification SecNumCloud – ou une qualification européenne garantissant un niveau au moins équivalent, notamment de cybersécurité – et être immunisée contre tout accès non autorisé par des autorités publiques d’États tiers. Dans le cas contraire, le recours à une offre de cloud commerciale qualifiée SecNumCloud et immunisée contre tout accès non autorisé par des autorités publiques d’États tiers n’est pas requis.

« Ces données d’une sensibilité particulière recouvrent : les données qui relèvent de secrets protégés par la loi, notamment au titre des articles L. 311-5 et L. 311-6 du code des relations entre le public et l’administration […] ; les données nécessaires à l’accomplissement des missions essentielles de l’État, notamment la sauvegarde de la sécurité nationale, le maintien de l’ordre public et la protection de la santé et de la vie des personnes. »

Cette clarification du périmètre des données sensibles, Bruno Le Maire et moi l’avions annoncée le 12 septembre 2022 lors d’un déplacement dans un centre de données d’OVHcloud.

Bien que ces règles s’appliquent aux administrations, c’est-à-dire à l’ensemble de la sphère de l’État, notre politique ne s’arrête pas là. Aussi Bruno Le Maire a-t-il déclaré, ce même jour : « Je le dis avec beaucoup de gravité : si jamais nos entreprises qui ont des données extraordinairement sensibles ne se saisissaient pas librement de cette offre de sécurisation de leurs données », c’est-à-dire d’une offre qualifiée SecNumCloud, « je ne peux pas exclure que, à un moment ou à un autre, nous en venions à une norme obligatoire pour protéger notre souveraineté industrielle et protéger notre indépendance. »

Pourquoi ne pas imposer dès aujourd’hui cette obligation aux entreprises, en particulier aux opérateurs d’importance vitale et aux opérateurs essentiels ? Au-delà des problèmes rédactionnels, techniques, posés par l’article 10 bis A, sur lesquels je reviendrai dans quelques instants, Mme la rapporteure et Mme Chassaniol ont bien expliqué qu’une négociation très serrée était en cours concernant le schéma européen de certification de cybersécurité pour les services de cloud. Bien que volontaire, ce schéma européen encadrera les schémas de certification et de qualification nationaux.

Si nous gagnons la bataille et réussissons à intégrer dans ce schéma européen, au moins pour le niveau de sécurité le plus élevé, les critères que nous avons déterminés pour la qualification SecNumCloud, ce sera une très bonne nouvelle car nous pourrons continuer d’opérer avec cette qualification ; par ailleurs, les entreprises françaises ayant réalisé des efforts considérables pour l’obtenir auront la possibilité d’exercer directement leurs activités dans le reste de l’Union européenne. Si, au contraire, nous ne parvenons pas à convaincre nos partenaires européens d’intégrer dans ce schéma de certification volontaire le même niveau d’exigence que celui auquel nous avons décidé de nous astreindre, c’est l’existence même de ce niveau d’exigence associé à la qualification SecNumCloud qui se trouvera fragilisée juridiquement, puisqu’il ne sera pas conforme au schéma européen.

Certains d’entre vous considèrent que l’adoption de l’article 10 bis A serait de nature à renforcer la position de nos négociateurs, qui pourraient mettre en avant le fait que les parlementaires français poussent leur gouvernement à aller plus loin. En réalité, comme nous l’a montré l’expérience de ces derniers mois, c’est l’inverse qui se produirait : nos adversaires dans cette discussion européenne prétendraient que, sous prétexte de vouloir protéger les données sensibles, nous essaierions de conquérir leurs marchés. Cet argument est certes de mauvaise foi, mais nos négociateurs l’ont déjà entendu de manière répétée.

Un consensus européen a pu se former s’agissant du règlement sur les données, qui fait l’objet des articles 7, 8 et 9 que vous venez d’examiner et qui impose des règles de concurrence permettant de rouvrir le jeu. Cependant, en matière de protection des données sensibles, ce n’est pas du tout la même musique : les oppositions sont assez fortes. Si nous voulons remporter la bataille et obtenir que le schéma européen corresponde à nos exigences de sécurité, nous devons refréner notre envie d’étendre dès aujourd’hui à d’autres acteurs les obligations pesant sur l’administration. Réservons-nous la possibilité de le faire dans le cadre de prochains textes. Je pense notamment au futur projet de loi de transposition de la directive NIS 2 (Network and Information Security 2) et du règlement Dora (Digital Operational Resilience Act), qui portent sur des sujets très proches et nous amèneront d’ailleurs à redéfinir le périmètre des opérateurs d’importance vitale et des opérateurs essentiels.

Enfin, d’un point de vue purement technique, l’article 10 bis A ne décrit que certaines des dimensions de la certification SecNumCloud. Je comprends ce choix : comme l’a fait remarquer le directeur général de l’Anssi lors de son audition, s’il fallait intégrer l’ensemble des critères de la qualification SecNumCloud dans la loi, cette dernière ferait des milliers de pages ! Cette certification technique, très lourde et complexe, ne se résume pas à des critères d’actionnariat. Dès lors, l’article 10 bis A manque sa cible.

M. Philippe Latombe (Dem). Cet article a été introduit au Sénat par le biais d’un amendement déposé par le groupe Union centriste, soutenu par l’ensemble des groupes politiques et adopté à l’unanimité. Voulons-nous affronter les sénateurs sur ce sujet ? Ne serait-il pas préférable d’en discuter et de chercher à comprendre leur travail ?

Les sénateurs ont entrepris d’intégrer dans le projet de loi, quasiment mot pour mot, la circulaire du 31 mai 2023 relative à l’actualisation de la doctrine « Cloud au centre », notamment sa partie R9 que vous avez citée et qui n’est pas toujours appliquée par l’État. Dans l’éducation nationale et dans les universités, par exemple, on a beau interdire Office 365, il est utilisé partout ! De même, la plateforme des données de santé, également appelée « Health Data Hub », n’est pas soumise à la circulaire, pour de nombreuses raisons – parce qu’une exemption a été accordée aux organismes déjà engagés dans la démarche, et parce qu’en tant que groupement d’intérêt public (GIP) la plateforme n’est pas placée sous la tutelle de l’État. Cela nous a d’ailleurs amenés à déposer un amendement relatif aux hébergeurs de données de santé.

Quoi qu’il en soit, l’article 10 bis A reprend les éléments évoqués dans la circulaire : il s’applique « aux données qui relèvent de secrets protégés par la loi au titre des articles L. 311-5 et L. 311-6 du code des relations entre le public et l’administration, aux données de santé à caractère personnel mentionnées à l’article L. 1111‑8 du code de la santé publique ainsi qu’aux données nécessaires à l’accomplissement des missions essentielles de l’État, notamment la sauvegarde de la sécurité nationale, le maintien de l’ordre public et la protection de la santé et de la vie des personnes ». On ne peut pas faire plus régalien. Votons-le !

Mme Sophia Chikirou (LFI-NUPES). Je souscris aux propos de M. Latombe, auxquels j’ajouterai trois arguments.

Tout d’abord, nous sommes ici des parlementaires, comme nos collègues sénateurs : nous n’avons donc pas à nous soumettre à une stratégie gouvernementale à laquelle nous sommes d’ailleurs nombreux à ne pas adhérer. En tant que parlementaire, je suis libre de soutenir un autre point de vue, une autre stratégie.

En outre, il faut arrêter de se voiler la face : nous sommes en profond désaccord avec l’Allemagne, dont la stratégie est radicalement opposée à la nôtre. Comment voulez-vous concilier les positions des deux pays ? La meilleure façon de défendre notre souveraineté numérique et de protéger nos données sensibles est de voter cet article.

Vous affirmez enfin que les entreprises françaises ne sont pas prêtes. Quand on veut le développement d’une entreprise ou d’une filière, c’est l’État qui l’organise. Il pourrait très bien exister un service public dédié aux données sensibles : nous devons le mettre en place. Cela ne se fera pas en six mois ou en un an ; ce n’est pas de l’affichage mais de la planification. Sommes-nous réellement capables de planifier notre souveraineté numérique ou devons-nous demander gentiment aux Allemands l’autorisation de voter la loi dans notre pays afin de protéger nos données sensibles, nos entreprises et nos concitoyens ? L’enjeu n’est aucunement technique, il est éminemment politique.

M. Aurélien Lopez-Liguori (RN). Madame Chassaniol, madame la rapporteure, monsieur le ministre délégué, j’aimerais saluer votre courage – pardon, votre manque de courage. Je n’aimerais pas être à votre place alors que vous êtes en train de planter un couteau dans le dos de notre écosystème.

Monsieur le ministre délégué, votre ministre de tutelle est chargé « de la souveraineté industrielle et numérique ». Quant à nous, nous sommes des parlementaires français. Votre rôle, notre rôle est donc de protéger les données de nos concitoyens de la prédation des boîtes étrangères, de l’extraterritorialité de la législation d’États concurrents, et de protéger nos entreprises de la concurrence déloyale. Pourtant, quand vous avez l’occasion de mettre en œuvre cette politique, vous reculez. Vous voulez supprimer un article qui permettra d’écarter de la commande publique les entreprises de cloud soumises à une législation extra-européenne, donc de virer Microsoft du Health Data Hub et les Gafam des institutions françaises.

Vous expliquez que vous ne pouvez pas prendre de l’avance sur la législation européenne car une négociation est en cours. Pourtant, dans certaines parties du projet de loi qui nous est soumis aujourd’hui, vous allez plus loin que le Data Act. De même, quand vous avez instauré la taxe Gafam, vous avez pris de l’avance sur les négociations européennes. Vos arguments sont de mauvaise foi et votre renoncement est une trahison. Les Gafam vous remercient !

M. Bruno Studer (RE). Le débat est à la fois technique et politique. Il ne faut pas parler de trahison ou de coup de couteau dans le dos.

Pendant cinq ans, j’ai présidé les débats de la commission des affaires culturelles. Lors de la précédente législature, nous avons eu exactement les mêmes discussions sur un certain nombre de textes, notamment sur une proposition de loi très importante tendant à créer un droit voisin au profit des agences de presse et des éditeurs de presse, laquelle découlait de la directive européenne sur le droit d’auteur. À droite, à gauche et au centre, j’ai entendu des parlementaires animés des mêmes bonnes intentions, qui souhaitaient anticiper la transposition du texte européen. L’Espagne avait instauré des droits voisins à l’échelle nationale, répondant à une pression politique voulant que les éditeurs de presse soient rémunérés par Google. L’entreprise américaine avait réagi en déréférençant tous les quotidiens et les grands titres de la presse espagnole, si bien que des droits voisins étaient effectivement négociés, mais à 0 euro. De notre côté, nous avons temporisé et attendu qu’un texte soit adopté à Strasbourg, que la France a été le premier pays à transposer. C’est ainsi que nous avons engagé le mouvement permettant aux éditeurs et aux agences de presse de toucher des dizaines de millions d’euros de droits voisins, à l’issue de négociations que nous avons pu mener en nous appuyant sur la force de l’Union européenne.

Vous pouvez ne pas aimer l’Europe, vous pouvez déplorer la lenteur des négociations nécessaires pour obtenir des convergences. Pour ma part, je salue la position courageuse de M. le ministre délégué, qui n’est certainement pas la plus facile à tenir. Contrairement à ce que j’ai pu entendre, ce n’est pas un acte de lâcheté.

Mme Anne Le Hénanff, rapporteure. Que les choses soient claires, il ne s’agit aucunement de remettre en cause le travail des sénateurs. Cependant, nous sommes ici dans une autre chambre, à l’Assemblée nationale, et nous pouvons avoir notre propre opinion. Nous avons mené sur ce sujet beaucoup plus d’auditions que le Sénat – vous n’y avez pas assisté, monsieur Latombe –, nous avons pris le temps d’aller au fond des choses et posé des questions.

La circulaire présentant la doctrine « Cloud au centre » est en cours d’application, mais ce n’est pas parce qu’elle existe que toutes les administrations vont faire migrer leurs données en un claquement de doigts. Vous savez mieux que quiconque, monsieur Latombe, que douze à dix-huit mois sont nécessaires pour qu’une administration centrale fasse migrer ses données d’un cloud extraterritorial à un cloud français. Les administrations sont en train d’opérer ce mouvement, qui ne se décrète pas et ne peut pas se faire du jour au lendemain.

Madame Chikirou, vous avez appelé à une planification de la souveraineté numérique : j’adhère totalement à cette vision des choses. Cependant, il en est de la planification comme d’une circulaire : elle ne se décrète pas et ne se fait pas du jour au lendemain. Lorsque nous avons rejeté les amendements CS160 et CS176 de M. Latombe, nous avons favorisé une forme de planification car les mesures proposées auraient fortement pénalisé le développement économique et la montée en puissance des acteurs français. Voilà du concret !

Il faut effectivement que l’État accompagne les acteurs français : c’est ce que nous permettrons en adoptant ces amendements de suppression. Nous raisonnons à moyen terme et ne souhaitons pas nous montrer trop prétentieux, alors que nous sommes souvent perçus ainsi en Europe. Nous devons être responsables, planifier et nous aligner sur les négociations en cours à Bruxelles.

Monsieur Lopez-Liguori, vous avez fait allusion à notre volonté de devancer parfois les dispositions du Data Act. Il se trouve que ce règlement européen existe, puisqu’il a été adopté, à la différence de l’EUCS qui est toujours en cours de discussion. Quand on adopte une posture très affirmée, il faut vraiment être sûr de soi pour ne pas faire capoter les négociations. Or, si nous adoptons l’article 10 bis A, nous les mettrons en péril.

M. Jean-Noël Barrot, ministre délégué. Monsieur Lopez-Liguori, le Gouvernement et cette majorité n’ont aucune leçon à recevoir de votre part s’agissant de la manière dont nous entendons réguler les géants du numérique. Si le Parlement européen et le Conseil ont adopté le règlement sur les marchés numériques et celui sur les services numériques, c’est grâce à cette majorité et grâce au Président de la République. Je regrette que votre groupe au Parlement européen se soit abstenu sur le règlement sur les services numériques (DSA).

M. Aurélien Lopez-Liguori (RN). Nous avons voté pour le DMA.

M. Jean-Noël Barrot, ministre délégué. M. Bardella n’a pas voté pour le DSA, il s’est abstenu. Quant au DMA, certains membres de votre groupe ont voté en sa faveur, mais la majorité d’entre eux se sont abstenus. En ce qui concerne le règlement sur les données, qui permettra enfin de mettre un terme aux pratiques commerciales déloyales dans le marché du cloud – cela correspond aux articles 7, 8 et 9 du projet de loi –, vos collègues au Parlement européen se sont abstenus. Ils n’ont jamais soutenu les offensives que nous avons menées contre les Gafa. Ne nous donnez donc pas de leçons !

La commission adopte les amendements.

En conséquence, l’article 10 bis A est supprimé et les autres amendements s’y rapportant tombent.

Après l’article 10 bis A

Amendement CS765 de M. Philippe Latombe

M. Philippe Latombe (Dem). Cet amendement prévoit que tous les hébergeurs de données de santé doivent se conformer au référentiel SecNumCloud au 1er juillet 2024. Ces données permettent, en effet, de connaître l’état de santé de nos concitoyens et de porter un diagnostic médical. Le Health Data Hub, par exemple, n’est pas assujetti à la circulaire dont vous avez parlé. Cela veut dire que nos données de santé sont hébergées dans des systèmes auxquels on peut avoir accès facilement depuis un certain nombre de pays étrangers. Nous souhaitons que les données de santé, qu’elles relèvent d’organismes publics ou d’organismes privés, comme Doctolib qui a quasiment un monopole pour la prise des rendez-vous médicaux, soient sécurisées et ne puissent pas être gérées, réglementairement, dans un cadre extraterritorial.

Pourquoi faisons-nous référence au 1er juillet 2024 ? Vous avez dit hier soir, monsieur le ministre délégué, que nous ferions l’objet d’attaques massives et intenses à l’occasion des Jeux olympiques. Or les données de santé sont non seulement les plus lucratives mais aussi les plus faciles à obtenir. Nous devons donc faire évoluer notre niveau de jeu en la matière. Nous proposons ainsi la qualification SecNumCloud qui, outre les aspects extraterritoriaux, comporte un référentiel de cybersécurité de très haut niveau. Un report partiel en 2025 est envisageable – on peut en discuter, car le référentiel SecNumCloud comporte différents stades –, mais il faut envoyer un signal fort à nos concitoyens.

Mme Anne Le Hénanff, rapporteure. J’émets un avis défavorable, même si votre amendement part d’une bonne intention. Nous partageons l’idée qu’il faut préserver les données des Français, mais ce que vous proposez est absolument irréalisable. On ne peut pas faire migrer au 1er juillet 2024 les données de santé actuelles dans le cadre du référentiel SecNumCloud.

Cette qualification, qui est délivrée par l’Anssi et qui correspond au plus haut niveau de sécurisation des données en France, comprend 700 items, soit 70 pages. Nous avons auditionné, comme vous l’aviez demandé, Cloud Temple, qui nous a dit que cette certification demandait deux à trois ans de travail à une entreprise disposant pour cela de vingt équivalents temps plein. Le délai que vous proposez est donc surprenant.

Par ailleurs, demander, voire exiger compte tenu du ton de votre intervention, que toutes les données de santé des Français, de la civilité aux examens biologiques réalisés, soient hébergées sur un cloud souverain ou ayant la qualification SecNumCloud n’est pas sérieux. Il faut procéder, avant une migration de ce type, à une qualification des données. Il n’est pas nécessaire que toutes les données de santé soient conservées au niveau SecNumCloud. Une cartographie préalable, qui prend du temps, s’impose.

Le ministère de la santé, que j’ai tenu à auditionner, suit une démarche assez remarquable en matière de protection des données. Le référentiel HDS, Hébergeurs de donnés de santé, qui est à 100 % français, permet de protéger ces données : on ne peut pas faire comme s’il n’existait pas. Je me suis tournée vers la société Medaviz, qui fait de la télémédecine – 70 000 patients ont recours à ses services – et qui est implantée dans mon territoire. Pour son PDG, la migration en SecNumCloud ne présente pas d’intérêt : c’est très lourd et, à ce stade, le référentiel HDS est satisfaisant.

Nous avons pour ambition d’aller vers un niveau optimal de sécurité, notamment dans le cadre de la circulaire « Cloud au centre », mais une migration vers le référentiel SecNumCloud au 1er juillet 2024 serait absolument irréalisable.

M. Jean-Noël Barrot, ministre délégué. Même avis. L’hébergement des données de santé fait l’objet d’une obligation de certification spécifique, prévue par le code de la santé publique, afin de protéger ce type de données. À ce jour, 284 hébergeurs sont certifiés HDS, pour différentes activités, par neuf organismes accrédités par le Comité français d’accréditation (Cofrac).

Il est prévu de faire évoluer le référentiel de certification HDS d’ici à la fin de l’année afin d’inclure des exigences nouvelles en matière de souveraineté, notamment en ce qui concerne le lieu physique de l’hébergement, qui doit être restreint à l’espace économique européen, la transparence, pour les clients des prestations et les utilisateurs finaux, le risque de transfert et les mesures de réduction de ce risque. Une telle évolution est également l’occasion de clarifier le périmètre de certaines activités d’hébergement et d’offrir une matrice de correspondance entre HDS et SecNumCloud, afin de simplifier les démarches de certification HDS pour les hébergeurs ayant la qualification SecNumCloud.

Mme Sophia Chikirou (LFI-NUPES). Nous ne devons pas seulement tendre vers la protection de ces données, madame la rapporteure : nous avons une obligation en la matière. Ce qui existe aujourd’hui est insuffisant, et une planification consiste à fixer des dates. Le 1er juillet 2024 est peut-être trop tôt, mais il faut au moins organiser la mise en place de la sécurisation des données. C’est indispensable compte tenu du niveau d’alerte, du niveau des attaques et des enjeux. Nous avons laissé se développer un marché de la santé, et même des données de santé : nous en payons les conséquences. Le législateur doit agir concrètement et rapidement, en fixant des dates, puis en se donnant les moyens de respecter le calendrier. Nous examinerons bientôt le projet de loi de finances (PLF) : nous pouvons tout à fait accompagner les entreprises concernées.

M. Philippe Latombe (Dem). On ne peut pas se contenter de dire que ce n’est pas réalisable au 1er juillet 2024, faute de moyens. Il existe déjà des hébergeurs de données de santé ayant la qualification SecNumCloud. Je peux vous en citer trois, que vous connaissez d’ailleurs. L’un d’entre eux est un grand acteur qui est plutôt implanté dans le nord de la France et qui fait la fierté de notre pays – il est souvent mis en avant par le Gouvernement.

SecNumCloud comporte plusieurs phases. Prévoyons donc que les 200 premiers items, les plus protecteurs pour les données de santé, sont pour le 1er juillet 2024, et que le reste, qui concerne notamment la gouvernance, est reporté au 1er janvier 2025. On peut agir, au lieu de laisser sans protection les données de nos concitoyens – on le voit tous les jours avec les attaques contre les hôpitaux, qui sont des hébergeurs de données de santé, et les fuites de données, qui sont vendues. À chaque fois, c’est une sorte d’agression vis-à-vis des patients.

Quant aux entreprises spécialisées dans la prise de rendez-vous, elles ont aussi des données sensibles. Quand une personne prend rendez-vous chez un oncologue, c’est une information sur sa santé. Ces données doivent être protégées, et c’est d’ailleurs ce que demande le RGPD.

Mme Anne Le Hénanff, rapporteure. On ne peut pas faire les choses à moitié : on est au niveau SecNumCloud ou on n’y est pas. Si on se limite aux 200 premiers items, on n’y est pas, ce n’est pas vrai.

Nous protégeons les données de santé des Français dans le cadre du référentiel HDS : elles ne se retrouvent pas dans la nature, fort heureusement !

La commission adopte l’amendement et l’article 10 bis B ainsi rédigé.

Amendement CS260 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Je reviens sur les propos de M. Barrot, qui a mis en cause les positions de mon parti au sein du Parlement européen. Nous nous sommes abstenus sur le DSA à cause des signaleurs de confiance, parce que nous considérions qu’une question se posait du point de vue de la démocratie, et nous avons voté pour le DMA.

Je préside le groupe d’études « économie, sécurité et souveraineté numériques », qui a entendu vingt intervenants différents. Tous – NumSpot, Whaller, la Commission nationale de l’informatique et des libertés (Cnil) ou Docaposte – étaient pour l’article 10 bis A, que vous avez décidé de supprimer. Nous allons coordonner, dans le cadre du groupe d’études, le dépôt d’amendements en séance et nous reviendrons à la charge en commission mixte paritaire : nous vous ferons plier.

L’amendement CS260 demande au Gouvernement d’élaborer une stratégie nationale pour la souveraineté numérique qui vise à identifier les menaces à notre indépendance, à favoriser la transformation numérique de l’État en matière de souveraineté et à faire du développement des entreprises technologiques et de notre écosystème numérique une priorité, un peu comme ce que vous avez prévu pour l’industrie verte.

Mme Anne Le Hénanff, rapporteure. Je vous félicite pour les saines lectures que vous semblez avoir – je pense en particulier au récent rapport de la Commission supérieure du numérique et des postes qui traitait de la souveraineté numérique.

Votre amendement évoque, s’agissant de la stratégie que vous appelez de vos vœux, la période 2020-2030. Or nous sommes déjà en 2023, ce qui pose un problème.

La France a une ambition en matière de souveraineté numérique – nous n’avons pas attendu les propositions du RN – et une vraie vision. Par ailleurs, il y a ce que l’on fait et ce que l’on dit : nous préférons faire, plutôt que dire des choses qui ne sont pas faisables.

Le ministre délégué pourra, s’il le souhaite, afin de vous rassurer, développer la stratégie du Gouvernement. À ce stade, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Je le regrette, monsieur Lopez-Liguori, mais c’est ainsi : vos collègues du groupe ID – Identité et Démocratie – au Parlement européen se sont majoritairement abstenus en ce qui concerne le DMA et le DSA, y compris des membres de la délégation française, comme Jordan Bardella. Par ailleurs, ce groupe s’est abstenu au sujet du règlement sur des données, le Data Act.

Vous prétendez que la majorité plante un couteau dans le dos de tout un écosystème, alors que nous avons œuvré en faveur du règlement sur les données, qui va instaurer, pour la première fois, des conditions d’équité commerciale dans le marché du cloud. Vous devriez plutôt convaincre vos collègues au Parlement européen de mettre autant d’énergie que vous, au sein de cette commission, au service de la souveraineté numérique : dites à M. Bardella de voter dès demain le règlement sur les données.

M. Philippe Latombe (Dem). Je ne partage pas forcément l’idée que nous ayons besoin chaque année, au Parlement, d’un débat sur la souveraineté numérique. En revanche, il nous faut absolument une vision globale de la stratégie numérique de l’État, dans toutes ses composantes. Sans vouloir vous faire offense, monsieur le ministre délégué, le numérique est éclaté entre différents ministères et différents textes. Vous n’avez pas la main sur le numérique dans la santé, ni sur la transformation numérique de l’État – elle est chez votre collègue Guerini.

Par ailleurs, la direction interministérielle du numérique (Dinum) a un problème : elle est restée pendant neuf mois sans responsable et il faut du temps à sa nouvelle patronne pour renouer les contacts avec l’ensemble des DSI – directions des systèmes d’information – des différents ministères. On sait bien que chaque DSI est entourée de sacs de sable et de miradors et que la vision de la donnée est totalement différente selon les ministères – et je ne parle même pas des ministères régaliens, comme la défense et l’intérieur. Quant à la justice, elle est un peu en retard dans ce domaine. Il nous faut une vision stratégique globale, qui n’existe pas actuellement.

M. Denis Masséglia (RE). Nous devons effectivement développer une vision beaucoup plus globale et beaucoup plus poussée en ce qui concerne la transition, voire la révolution numérique. Toutefois, avant de demander au Gouvernement de présenter au Parlement, une fois par an, sa stratégie, nous devrions peut-être nous interroger sur ce que fait l’Assemblée nationale en matière de suivi du numérique. Je peux vous faire une proposition : fusionner les commissions de la défense et des affaires étrangères pour créer une commission du numérique et de l’innovation, qui permettra d’élaborer à l’Assemblée nationale une vraie stratégie et une vraie vision.

M. Jean-Noël Barrot, ministre délégué. La responsabilité, s’agissant de la stratégie numérique de l’État, se situe au niveau interministériel, mais elle incombe plus particulièrement au ministère de la transformation et de la fonction publiques.

La Dinum a demandé aux directeurs du numérique ministériels un planning pour l’élaboration des feuilles de route du numérique et de la donnée publique, dont la formalisation a été actée, dans le cadre du septième comité interministériel de la transformation publique, pour la fin de l’année 2023. Ces feuilles de route ont notamment pour objectif de garantir l’usage du numérique au profit des politiques prioritaires du Gouvernement. Le document attendu, qui devra être synthétique, pourra être construit autour de la question de l’ambition numérique au service des politiques prioritaires de chaque ministère, des constats en matière d’organisation, de cartographie numérique et d’urbanisation numérique, des évolutions nécessaires pour réussir, grâce au numérique, les politiques publiques identifiées, de la description des projets numériques au service des politiques publiques à lancer dans les deux années à venir, et des référentiels, schémas d’échanges et plateformes à mettre en œuvre, le cas échéant, au service des projets opérationnels.

La Dinum reprend ainsi la place qu’elle n’aurait, peut-être, jamais dû cesser d’occuper, celle d’un acteur central chargé de la coordination entre les directions numériques des ministères. Cela permettra d’unifier et d’harmoniser les pratiques et d’atteindre l’objectif que chacun ici partage.

La commission rejette l’amendement.

Article 10 bis : Obligations renforcées de transparence et de sécurisation des données à destination des fournisseurs de services d’informatique en nuage

Amendement CS932 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Cet article, également introduit par nos collègues du Sénat, met en avant un aspect extrêmement important : la transparence, à laquelle nous sommes évidemment favorables et qu’il n’est pas envisageable de retirer du texte. Mon amendement vise à réécrire l’article pour l’enrichir et le préciser, notamment afin de coller au Data Act.

M. Jean-Noël Barrot, ministre délégué. Avis favorable, pour plusieurs raisons.

Tout d’abord, la transparence est souhaitable. J’ai évoqué tout à l’heure les difficultés que pourraient poser, pour les négociations au niveau européen, des mesures de coercition prises trop tôt, mais personne ne pourrait reprocher à la France de vouloir faire la transparence sur les caractéristiques des offres d’hébergement en ligne. Cela permettra, au contraire, de faire grandir chez les différents acteurs, qu’ils appartiennent à la sphère publique ou à la sphère privée, la prise de conscience de la nécessité de mieux protéger leurs données.

Par ailleurs, Mme la rapporteure a intégré dans son amendement des aspects qui relèvent du règlement sur les données et dont nous avons déjà discuté.

Enfin, je souligne que Mme la rapporteure a repris certaines propositions figurant dans d’autres amendements qui tomberont si celui-ci est adopté – il s’agit notamment des informations relatives à l’empreinte écologique de l’hébergement en ligne.

M. Philippe Latombe (Dem). Selon Mme la rapporteure, cet amendement procéderait à une réécriture issue du Data Act, mais nous ne devons pas avoir la même lecture de celui-ci. Les travaux du Sénat y collaient parfaitement, même si j’ai déposé un amendement visant à ajouter un élément qui a été inséré, il y a une semaine et demi, dans la partie relative à la transparence – cela concerne la juridiction à laquelle est soumise l’infrastructure juridique déployée pour le traitement des données des services individuels des fournisseurs de cloud.

La réécriture totale de l’article 10 bis que vous proposez n’est pas conforme au Data Act. Elle ne satisfera donc ni nos collègues du Parlement européen qui ont travaillé sur ce sujet ni nos collègues sénateurs, en particulier Mme Morin-Desailly.

M. Hervé Saulignac (SOC). Une telle réécriture est très éloignée de la rédaction adoptée par le Sénat. Elle ne répond pas, selon moi, aux enjeux de la transparence et, contrairement à ce que vous avez affirmé, madame la rapporteure, elle ne respecterait plus le Data Act. En effet, votre amendement n’imposerait qu’à une sélection restreinte de fournisseurs de services de cloud, ceux détenant une certification en matière de cybersécurité, d’informer les utilisateurs. Ce serait un recul dommageable, et nous ne voterons donc pas pour votre proposition de réécriture.

La commission adopte l’amendement et l’article 10 bis est ainsi rédigé.

En conséquence, les autres amendements tombent.

Chapitre III
Régulation d’intermédiation des données

Article 11 : Compétence de l’Arcep en matière de régulation des services d’intermédiation de données

Amendements CS346 de Mme Soumya Bourouaha et CS347 de M. André Chassaigne

Mme Emeline K/Bidi (GDR-NUPES). Nous proposons de renforcer la place et le rôle de la Cnil. L’amendement CS346 demande qu’elle soit systématiquement consultée sur les projets de lois et de décrets relatifs aux services d’intermédiation de données. L’amendement CS347 tend à assurer en la matière une association étroite de la Cnil à la préparation de la position française dans les négociations internationales. En effet, les services d’intermédiation de données traitent très largement de données à caractère personnel – des données de santé, des données issues d’études de consommation ou encore toutes sortes de données utiles en matière de marketing.

Mme Anne Le Hénanff, rapporteure. L’Arcep, qui a été désignée par le Gouvernement comme l’autorité compétente, a toute notre confiance. Elle fait un travail exceptionnel, tout le monde en convient, et elle saisit la Cnil en tant que de besoin. Je ne vois donc pas l’intérêt des mentions que vous proposez. Avis défavorable à ces deux amendements.

La commission rejette successivement les amendements.

Elle adopte l’amendement rédactionnel CS921 de Mme Anne Le Hénanff, rapporteure.

La commission adopte l’article 11 modifié.

Après l’article 11

Amendement CS312 de Mme Sophia Chikirou

Mme Sophia Chikirou (LFI-NUPES). Certes, il existe des liens entre l’Arcep et la Cnil mais, d’après l’audition de cette dernière et les recommandations qu’elle a faites, cela ne fonctionne pas si bien que vous le dites. Nous proposons donc d’inscrire la saisine de la Cnil dans le texte, comme elle le demande.

Mme Anne Le Hénanff, rapporteure. La Cnil est l’autorité compétente pour certaines parties du texte, mais pas pour le titre III.

L’intermédiation de données concerne la plupart du temps des données anonymisées ou industrielles. Le RGPD est applicable dans tous les cas et la Cnil pourra évidemment être saisie en cas de manquement – l’Arcep se verrait alors tirer les oreilles.

Avis défavorable.

La commission rejette l’amendement.

Article 12 : Compétence de l’Arcep en matière de régulation des services d’intermédiation de données

Amendement CS348 de Mme Emeline K/Bidi

Mme Emeline K/Bidi (GDR-NUPES). Il s’agit, à la suite d’une recommandation de la Cnil, d’ajouter cet organisme à la liste des personnes qui pourront saisir l’Arcep en cas de manquement au règlement sur la gouvernance européenne des données, aux côtés du ministre chargé des communications électroniques, des organisations professionnelles et des associations agréées d’utilisateurs.

Mme Anne Le Hénanff, rapporteure. Avis défavorable, pour les mêmes raisons que précédemment.

La commission rejette l’amendement.

Amendement CS920 de Mme Anne Le Hénanff

Mme Anne Le Hénanff, rapporteure. Cet amendement rédactionnel, qui concerne les pouvoirs de contrôle et de sanction de l’Arcep à l’égard des fournisseurs de services d’intermédiation de données, vise à coller au Data Act.

La commission adopte l’amendement.

Amendement CS486 de M. Jean-François Coulomme

M. Jean-François Coulomme (LFI-NUPES). Nous souhaitons une consultation obligatoire de la Cnil avant toute décision prolongeant ou reprenant des dispositions du RGPD, notamment en ce qui concerne les échanges de données entre entreprises et particuliers. Actuellement, vous l’avez dit, la Cnil peut seulement être consultée.

Suivant l’avis de la rapporteure, la commission rejette l’amendement.

Elle adopte l’article 12 modifié.

Article 13 : Articulation de la compétence de la Cnil et de l’Arcep s’agissant des données à caractère personnel, dans le cadre de la mission de régulation des services d’intermédiation de données par l’Arcep

Amendement CS313 de M. Andy Kerbrat

M. Andy Kerbrat (LFI-NUPES). Nous demandons une consultation préalable et suspensive de la Cnil avant toute décision de l’Arcep au sujet de l’intermédiation de données. Cela permettra de renforcer le poids d’une autorité qui est chargée des libertés et non pas seulement de l’économie. Depuis trois jours, nous avons beaucoup parlé des données, notamment personnelles, sous l’angle du risque de captation économique par le privé. Nous prenons, à La France insoumise, les données personnelles pour ce qu’elles sont, c’est-à-dire des éléments relatifs à la vie privée. C’est pourquoi le présent amendement tend à assurer une meilleure régulation et surtout protection des données personnelles.

Mme Anne Le Hénanff, rapporteure. Les données dont il est question sont, pour l’essentiel, anonymisées ou industrielles. Les atteintes aux données à caractère personnel ne sont donc pas monnaie courante dans ce domaine, et je fais confiance à l’Arcep et à la Cnil pour fonctionner d’une manière souple et efficace. Par conséquent, avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Andy Kerbrat (LFI-NUPES). Ce n’est pas, à proprement parler, une question de confiance : on peut faire confiance à toutes nos administrations, mais il nous appartient, par la volonté politique que nous exprimons, de leur indiquer ce qu’elles doivent faire.

Nous remarquons, depuis le début des débats, des dérives potentiellement liberticides et des contradictions avec le RGPD. Nous voulons des mécanismes de contrôle, et il nous semble que la Cnil fait partie des meilleurs outils en l’espèce.

La commission rejette l’amendement.

Amendement CS922 de Mme Anne Le Hénanff.

Mme Anne Le Hénanff, rapporteure. Ce dernier amendement au titre III vise simplement à apporter une précision juridique.

La commission adopte l’amendement.

Elle adopte l’article 13 ainsi modifié.

Article 14 : Coordinations juridiques au sein du code des postes et des communications électroniques

La commission adopte l’article 14 non modifié.

La réunion est suspendue de douze heures vingt à douze heures trente.

TITRE IV

ASSURER LE DÉVELOPPEMENT EN FRANCE DE L’ÉCONOMIE DES OBJETS DE JEUX NUMÉRIQUES MAGNÉTISABLES DANS UN CADRE PROTECTEUR

Avant l’article 15

Amendement CS766 de M. Philippe Latombe

M. Philippe Latombe (Dem). Compte tenu de leur définition proposée par l’article 15 du projet, les jeux à objets numériques monétisables (Jonum) remplissent les quatre critères des jeux de hasard et d’argent. Les Jonum doivent dès lors être soumis aux dispositions du code de la sécurité intérieure, au même titre par exemple que les casinos.

Mais nous pouvons aussi décider que les objets numériques des Jonum ne seront pas monétisables. Dans ce cas, il faut procéder aux modifications nécessaires. C’est ce que je propose de faire avec cet amendement pour ce qui concerne l’intitulé du titre IV, sachant que je proposerai ensuite la même chose à l’article 15.

M. Denis Masséglia, rapporteur pour les titres IV et VII. Il faut tout d’abord rappeler que l’article 15 comportait initialement une demande d’habilitation à légiférer par ordonnance. Le Sénat a préféré inscrire directement la définition des Jonum dans le texte, tout en laissant à l’Assemblée nationale le soin de déterminer les modalités de leur régulation.

C’est la raison pour laquelle, avec l’amendement CS924 que nous examinerons après l’article 15, je propose d’encadrer ce secteur du jeu tout en s’assurant qu’il puisse se développer. Cela passe par un grand nombre de dispositions – cet amendement fait six pages – dont certaines sont relatives à la protection des mineurs ou à la lutte contre le blanchiment d’argent.

Vous souhaitez que les objets numériques des Jonum ne soient plus monétisables. J’aurais pu comprendre qu’un tel amendement provienne de La France insoumise ou du Parti communiste… Nous parlons de jetons non fongibles (JNF, ou Non Fungible Token – NFT), que l’on achète, et vous dites que ceux qui les possèdent ne peuvent pas les revendre. Voilà ce que signifie votre amendement.

Demande de retrait.

M. Jean-Noël Barrot, ministre délégué. Nous engageons la discussion sur les Jonum et, avec les rapporteurs, nous allons essayer d’apporter toutes les réponses aux différentes questions sur le dispositif proposé et sur les garanties qui l’entourent.

Le Gouvernement avait sollicité une habilitation à légiférer par ordonnance afin d’encadrer l’émergence de ces jeux, qui sont fondés sur la technologie des chaînes de blocs et qui n’appartiennent ni au monde des jeux vidéo ni à celui des jeux d’argent. Des acteurs français émergents et d’autres plus traditionnels – comme le Pari mutuel urbain (PMU) – se développent et deviennent des leaders européens.

Nous avons estimé qu’il était possible de reproduire ce que nous avions réussi il y a cinq ans en prévoyant un cadre expérimental pour les prestataires de services sur actifs numériques (Psan). Je salue les parlementaires qui ont contribué à son élaboration, car cette expérimentation a été un franc succès. L’Union européenne s’en est largement inspirée.

Certains avaient exprimé des craintes à l’époque, mais soixante-dix acteurs ont participé à l’expérimentation et, au bout du compte, un seul agrément a été retiré par l’autorité de contrôle. Nous avions trouvé le bon équilibre entre, d’une part, la flexibilité nécessaire pour que l’innovation se développe en France plutôt qu’à l’étranger et, d’autre part, le niveau adapté de protection.

Si l’amendement de M. Latombe était adopté, il aurait pour effet d’imposer des contraintes très strictes au secteur des jeux vidéo, alors que l’amendement CS924 du rapporteur – qui, je l’espère, sera adopté – en proposera un cadre de régulation et de protection. L’objectif est bien de mieux réguler les Jonum. Demande de retrait.

M. Philippe Latombe (Dem). Je remercie le rapporteur d’avoir relevé que je suis d’extrême centre et que je discute de temps en temps avec La France insoumise ou la NUPES, voire partage leur avis… Cela me rassure.

Vous avez oublié de mentionner que le Gouvernement avait au départ transmis au Conseil d’État une autre rédaction de l’article 15, que tout le monde appelle l’« article Sorare ». Or le Conseil d’État a estimé qu’il n’était pas possible de légiférer pour une seule entreprise – d’où la demande d’habilitation à légiférer par ordonnance. Mais les sénateurs l’ont refusée, car ils ne voulaient pas déléguer leur pouvoir sur une question pareille.

Sorare et les Jonum constituent des jeux d’argent et de hasard au vu des quatre critères qui figurent dans la définition de ces derniers.

Soit on l’assume – et dans ce cas il faut appliquer l’ensemble des contraintes juridiques et fiscales déjà prévues pour le secteur des jeux d’argent et de hasard.

Soit on met en place un régime dérogatoire – mais il faut alors que les Jonum ne remplissent plus l’un des quatre critères précités. Cela peut être obtenu en renonçant à la monétisation des jetons. Il s’agira de NFT qui ne seront pas monétisables. Ce n’est pas grave.

Mme Ségolène Amiot (LFI-NUPES). M. Latombe a raison et il soulève une vraie question sur les jeux d’argent et de hasard. Celle-ci a d’ailleurs été tranchée par nos collègues belges, qui ont considéré que les Jonum en font partie précisément parce que les objets sont monétisables.

Les Jonum remplissent les quatre critères qui permettent d’identifier un jeu d’argent et de hasard. Les dispositions en vigueur pour ce secteur doivent donc impérativement être appliquées aux Jonum afin de les réguler – qu’il s’agisse de la fiscalité, du contrôle et de la lutte contre le blanchiment d’argent.

M. Stéphane Vojetta (RE). Ce n’est pas parce que l’on retirera un mot dans ce texte que l’on changera la nature des objets numériques monétisables. Ils peuvent être considérés comme des actifs financiers.

Notre travail doit permettre d’établir une définition législative de ces objets. C’est ce que nous avions essayé de faire à l’occasion des discussions qui ont abouti à la loi visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux. Nous avions alors examiné un amendement qui proposait d’anticiper une partie de la régulation, en encadrant la promotion en ligne de ces actifs. Le Gouvernement nous avait demandé de le retirer afin de disposer de temps pour définir un cadre adapté.

Le moment est venu d’en débattre. Mais ne nous éloignons pas du sujet en touchant à l’essence même de l’objet sur lequel nous devons légiférer.

M. Denis Masséglia, rapporteur. La définition retenue par le Sénat distingue les Jonum selon qu’ils fonctionnent en « boucle fermée » ou en « boucle ouverte ». Il s’agit de deux sujets vraiment différents.

Dans le premier cas, les jetons gagnés ne peuvent pas être monétisés à l’extérieur du jeu. Ce sont ces Jonum – qui relèvent du Web 2.0 – qui ont fait l’objet d’une loi en Belgique.

Dans le second cas – qui est celui qui nous intéresse – les jeux sont fondés sur la technologie Web3 et les objets peuvent être revendus à l’extérieur.

Aucun pays n’a encore légiféré sur ces Jonum en « boucle ouverte ». L’objectif est précisément de définir un cadre qui permette le développement d’entreprises en France, tout en s’assurant ce que ces Jonum ne soient pas un moyen de contourner la législation sur les jeux d’argent et de hasard. C’est la raison pour laquelle nous proposons des dispositions destinées à protéger les mineurs et à éviter le blanchiment d’argent.

M. Jean-Noël Barrot, ministre délégué. Les Jonum ne sont pas des jeux d’argent et de hasard parce que, contrairement à ces derniers, les joueurs n’obtiennent pas un gain monétaire immédiat en fonction du résultat. Ils deviennent propriétaires d’un objet numérique, qui peut être sorti du jeu et cédé à un tiers – à titre onéreux ou non. Il y a donc bien une différence de nature profonde entre un ticket de Loto et un objet numérique monétisable. Ce dernier peut être éventuellement cédé, mais il peut aussi être conservé, par exemple à titre d’objet de collection comme peut l’être une carte Panini.

C’est la raison pour laquelle ces objets numériques doivent avoir une définition appropriée, tout en prévoyant un régime de protection très similaire à celui des jeux d’argent et de hasard – avec quelques variations.

La commission rejette l’amendement.

Amendement CS456 de Mme Sophia Chikirou

Mme Sophia Chikirou (LFI-NUPES). L’Autorité nationale des jeux (ANJ) indique que le taux de prévalence du jeu problématique atteint 20 % pour les Jonum, soit deux fois plus que pour les jeux d’argent classiques. Ce taux peut même monter à 27 % pour les jeux de fantasy sportive, comme le fameux Sorare.

Je vous entends dire qu’il y a un enjeu de protection des utilisateurs, et notamment des jeunes – qui constituent la première cible de Sorare, par exemple. Mais vous voulez surtout faciliter un business qui pose un problème, surtout dans le cas de cette entreprise – dont tout le monde sait qu’elle est plus ou moins en déclin. L’article 15 permet de créer un régime d’exception, alors que son activité correspond à tous les critères des jeux d’argent et de hasard qui font qu’elle devrait être soumise à la fiscalité de ce secteur. On ne sait rien de la fiscalité que vous appliquerez à Sorare dans le cadre du régime que vous proposez.

Comme vous voulez favoriser le développement de ce type d’activité, vous refusez l’amendement de Philippe Latombe alors qu’il permettrait de justifier le régime d’exception que vous proposez en prévoyant que les objets numériques ne sont pas monétisables.

Le jeu Sorare’s 5 (So5) créé par Sorare présente toutes les caractéristiques d’un jeu d’argent et de hasard au sens du code de la sécurité intérieure. Il est ouvert au public. Il fait naître l’espérance d’un gain en avançant que des milliers d’euros peuvent être gagnés sous la forme de NFT. Il dépend par ailleurs de résultats sportifs réels, donc hasardeux. Les résultats de matchs reposent sur un système de points, en fonction des performances réelles des joueurs lors des matchs joués. Vous voulez faciliter les affaires de Sorare, alors que son jeu répond exactement à tous les critères des jeux d’argent et de hasard.

Nous sommes absolument opposés à l’article 15, qui prévoit de mettre en place un régime d’exception en faveur d’une seule entreprise. Nous avons des doutes énormes sur les motivations. C’est l’intérêt général qu’il faut rechercher, comme a su le faire M. Latombe – quitte à être qualifié d’insoumis ou de communiste.

M. Denis Masséglia, rapporteur. Vos remarques sont très dures.

Je ne propose pas de légiférer pour telle ou telle entreprise. Mon amendement CS924 à l’article 15 vise à encadrer le développement d’une nouvelle technologie. En France, on a trop souvent l’habitude de tout interdire, de telle sorte que les technologies se développent à l’étranger et qu’on décide ensuite de les réguler parce que nous sommes en retard.

Il serait illusoire de croire que seule la société Sorare travaille sur les Jonum en France. Cette entreprise a été la première dans ce domaine. Vous avez participé aux auditions et vous avez entendu ce qu’ont dit nombre d’intervenants – qu’il s’agisse du PMU, de l’Association pour le développement des actifs numériques (Adan), d’Ubisoft, du Syndicat national des jeux vidéo (SNJV) ou du Syndicat des éditeurs de logiciels de loisir (Sell) : la technologie des NFT pourrait à l’avenir être très présente dans les jeux vidéo.

C’est la raison pour laquelle nous souhaitons organiser une expérimentation pendant trois ans afin de permettre aux acteurs d’agir, tout en étant très vigilants sur les points qui sont détaillés dans mon amendement CS924. Nous ne voulons pas que ce cadre soit mortifère, mais nous ne voulons pas pour autant favoriser une entreprise. Il s’agit de permettre le développement des NFT dans les jeux vidéo. Il se pourrait qu’il y ait des NFT dans Mario Kart à l’avenir. Vous direz alors à nos enfants qu’ils n’ont pas le droit d’y jouer parce qu’ils peuvent en gagner un.

M. Jean-Noël Barrot, ministre délégué. Une jeune entreprise innovante bien connue de chacun d’entre nous s’est lancée dans le secteur du Jonum : c’est le PMU – qui compte 14 000 points de vente et fait vivre une filière hippique qui emploie 60 000 personnes en France. Demandez aux responsables du PMU pourquoi ils ont décidé d’innover en se lançant dans ce type.

Mme Sophia Chikirou (LFI-NUPES). Parce qu’il y a de l’argent à faire !

M. Jean-Noël Barrot, ministre délégué. Pour garantir l’avenir de la filière hippique et entretenir les points de vente – qui sont parfois les derniers lieux de socialisation dans nos villes et nos villages –, l’entreprise doit s’adapter à l’air du temps et rester en pointe, afin que sa clientèle et les nouvelles générations ne soient pas tentées par des jeux non régulés en France mais qui seraient accessibles ailleurs. Voilà pourquoi l’amendement qui vous sera ensuite présenté par le rapporteur propose d’instaurer un encadrement conforme à nos valeurs.

Cela m’étonnerait que l’ANJ ait dit que le taux de prévalence atteint 20 % pour les Jonum, madame Chikirou, mais je veux bien que vous nous le démontriez. Il s’agit d’une activité qui débute à peine et il n’est pas encore possible d’effectuer de telles mesures.

L’expérimentation que nous proposons va susciter des vocations, comme ce fut le cas avec les Psan il y a cinq ans Cela permettra à la France d’imposer ensuite son cadre de régulation à l’ensemble de l’Europe. Voilà notre ambition. Nous ne voulons pas subir car, que nous le voulions ou non, ces jeux vont se développer dans le reste du monde avec des règles très différentes.

Mme Sophia Chikirou (LFI-NUPES). Les données que j’ai citées sont établies – j’ai demandé leur source exacte – et je n’en aurais pas fait mention si je n’en étais pas certaine.

Faut-il laisser se développer ce business, qui n’est pas forcément très moral ? On sait que les jeux d’argent et de hasard rendent des gens dépendants et détruisent des familles. On sait que les jeunes en sont de plus en plus la cible.

Nous avons le devoir de nous préoccuper de la protection des mineurs davantage que du développement du business de ces jeux. Or ce n’est pas ce que vous proposez dans ce texte, qu’il va donc falloir amender.

C’était mon premier argument. Mais comme nous manquons de temps pour débattre même en commission, je reprendrai la parole tout à l’heure.

M. Pierre Cazeneuve (RE). On ne peut pas appliquer l’encadrement prévu pour les jeux d’argent et de hasard aux Jonum, car il s’agit d’un nouveau secteur. Ces jeux ne peuvent pas être comparés au poker ou aux courses hippiques. L’arrivée de la technologie du Web3 et des NFT dans les jeux vidéo est inéluctable. Sorare a développé un premier modèle, mais je suis certain que, dans cinq ans, on trouvera des NFT partout, que ce soit dans Fortnite ou dans Call of Duty.

Il faut donc prévoir une régulation, notamment pour protéger les mineurs. C’est ce qu’il est prévu de faire en amendant l’article 15.

Il est impossible de brider seulement en France le développement d’une technologie qui apportera de la croissance et beaucoup d’emplois – et dans laquelle nous occupons une place de leader.

La commission rejette l’amendement.

Article 15 : Encadrement des jeux à objets numériques monétisables (Jonum)

Amendements de suppression CS133 de M. Aurélien Taché et CS353 de Mme Soumya Bourouaha

M. Aurélien Taché (Écolo-NUPES). Contrairement au président Macron, je n’ai rien contre les jeux vidéo. Je ne pense pas qu’il s’agisse d’une plaie qui conduit les jeunes à se révolter ou à prendre le mauvais chemin.

En revanche, j’ai un problème avec les jeux d’argent. Car, à Cergy, je vois tous les jours des jeunes qui jouent aux paris sportifs et qui sont visés par des publicités pour ces jeux. Des familles sont brisées parce qu’elles ont des dettes et qu’elles ne savent plus comment s’en sortir.

Le fameux jeu Sorare est très répandu dans les quartiers populaires et parmi les jeunes qui y vivent. Cela fonctionne un peu sur le même modèle que les paris sportifs. À partir du moment où vous pouvez espérer gagner des milliers d’euros et où c’est le match du week-end qui va déterminer si vous avez gagné ou perdu, il s’agit bien d’un jeu d’argent et pas d’un jeu vidéo.

Monsieur le rapporteur, vous présidez le groupe d’études sur le jeu vidéo. Je sais que vous êtes un passionné. Mais vous voyez bien que le dispositif que vous nous proposez n’est pas prêt. Prenez le temps, réfléchissez et revenez nous présenter une proposition de loi quand les choses seront plus claires.

Nous ne parlons pas d’un jeu vidéo où l’on peut acheter un petit accessoire valant 10 euros pour améliorer un personnage. Ces Jonum font naître l’espoir de gains de plusieurs milliers d’euros. C’est une sorte de PMU 3.0 et cela n’est pas acceptable.

Supprimons cet article et prenons le temps de la réflexion pour construire quelque chose de véritablement solide. Gardons surtout à l’esprit les dégâts que ces jeux peuvent causer aux familles, ce dont je suis témoin chaque jour dans ma circonscription.

Mme Émeline K/Bidi (GDR-NUPES). Mon collègue a bien décrit les risques liés aux Jonum ainsi que nos inquiétudes. On est en train d’ouvrir un nouveau marché et l’on ne se pose absolument pas la question de son contrôle. Cet article est incomplet. Nous ne sommes pas obligés de légiférer dans l’urgence et l’Assemblée nationale doit prendre le temps d’élaborer un dispositif qui tiendra compte de l’ensemble des enjeux.

M. Denis Masséglia, rapporteur. Je vous écoute, mais avez-vous vraiment lu l’amendement CS924 que je présenterai par la suite ? Vous dites que vous avez des inquiétudes – ce qui est légitime –, mais le dispositif que je propose y répond précisément.

M. Taché souhaiterait que nous adoptions une loi qui serait faite pour durer. Je n’y suis pas favorable, car il est préférable à ce stade d’organiser une expérimentation. Personne ne connaît vraiment le rôle que joueront les NFT dans les jeux vidéo dans deux ans. Il faut donc faire deux choses : autoriser une expérimentation, ce qui va nous permettre de découvrir les choses au fur et à mesure, et déterminer un encadrement qui évoluera en fonction du développement technologique des Jonum et des NFT – ce que prévoit mon amendement.

En France, on a trop souvent l’habitude de fixer un cadre législatif préalable qui est souvent dépassé avant même que les décrets d’application ne soient publiés. Les sénateurs ont eu la bonne idée de mettre en place une expérimentation. Complétons-la en prévoyant un cadre destiné à l’accompagner et à protéger les plus jeunes.

M. Jean-Noël Barrot, ministre délégué. Le texte voté par le Sénat ne comprend en effet pas de cadre de régulation pour entourer l’expérimentation sur les Jonum. Mais le Gouvernement donnera un avis favorable à l’amendement CS924 du rapporteur, qui prévoit ces protections.

Je vais en citer quelques-unes.

Une déclaration préalable de l’offre de jeu devra être effectuée auprès de l’ANJ, qui s’assurera que celui-ci respecte les critères fixés par la définition légale.

Chaque joueur devra créer un compte, ce qui permettra de vérifier son identité et son âge.

Il sera interdit aux mineurs d’accéder à ce type de jeu et des messages le rappelleront sur l’interface. La publicité pour les mineurs sera interdite.

Il est prévu de lutter contre le jeu excessif ou pathologique, avec des messages de mise en garde et la mise en place de dispositifs d’auto-exclusion et d’autolimitation des dépenses et du temps de jeu.

L’amendement prévoit de lutter contre la fraude et le blanchiment d’argent, notamment grâce à une analyse en continu des opérations et des relations d’affaires – lesquelles pourront le cas échéant donner lieu à une déclaration de soupçon à Tracfin.

La lutte contre les conflits d’intérêts dans le sport et l’hippisme n’est pas oubliée, puisque les fédérations sportives et les sociétés de courses devront empêcher les acteurs des compétitions sportives et des courses hippiques de jouer aux Jonum, de céder des objets numériques monétisables ou de communiquer des informations privilégiées.

Enfin, le cadre présenté par le rapporteur fixe les pouvoirs de contrôle, d’enquête et de sanction de l’ANJ.

Le niveau de protection est donc élevé. L’amendement CS924 répond à un certain nombre de questions qui ont été soulevées ou le seront à l’occasion de la discussion des amendements qui suivent.

M. Philippe Latombe (Dem). Continuons à parler de droit.

La définition des jeux d’argent et de hasard comprend quatre critères. Sorare les remplit et votre définition des Jonum correspond également à ces critères.

Expérimentation ou pas, le régime français des jeux d’argent et de hasard repose sur la prohibition. Vous allez devoir expliquer en quoi les Jonum diffèrent des jeux d’argent et de hasard. D’ailleurs, les mesures de contrôle prévues par le fameux amendement CS924 montrent bien qu’il s’agit de la même chose, puisque vous faites systématiquement référence à des mesures applicables à ce dernier secteur.

Le dispositif que vous proposez est, selon moi, anticonstitutionnel et un requérant pourrait faire valoir une rupture d’égalité à l’occasion d’une question prioritaire de constitutionnalité (QPC).

Quant à la fiscalité, vous renvoyez au projet de loi de finances – que nous n’aurons de toute manière pas l’occasion de voter du fait du recours à l’article 49.3…

Nous allons avoir un véritable problème.

L’ANJ a signifié à Sorare que son activité relevait du cadre des jeux d’argent et de hasard. Cette société souhaite sortir de ce dernier et ne peut le faire que grâce à une loi. Ce n’est pas acceptable.

M. Éric Bothorel (RE). Certains veulent supprimer cet article au motif qu’ils ne veulent pas d’expérimentation. Comment légifère-t-on face à des technologies innovantes ? L’état de l’art évolue en permanence et l’écriture de la loi est une affaire complexe, qui prend du temps.

En France, nous ne souffrons pas d’un excès d’expérimentations mais, bien au contraire, de leur carence. Nous avons bien vu que l’expérimentation sur les Psan avait été nécessaire. Une telle démarche mériterait aussi d’être entreprise en matière d’open data.

Ce qui est proposé par ce projet va dans le bon sens. C’est la meilleure façon d’aborder le sujet. Avec ce texte, nous avons pour ambition de sécuriser les consommateurs mais aussi d’encourager ceux qui investissent les champs numériques d’avenir. Sorare en fait partie.

Dans un bac à sable, les enfants n’ont pas le droit de faire ce qu’ils veulent. Donc, vive le bac à sable !

Mme Ségolène Amiot (LFI-NUPES). Je crois qu’on se trompe de débat.

Il ne s’agit pas d’empêcher l’innovation technologique, mais de faire face à ce qui constitue un jeu d’argent et de hasard qui ne dit son nom, qui n’a pas demandé d’agrément mais qui repose sur un support numérique.

Il faut donc appliquer à ce support les règles afférentes aux jeux d’argent et de hasard – qui sont celles proposées par l’amendement du rapporteur – mais aussi la fiscalité prévue pour les entreprises de ce secteur.

Quelle est la différence entre les jeux d’argents et de hasard et un Jonum, qui justifie qu’on leur applique les mêmes règles mais pas la fiscalité ?

M. Paul Midy, rapporteur général. Tout d’abord, il faut quand même bien aborder les définitions dans le détail, parce que le sujet est très compliqué et très conceptuel. Il faut se garder de le considérer de trop loin, car en procédant ainsi on pourrait aussi estimer que l’achat d’une action en Bourse relève d’un jeu d’argent et de hasard… Veillons à situer nos débats au bon niveau.

Ensuite, nous cherchons à reproduire la démarche adoptée il y a cinq ans pour les Psan. Les mêmes objections que celles que nous venons d’entendre avaient alors été formulées. Or c’est un triple succès.

Le cadre qui avait alors été défini était clair, ce qui a conduit les acteurs internationaux à venir en France – au moins savaient-ils à quelle sauce ils allaient être mangés…

Comme ce cadre de régulation était bien fait, l’Union européenne l’a copié-collé.

Toutes les sociétés qui sont venues en France ou qui sont en train de le faire ont trois ans d’avance sur la réglementation européenne.

Grâce à tout cela, la France est le hub numéro un des cryptoactifs en Europe.

Nous avons la même ambition en ce qui concerne les Jonum, car cela représente de l’activité et des emplois, ainsi que des ressources fiscales pour financer les politiques publiques. Il convient, en outre, de garantir notre souveraineté technologique dans le domaine des NFT.

Enfin, le cadre de régulation que nous proposons avec le rapporteur est extrêmement restrictif, notamment en ce qui concerne le blanchiment d’argent, la lutte contre les addictions et la protection des mineurs.

La commission rejette les amendements.

6.    Deuxième réunion du jeudi 21 septembre 2023 à 15 heures

Lien vidéo : https://assnat.fr/nPlweC

M. le président Luc Lamirault. Nous poursuivons l’examen du projet de loi visant à sécuriser et réguler l’espace numérique.

TITRE IV
ASSURER LE DÉVELOPPEMENT EN FRANCE DE L’ÉCONOMIE DES OBJETS DE JEUX NUMÉRIQUES MONÉTISABLES DANS UN CADRE PROTECTEUR (SUITE)

Article 15 (suite) : Encadrement des jeux à objet numérique monétisable (Jonum)

Amendement CS92 de M. Jean-Jacques Gaultier

M. Jean-Jacques Gaultier (LR). L’amendement vise à supprimer l’aspect monétisable des objets numériques, car la définition actuelle ne permet pas de distinguer les jeux à objet numérique monétisable (Jonum) des jeux d’argent et de hasard. Il n’est pas besoin d’une monétisation directe pour caractériser un gain. Nous proposons de maintenir une frontière claire et étanche entre les Jonum et les jeux d’argent et de hasard.

M. Denis Masséglia, rapporteur pour les titres IV et VII. L’une des différences principales entre les Jonum et les jeux d’argent réside dans le fait que, s’agissant des premiers, il est interdit de faire une mise financière : on est propriétaire d’un jeton non fongible (JNF) que l’on ne peut pas perdre. Défavorable.

M. Jean-Noël Barrot, ministre délégué auprès du ministre de l’économie, des finances et de la souveraineté industrielle et numérique, chargé du numérique. Même avis.

M. Philippe Latombe (Dem). Nous sommes un certain nombre, au sein du groupe Démocrate comme de LR et de la NUPES à penser que les Jonum réunissent les quatre critères des jeux d’argent et de hasard. Donc, de deux choses l’une : soit on les fait entrer dans le cadre commun, en les encadrant, notamment sur le plan financier, soit on les considère comme une catégorie à part, ce qui implique que l’un des quatre critères ne soit plus présent. Je ne peux qu’abonder dans le sens de M. Gaultier.

La commission rejette l’amendement.

Amendement CS93 de M. Jean-Jacques Gaultier

M. Jean-Jacques Gaultier (LR). On risque de voir apparaître une distorsion de concurrence durable au détriment des opérateurs légaux, au premier rang desquels les casinos physiques, puisque l’offre de casino en ligne est actuellement illégale en France. Aussi cet amendement vise-t-il à instituer une exception au principe de prohibition des jeux d’argent et de hasard au profit des Jonum.

M. Denis Masséglia, rapporteur. L’article 15 a pour objet d’instituer une expérimentation pendant trois ans en vue d’aboutir à l’élaboration d’un cadre juridique pour les Jonum. Il ne s’agit en aucun cas de construire une alternative légale aux casinos en ligne. J’ai déposé l’amendement CS924, portant article additionnel après l’article 15, qui vise à apporter toutes les garanties à ce sujet. Il vous est loisible de proposer un sous-amendement pour étendre ces garanties, si vous le jugez nécessaire.

M. Jean-Noël Barrot, ministre délégué. Même avis. Une différence fondamentale entre les jeux visés par l’article 15 et les jeux d’argent et de hasard tient au fait que l’entreprise qui diffuse les Jonum ne les monétise pas, mais a pour objectif de développer un univers de jeux susceptible d’attirer les joueurs. L’entreprise ne distribue pas de lots, n’attribue pas de récompenses en argent. Ce secteur est dans une position intermédiaire entre les jeux vidéo et les jeux d’argent et de hasard.

Mme Sophia Chikirou (LFI-NUPES). On sent qu’il vous est difficile, monsieur le ministre, de défendre cet article. Les Jonum remplissent tous les critères des jeux d’argent et de hasard. La seule raison pour laquelle vous faites adopter cet article a pour nom la société Sorare. Vous ouvrez une brèche dans laquelle vont s’engouffrer les casinos en ligne, qui vont profiter des ambiguïtés de cette disposition – vous le savez pertinemment. Cet amendement, que nous voterons, vous propose de limiter la casse en encadrant davantage le secteur. Nous le déposerions en séance s’il était rejeté.

M. Philippe Latombe (Dem). Je rejoins l’avis de mes collègues. Si cet amendement était rejeté, vous seriez confrontés à un problème de constitutionnalité lié à une rupture d’égalité. Le texte évoque « […] un mécanisme faisant appel au hasard, par les joueurs ayant consenti un sacrifice financier […] ». Même si le joueur peut détenir un NFT (non fungible token), celui-ci peut perdre toute valeur, auquel cas il serait dépossédé de l’argent qu’il a engagé. Les quatre critères sont donc respectés, ce qui appelle une limitation du champ des Jonum et la suppression de l’un des critères. De surcroît, l’ajout des mots « à l’exclusion de l’obtention de tout gain monétaire » aggrave la situation, car cela signifie que les gains effectués sous la forme de NFT pourront être échangés en cryptomonnaie sur des plateformes extérieures, ce qui empêchera de retracer les flux.

M. Paul Midy, rapporteur général. Les jeux numériques se distinguent des jeux d’argent et de hasard. D’une part, la monétisation a lieu à l’extérieur des plateformes. D’autre part, les Jonum ne comportent pas de mise, laquelle doit être distinguée du sacrifice financier. On ne veut surtout pas, par ce texte, ouvrir la porte à des casinos en ligne ou introduire une concurrence avec la Française des jeux ou les casinos physiques. À cet effet, trois types de garde-fous sont institués. Premièrement, le texte fixe des seuils et prévoit que les gains en cryptoactifs doivent présenter un caractère accessoire. Deuxièmement, l’activité est encadrée : le rapporteur a déposé des amendements visant à introduire des règles concernant les mineurs, les addictions, le blanchiment et la lutte contre la fraude. Troisièmement, la définition figurant à l’article 15 est provisoire, puisqu’une expérimentation sera conduite pendant trois ans. J’ajoute que nous allons proposer des clauses de revoyure avant la fin de l’expérimentation. Si l’on détecte le moindre dérapage, on reviendra en arrière ou on modifiera la définition. Il faut accepter de prendre un petit risque, qui est d’autant plus faible que les choses sont très encadrées. Je mets ma main à couper qu’au cours des trois ans de l’expérimentation, aucun client d’un casino physique ne s’en détournera au profit d’un Jonum.

La commission rejette l’amendement.

Amendement CS135 de M. Aurélien Taché et CS349 de Mme Emeline K/Bidi (discussion commune)

M. Aurélien Taché (Écolo-NUPES). Nous ne sommes absolument pas convaincus par votre expérimentation. On est en train de créer une zone grise entre les casinos en ligne et ce que vous présentez comme des jeux numériques ou des jeux vidéo. Vous préconisez le laisser-faire, mais les start-up vont s’inspirer du modèle de Sorare, qui gagne de l’argent. À tout le moins, limitons l’expérimentation. On n’a pas besoin de trois ans pour voir ce qui va se passer : le monde du numérique avance vite. Ramenons la durée de l’expérimentation à dix-huit mois et reparlons-en.

Mme Emeline K/Bidi (GDR-NUPES). Nous sommes opposés à l’expérimentation. À tout le moins, nous vous proposons de la faire passer de trois ans à un an, durée largement suffisante pour évaluer le dispositif.

M. Denis Masséglia, rapporteur. La durée de trois ans est en effet un peu longue. C’est pourquoi l’amendement CS226 de M. Taché, qui fait l’objet de mon sous-amendement CS955, vise à prévoir un bilan d’étape après un an et demi. Cela nous permettra d’apporter les modifications nécessaires tout en poursuivant l’expérimentation. Demande de retrait.

M. Jean-Noël Barrot, ministre délégué. Je vous invite également à retirer vos amendements au profit de l’amendement CS226, sous-amendé par M. le rapporteur.

M. Pierre Cazeneuve (RE). On trouve des jeux physiques, tels que Pokémon, où l’effet de rareté peut valoriser une carte plusieurs centaines de milliers de dollars. Il ne viendrait pourtant à l’idée de personne de le placer sur le même plan que le blackjack ou la roulette. On fait donc preuve d’un peu de mauvaise foi lorsque l’on compare les jeux de casino ou le pari sportif avec un jeu en ligne qui est avant tout fait pour s’amuser, dans lequel on ajoute une dimension financière liée à la présence du NFT. Ce sont deux choses différentes, et c’est pourquoi on crée une catégorie à part.

Mme Sophia Chikirou (LFI-NUPES). Monsieur Midy, ce que vous proposez s’apparente moins à une expérimentation qu’à une étude de marché pour les Jonum, les sociétés comme Sorare et les casinos en ligne. Les casinos vont profiter de cette disposition pour chercher à gagner des parts de marché sur internet, notamment auprès de la jeunesse. Nous essayons de l’empêcher parce que nous voulons protéger les mineurs. Vous semblez avoir oublié qu’à l’origine, le projet de loi avait pour ambition de protéger les consommateurs et, en particulier, les mineurs. On ne parle absolument plus d’eux. Vous allez les mettre en danger.

M. Paul Midy, rapporteur général. Madame Chikirou, lorsque nous aurons voté cette loi, les gens qui jouent avec Sorare ou Stables continueront à le faire, mais dans le respect de règles très contraignantes en matière de protection des mineurs et de lutte contre les addictions et le blanchiment d’argent. Dans dix-huit mois, on dressera un premier bilan et, dans trois ans, on réfléchira à nouveau à la définition à inscrire dans la loi.

M. Jean-Noël Barrot, ministre délégué. L’amendement CS924 du rapporteur, portant article additionnel après l’article 15, prévoit, en son II, que « Les entreprises de jeux à objets numériques monétisables sont tenues d’empêcher la participation des mineurs, même émancipés, à un jeu à titre onéreux. Ils mettent en place sur l’interface de jeu un message avertissant que ces jeux sont interdits aux mineurs. » Le régime en cours de création réservera donc ces jeux aux adultes.

M. Aurélien Taché (Écolo-NUPES). Très bien, monsieur le ministre : nous examinerons bientôt un amendement que j’ai déposé pour interdire les Jonum aux mineurs. Plutôt que de prévoir un bilan d’étape après dix-huit mois, monsieur le rapporteur général, il me paraîtrait plus simple de voter mon amendement CS135.

La commission rejette successivement les amendements.

Amendement CS391 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). L’objet de l’article 15 est louable, puisqu’il vise à pallier l’absence de règles. Cela étant, l’expérimentation favorisera le développement des Jonum par l’autorisation de principe qui sera accordée à tous les jeux qui entreront dans la catégorie définie par décret après avis de l’Autorité nationale des jeux (ANJ). Ce régime très favorable se traduira inévitablement par une inflation de la production de Jonum, dont le contrôle ne s’opérera qu’a posteriori. Cet appel d’air risque d’entraîner une propagation infinie de jeux, notamment d’arnaques. Aussi cet amendement a-t-il pour objet de conditionner l’autorisation d’un jeu à l’agrément de l’ANJ.

M. Denis Masséglia, rapporteur. Toute entreprise qui souhaitera réaliser un Jonum devra en aviser l’ANJ, en précisant ses caractéristiques. Elle devra de même lui faire connaître les évolutions du jeu. L’Autorité pourra demander des modifications, voire l’interdiction du jeu. Défavorable.

M. Jean-François Coulomme (LFI-NUPES). L’ANJ estime que 52 % du chiffre d’affaires réalisé par l’industrie du jeu en 2021 proviennent des microtransactions. Ces dernières ne constituent pas des achats de contenus additionnels à un jeu mais des jeux proprement dits qui permettent aux joueurs d’obtenir, de manière aléatoire, des avantages, par exemple l’augmentation de leurs performances. Ces microtransactions sont un danger pour les enfants. Elles doivent être considérées comme des jeux de hasard, puisque l’on paie pour avoir une chance de gagner.

M. Andy Kerbrat (LFI-NUPES). Pour reprendre l’exemple de Pokémon, certaines cartes se vendent effectivement plusieurs centaines de milliers de dollars mais lors de ventes aux enchères, dont les conditions générales interdisent la participation des mineurs – pas dans le cadre de jeux en ligne. Puisque vous entendez conférer des pouvoirs supplémentaires à l’ANJ, monsieur le rapporteur, c’est bien que l’on se trouve en présence de jeux d’argent et qu’il faut protéger les mineurs.

M. Denis Masséglia, rapporteur. Les micro-transactions relèvent du web 2.0 alors que l’article 15 porte sur le web 3.0. Nous pourrons travailler sur ce sujet ultérieurement, par exemple dans le cadre du groupe d’études sur les jeux vidéo.

La commission rejette l’amendement.

Amendement CS225 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). Un certain nombre d’institutions, parmi lesquelles l’ANJ, nous ont alertés au cours des auditions sur le fait que la définition proposée par l’article 15 était relativement floue et pourrait finir par légitimer des activités s’apparentant aux casinos en ligne et recourant à des objets numériques, à de la cryptomonnaie, etc. Plusieurs des personnes auditionnées ont proposé d’introduire la notion de savoir-faire, que je reprends dans cet amendement, pour bien distinguer les Jonum des casinos en ligne.

M. Denis Masséglia, rapporteur. Les Jonum ne sont ni des jeux vidéo, ni des jeux d’argent : ils se situent entre les deux. C’est pourquoi nous travaillons à la définition d’un cadre juridique. Je me suis également penché sur la notion de savoir-faire. Cette dernière est en effet absente de certains jeux d’argent et de hasard, comme le loto, mais est bien présente, par exemple, dans le poker ou le blackjack. Votre amendement risque donc de conduire à la légalisation de Jonum de poker ou de blackjack. Défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. Votre intention est louable mais votre rédaction pourrait conduire à ce que des acteurs appartenant aux secteurs des jeux d’argent et de hasard ou des jeux vidéo s’engouffrent dans la brèche. Je vous invite à trouver une rédaction, en vue de la séance, de nature à sécuriser l’article.

M. Philippe Latombe (Dem). M. le rapporteur considère que les Jonum se situent entre les jeux vidéo et les jeux d’argent et de hasard. Nous pensons quant à nous qu’ils répondent aux quatre critères des jeux d’argent et de hasard mais nous vous proposons d’en supprimer un en disposant qu’ils font appel au hasard et au savoir-faire, comme les jeux de poker et de black jack, qui sont légaux, avec des plateformes en ligne qui ne soulèvent aucun problème.

Mme Ségolène Amiot (LFI-NUPES). Je suis d’accord. Ces supports, dont Sorare, ne relèvent pas des jeux vidéo dès lors que, sans argent, il n’y aurait pas de jeu. Quel que soit le support, le problème est de respecter ce que nous avons défini comme relevant ou non des jeux d’argent. En l’occurrence, il s’agit de jeux de hasard et d’argent et il nous suffit d’appliquer la loi.

La commission rejette l’amendement.

Amendement CS136 de M. Aurélien Taché

M. Aurélien Taché (Écolo-NUPES). Les Jonum doivent être interdits aux mineurs.

M. Denis Masséglia, rapporteur. Je vous invite à retirer votre amendement. L’amendement CS924 après l’article 15 prévoit de nombreuses protections et dispose que « Les entreprises de jeux à objets numériques monétisables sont tenues d’empêcher la participation des mineurs, même émancipés, à un jeu à titre onéreux. Ils mettent en place sur l’interface de jeu un message avertissant que ces jeux sont interdits aux mineurs. La participation à un jeu à objets numériques monétisables est conditionnée à la création, à la demande expresse du joueur, d’un compte de jeu. Le joueur ne peut retirer ses gains en dehors de la plateforme qu’après vérification préalable de son identité et de sa majorité ».

M. Philippe Latombe (Dem). Selon l’ANJ, l’addiction aux Jonum est encore supérieure à celle d’autres jeux. La vérification de l’âge doit avoir lieu en amont.

M. Andy Kerbrat (LFI-NUPES). L’espace numérique doit être sécurisé mais, aussi, régulé. Je m’inquiète du renvoi après l’article 15 de l’intégralité du cadre réglementaire alors que celui-ci aurait dû être au fondement de notre discussion.

En Europe, la réglementation diffère selon les pays. Les jeux NFT – qui intègrent des jetons non fongibles – ont été introduits sur les marchés coréen et japonais pour contourner l’interdiction culturelle portant sur les jeux d’argent. Ne prenons pas le risque de favoriser une addiction des mineurs !

M. Denis Masséglia, rapporteur. Je suis navré du positionnement de l’amendement CS924 mais il ne pouvait pas en être autrement car il s’agit d’un ajout. Je reste à votre disposition pour y inclure des garanties complémentaires d’ici à l’examen du texte en séance publique.

La commission rejette l’amendement.

Amendement CS185 de M. Philippe Latombe

M. Philippe Latombe (Dem). Je suis très déçu du sort de l’amendement précédent. Nous avons bataillé pour protéger efficacement les mineurs contre l’addiction pornographique mais, s’agissant des jeux, vous renvoyez à une plateforme d’exchange en aval. La vérification de l’âge doit s’effectuer ex ante et non ex post.

Si nous considérons que les Jonum sont des jeux d’argent, ils doivent être interdits aux mineurs, à moins de leur ôter leur caractère monétisable. L’article 15 évoque en effet « un mécanisme faisant appel au hasard » et « les joueurs ayant consenti un sacrifice financier ». Ou vous ôtez à ces jeux leur caractère monétisable et Sorare ne pourra pas exercer comme elle le souhaite, ou vous les interdisez aux mineurs.

M. Denis Masséglia, rapporteur. Ce ne sont pas des jeux d’argent et de hasard. Un objet qui nous appartient, de facto, est monétisable. Si vous achetez un JNF, vous avez la possibilité de le revendre. Avis défavorable.

M. Jean-Noël Barrot, ministre délégué. Votre obsession pour l’entreprise Sorare m’étonne. Le PMU, fort conscient de ses responsabilités en matière de protections, s’engage dans une telle démarche afin de diversifier ses activités et de continuer à soutenir une filière de 14 000 points de vente employant 60 000 personnes.

L’obligation dont dispose l’amendement CS924 peut-être en effet affinée et, plus globalement, des précisions pourront être apportées à ces dispositions lors de la séance publique. Il n’en reste pas moins que la rédaction de l’amendement CS136 ne me paraissait pas satisfaisante. Je vous rappelle que nous avons passé quasiment une journée à débattre sur la question du référentiel.

Mme Sophia Chikirou (LFI-NUPES). Avant de légiférer sur le numérique, les parlementaires britanniques ont travaillé pendant quatre ans. Nous, nous avons eu trois semaines.

J’ai le sentiment que vous expérimentez surtout la dérégulation des jeux d’argent et de hasard afin d’aider le PMU et Sorare à gagner de l’argent et des parts de marché pour pouvoir survivre à un déclin qui, peut-être, est de bon augure.

M. Philippe Latombe (Dem). L’article 15 est l’article Sorare. C’est ainsi que la presse l’a nommé. Hier, je suis allé rencontrer les représentants de Sorare parce qu’ils ne sont pas contents de mes amendements ! Ils exercent une pression phénoménale pour que l’article 15 reste tel quel et que leur modèle soit confirmé. Le PMU sent bien qu’il y a des parts de marché à prendre et qu’il serait à la ramasse si elles lui échappaient.

Il n’est pas normal qu’au nom de l’article 45 de la Constitution, vous refusiez que nous discutions des casinos en ligne et d’autres secteurs.

M. Denis Masséglia, rapporteur. Il faut arrêter avec cela…

M. Philippe Latombe (Dem).  J’ai également réalisé des auditions sur ces questions et je vous garantis que la plupart des opérateurs de casinos, de jeux en ligne, de jeux d’argent et de hasard s’opposent à cet article 15.

M. Aurélien Taché (Écolo-NUPES). Vous ne manquez pas d’air, monsieur le ministre ! Nous avons passé la journée d’hier à vous faire part de nos interrogations sur votre système de vérification de l’âge pour accéder à des sites pornographiques, le double anonymat nous laissant un peu dubitatifs. De surcroît, vous nous avez fait voter à l’aveugle en ignorant tout du référentiel prévu à l’article 1er. Et lorsqu’il s’agit des jeux d’argent, un simple avertissement prévu à l’amendement CS924 suffirait ! Peut-être considérez-vous que perdre 5 000 ou 20 000 euros dans un jeu d’argent, quand on a 15 ans, c’est moins grave que de visionner un film pornographique ?

M. Paul Midy, rapporteur général. Nous avons entendu tous les acteurs de ce secteur et nous nous sentons libres de toute pression.

Nous avons la même volonté que vous d’encadrer ce dispositif, notamment vis-à-vis des mineurs et pour lutter contre l’addiction et le blanchiment d’argent. L’amendement CS924 fait dix pages et d’ici à la séance publique, il sera encore possible de l’améliorer.

La commission rejette l’amendement.

Amendement CS925 de M. Denis Masséglia

M. Denis Masséglia, rapporteur. Il vise à clarifier le périmètre de l’expérimentation des Jonum au profit d’un équilibre entre soutien à l’innovation et encadrement des pratiques qui ont vocation à se développer.

M. Philippe Latombe (Dem). La suppression du terme « monétaire » et son remplacement par la formule « en monnaie ayant cours légal » n’empêche pas que l’ethereum demeure. Des échanges pourront avoir lieu sur des plateformes domiciliées dans des paradis fiscaux, qui ne sont pas réglementées ou autorisées par les marchés financiers.

La commission adopte l’amendement.

Amendement CS393 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). Si nous considérons qu’il faut tenir les mineurs éloignés de ces jeux, c’est que les risques, notamment d’addiction, sont patents. Nous proposons de doter l’ANJ d’un pouvoir de contrôle de ces sociétés afin de s’assurer que l’interdiction soit respectée.

Le renvoi constant à l’amendement CS924 nous laisse perplexes. Il fait au moins dix pages et constitue quasiment une réécriture de la loi. Un texte peut être aussi enrichi par l’adoption d’amendements venant de l’opposition.

M. Denis Masséglia, rapporteur. Le Sénat a travaillé à l’élaboration d’une définition mais il n’a pas eu le temps d’établir des critères et a indiqué qu’il attendait des avancées de notre part. Voilà ce qui justifie l’amendement CS924.

Nous avons rencontré la totalité des acteurs concernés de près ou même de très loin s’agissant des Jonum. Très peu sont satisfaits, mais c’est le propre des compromis. Il me semble important d’insister sur les points de convergence qui ont été trouvés.

La commission rejette l’amendement.

Amendement CS392 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). Il vise à obliger les entreprises de Jonum à afficher un message avertissant l’utilisateur des risques liés à la pratique de jeux d’argent avant de pouvoir y accéder.

M. Denis Masséglia, rapporteur. L’amendement CS924 le prévoit.

La commission rejette l’amendement.

Amendement CS350 de Mme Soumya Bourouaha

Mme Soumya Bourouaha (GDR-NUPES). Cet article doit être supprimé. Les jeux d’argent et de hasard représentent une manne considérable et présentent des risques pour la santé publique, notamment celle des mineurs et, plus généralement, pour les consommateurs.

Afin de limiter la casse, nous considérons qu’il convient d’alerter sur la nécessité d’une meilleure régulation. Or, la rédaction actuelle se borne à autoriser ces jeux à titre expérimental, sans réelle régulation. Aussi, pour éviter les pratiques à risques, notamment financières, un plafond d’achat doit être introduit.

M. Denis Masséglia, rapporteur. Avis défavorable. L’amendement CS924 contient force réponses à vos inquiétudes. De surcroît, vous proposez un dispositif qui n’existe pas même pour les jeux d’argent et de hasard.

La commission rejette l’amendement.

Amendement CS767 de M. Philippe Latombe

M. Philippe Latombe (Dem). Quelle est la fiscalité de ces jeux ? Vous nous répondrez qu’il en sera question dans la loi de finances, dont l’examen n’ira vraisemblablement pas à son terme. Quelles sont, alors, les intentions du Gouvernement ? Les Jonum seront-ils ou non soumis à la TVA ou à des taxes spécifiques ? Si oui, à quelle hauteur ?

Nous proposons que ces entreprises soient « soumises de plein droit à l’article L.321‑6 du code de la sécurité intérieure », c’est-à-dire à la fiscalité applicable aux jeux de hasard et d’argent.

M. Denis Masséglia, rapporteur. Avis défavorable. Nous parlons des Jonum, non des jeux de hasard et d’argent.

Mme Sophia Chikirou (LFI-NUPES). Pouvez-vous nous dire clairement quel régime fiscal sera appliqué ? Sera-t-il plus ou moins favorable que celui des jeux de hasard et d’argent ? Vous sortez Sorare de la catégorie des entreprises de jeux d’argent et de hasard afin de la soumettre à une fiscalité plus arrangeante.

M. Philippe Latombe (Dem). La représentation nationale est à même de définir un cadre légal et de juger de la fiscalité applicable. Quelle fiscalité pour cette nouvelle catégorie d’entreprises qui, selon vous, ont un statut hybride ? Lui appliquerez-vous la TVA ou l’impôt sur les sociétés ? Une partie des sommes sera-t-elle rétrocédée aux joueurs et une autre partie fiscalisée ? Les territoires en profiteront-ils ? Dans quel cadre fiscal s’inscrit donc l’article Sorare ?

M. Jean-Noël Barrot, ministre délégué. Je vous remercie de me permettre d’intervenir à nouveau sur cet article PMU. Je ne comprends pas cette obsession pour Sorare ! Comme vous le savez, la fiscalité dépend des lois de finances. Le cadre fiscal des Jonum ne sera pas le même que pour les jeux d’argent et de hasard car ces entreprises ne paient pas de gains. Dans le cas des casinos et des jeux d’argent et de hasard, la fiscalité est assise sur le produit brut des jeux dont sont soustraits les gains des joueurs.

La commission rejette l’amendement.

Amendement CS926 de M. Denis Masséglia

M. Denis Masséglia, rapporteur. Cet amendement d’appel a vocation à éclairer le débat en répondant à une question qui m’a été posée par les acteurs du secteur.

Il s’agit de s’assurer que l’article 15 n’entraîne pas d’effet de bord, autrement dit que certains jeux vidéo n’entrent pas dans la catégorie des Jonum. Pour ce faire, l’amendement tend à préciser la notion de cession à titre onéreux des objets obtenus dans le jeu.

Dans l’expérimentation prévue à l’article 15, la réglementation sur les Jonum ne concerne que les jeux qui proposent des objets ayant vocation à être cédés à des tiers. En seront donc exclus les jeux vidéo dans lesquels l’éditeur du jeu a mis en place des conditions d’utilisation, empêchant la revente d’objets intégrés aux jeux vidéo, à l’exception du jeu. Il convient de le préciser car, malgré les protections juridiques et technologiques mises en place par les éditeurs, des personnes parviennent à revendre les objets qui n’ont pas vocation à l’être. La plupart des éditeurs créent des jeux vidéo en boucle fermée et sont victimes du phénomène de place de marché secondaire. Cela ne doit pas pour autant conduire à modifier la catégorie juridique du jeu.

M. Jean-Noël Barrot, ministre délégué. Je vais essayer de vous convaincre que l’intention de votre amendement est satisfaite.

C’est un point très important. J’entends beaucoup de réflexions sur le lien entre Jonum et jeux d’argent et de hasard, j’en entends beaucoup moins sur le lien entre Jonum et jeux vidéo. Notre souci est évidemment de veiller à ce que les jeux vidéo n’entrent pas dans le champ de la régulation des Jonum. Pourtant, par certains aspects, sans précisions de notre part, ils le pourraient. Pourquoi ? Parce qu’il existe déjà de nombreux jeux vidéo au travers desquels on peut céder des objets numériques – des capes, des équipements de joueurs.

L’objectif de l’article 15 n’est pas de soumettre les jeux vidéo traditionnels au cadre expérimental qu’il crée. Il vise des jeux nouveaux qui incluent des objets de jeux numériques, lesquels peuvent être cédés à l’extérieur du jeu. Ainsi les jeux, qui actuellement proposent des objets de jeux numériques comme des épées, des armures, etc. et prévoient la possibilité pour les joueurs de se les échanger en boucle fermée sans transactions financières sur la plateforme de jeu ou à l’extérieur du jeu, n’entrent pas dans le cadre des Jonum.

J’ai bien conscience qu’il existe des plateformes où des personnes se revendent des objets de jeu ou encore leur compte de jeu, alors que cela n’est pas prévu par l’éditeur du jeu. Je vous rassure, ces détournements par certains joueurs ne vont pas soumettre de facto ces entreprises de jeux vidéo au régime des Jonum.

Par ailleurs, la rédaction que vous proposez pourrait prêter à confusion, en faisant référence à la cession à un tiers extérieur au jeu. Elle pourrait laisser penser que des objets numériques cédés en boucle fermée échappent également au régime des Jonum. C’est la raison pour laquelle je vous propose de retirer l’amendement, monsieur le rapporteur.

M. Denis Masséglia, rapporteur. Je suis satisfait de votre réponse, à savoir que les skins en boucle fermée ne seront pas considérés comme des Jonum. C’est une très bonne chose. Je retire mon amendement.

L’amendement est retiré.

Amendement CS351 de M. André Chassaigne

Mme Emeline K/Bidi (GDR-NUPES). Je doute que vous approuviez cet amendement qui relève pourtant du bon sens. Il s’agit d’écrire noir sur blanc que la pratique des Jonum est interdite aux mineurs. Vous avez beau essayer de nous faire croire qu’il y a une différence entre les Jonum et les jeux de hasard et d’argent en ligne, dès lors que ces jeux nécessitent de la part des joueurs un sacrifice financier, on ne peut pas accepter que nos enfants consentent un quelconque sacrifice. Il est donc impératif de les écarter de ces jeux afin de les protéger.

C’était l’objet initial du texte que de protéger les mineurs contre les dérives en ligne et nous avons réussi à nous accorder sur les contenus pornographiques en ligne. En ce qui concerne les Jonum, cela nous semble aussi couler de source.

M. Denis Masséglia, rapporteur. Il est satisfait par l’amendement CS924 auquel je suis prêt à apporter des précisions si vous le souhaitez.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Stéphane Vojetta (RE). Je suis opposé à l’amendement. S’agissant de l’accès des mineurs, dans les débats sur la loi visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux, nous étions parvenus à un compromis, qui avait été validé par l’ANJ et approuvé par l’industrie, dont nous pourrions nous inspirer ici : plutôt que d’interdire les jeux ou les objets aux mineurs, on rend impossible leur promotion auprès des mineurs sur les réseaux sociaux, en utilisant les dispositifs des plateformes qui permettent d’exclure de l’audience les personnes de moins de 18 ans. J’avais déposé, avec Arthur Delaporte, un amendement en ce sens qui a malheureusement été déclaré irrecevable. J’espère que nous trouverons la rédaction qui permettra de l’examiner en séance.

M. Philippe Latombe (Dem). Vous dites que les jeux seront interdits aux mineurs par le biais d’une case à cocher. Dès lors, pourquoi ne pas accepter l’amendement qui inscrit noir sur blanc l’interdiction aux mineurs de la pratique des Jonum ? Même si c’est bavard, ce n’est pas grave.

Les services de communication qui proposent ces jeux mettent en place un contrôle de l’âge de l’utilisateur. Ce sont bien des jeux addictifs, il faut absolument en éloigner les mineurs. Pourquoi ne pas avoir prévu l’interdiction dès le début ? Pourquoi êtes-vous favorable à une disposition qui se contente d’une case à cocher alors même qu’il y a quelques jours vous nous avez tenu un discours inverse. Vous nous avez expliqué que le risque pour les mineurs d’addictions et de troubles du développement cognitif justifiait l’instauration d’un contrôle ex ante, et non une case à cocher ? Un contrôle sur le modèle du référentiel nous conviendrait très bien.

La commission rejette l’amendement.

Amendement CS91 de M. Jean-Jacques Gaultier

M. Jean-Jacques Gaultier (LR). L’amendement vise à limiter les jeux autorisés à titre expérimental aux « jeux de fantaisie sportive et hippique qui proposent à leurs utilisateurs des interactions ayant pour support des compétitions, manifestations sportives ou épreuves hippiques réelles ».

M. Denis Masséglia, rapporteur. Je n’y suis pas favorable. On ne connaît pas aujourd’hui les jeux qui pourront utiliser des NFT. On risque donc de limiter la capacité de certains éditeurs à intégrer du NFT – je pense à des licornes ou des champignons dans le cas de Mario Bros. Il me semble préférable de laisser l’expérimentation se dérouler dans le cadre le plus large possible et de faire le point dans un an et demi.

M. Jean-Noël Barrot, ministre délégué. Même avis.

Mme Sophia Chikirou (LFI-NUPES). Vous ramez, vous ramez, vous ramez. Et pendant ce temps, les oppositions s’accordent sur des amendements qui visent aussi bien à protéger les mineurs qu’à assurer une fiscalité juste.

Je n’appelle plus cela une expérimentation, vous m’avez convaincue que c’était bel et bien une étude de marché que vous autorisez pour les copains Sorare, PMU, etc. Vous refusez une proposition simple pour de mauvaises raisons : les fantaisies sportives et hippiques ne sont pas nouvelles, elles existent depuis plus de dix ans ; face à l’explosion du secteur, vous plaidez pour une régulation tout en minimisant le risque que les casinos profitent de cette nouvelle brèche pour développer leur marché. Pourtant, c’est bien ce que vous êtes en train d’organiser.

Nous vous demandons de limiter l’expérimentation le plus possible pour en tirer des enseignements utiles.

M. Ian Boucard (LR). Monsieur le rapporteur, vous avez sans doute mal compris l’intervention de M. Gaultier. Il souhaite réguler les Jonum en les appuyant sur des événements qui existent – une compétition sportive ou une compétition hippique.

Vous le savez, il n’est pas possible de parier sur la troisième division de football car ce n’est pas un championnat professionnel. Le législateur, dans sa grande sagesse, a réservé les paris sportifs aux championnats professionnels qui sont, par définition, mieux régulés que les championnats amateurs.

M. Gaultier vous propose de limiter les Jonum à ce qui existe vraiment – le football, le basket, les chevaux. C’est du bon sens. Vous nous proposez les licornes ou les champignons géants de Mario Bros. Vous vous rendez bien compte que ce que vous nous racontez est compliqué à comprendre.

M. Paul Midy, rapporteur général. Notre intention est inverse de ce que vous proposez. Nous voulons soutenir l’innovation afin d’assurer la souveraineté de la France et de l’Europe dans les nouvelles technologies de la blockchain et du NFT. L’innovation permet de créer de l’emploi et des richesses. Pensez aux téléphones que nous achetons qui ne sont ni fabriqués par des entreprises européennes ni conçus par elles. L’expérimentation a pour objet de faire naître des entreprises nouvelles et de créer de l’emploi.

M. Philippe Latombe (Dem). L’article 15 est donc un cavalier dans un projet de loi intitulé « sécuriser et réguler l’espace numérique ». Vous dites vouloir soutenir l’innovation. Non, nous sommes là pour protéger les consommateurs. Depuis le début, c’est votre mantra : à coups d’article 45 de la Constitution, vous nous avez expliqué qu’il n’était pas possible de mettre autre chose dans ce texte que des dispositions destinées à protéger et sécuriser l’espace numérique. Et maintenant, vous nous dites que l’expérimentation vise uniquement à soutenir l’innovation. Eh bien non, désolé ! Devant le Conseil constitutionnel, vous aurez à répondre sur la rupture d’égalité qu’introduit l’article 15 et sur le cavalier qu’il constitue.

M. Paul Midy, rapporteur général. Je confirme que l’un des axes de notre politique est le soutien à l’innovation et je confirme que le fait d’innover en France aura un impact sur la sécurité des Français dans l’espace numérique – je préfère que les Français utilisent des outils français plutôt que chinois.

La commission rejette l’amendement.

Amendement CS352 de Mme Emeline K/Bidi

Mme Emeline K/Bidi (GDR-NUPES). Il s’agit de recueillir l’avis conforme de l’ANJ qui nous semble la plus à même de mesurer les risques liés aux Jonum. Se priver de son expertise en la matière pourrait engendrer des risques en matière de santé publique.

M. Denis Masséglia, rapporteur. Défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis. La jurisprudence constitutionnelle nous empêche de conditionner la prise d’un acte réglementaire à l’avis conforme d’une autorité administrative indépendante.

La commission rejette l’amendement.

Amendement CS226 de M. Aurélien Taché et sous-amendement CS955 de M. Denis Masséglia

M. Aurélien Taché (Écolo-NUPES). Nous nous sommes tout dit sur les Jonum sans parvenir à nous accorder. Nous verrons en séance. Reste donc le rapport prévu par cet amendement.

Une expérimentation de trois ans ressemble plus à une étude de marché – j’aime bien l’expression de ma collègue. Faisons au moins un point d’étape avec l’ANJ. Celle-ci nous a, à plusieurs reprises, mis en garde sur la zone grise entre les jeux d’argent et les jeux vidéo que créaient les Jonum. Nous n’avons pas de problème particulier avec Sorare, monsieur le ministre. Ce qui nous fait peur, c’est que demain, grâce à votre article, nous en ayons quinze autres, donnant ainsi un vernis de légitimité aux casinos en ligne, aujourd’hui interdits en France mais qui existent de manière clandestine et comptent trois millions de joueurs dans notre pays donc. A minima, laissons l’ANJ regarder dans dix-huit mois comment le secteur a évolué. Peut-être qu’alors nous tomberons d’accord pour mieux le réguler.

M. Denis Masséglia, rapporteur. Le sous-amendement vise à demander le rapport non pas à l’ANJ mais au Gouvernement afin de disposer d’une vision plus globale. Je suis donc favorable à l’amendement ainsi sous-amendé. Cela illustre notre volonté de trouver un compromis.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Arthur Delaporte (SOC). Je soutiens l’amendement. Il s’agit d’un domaine qui évolue à vitesse grand V avec des risques exceptionnels. Je prends un exemple : M. Vojetta et moi sommes régulièrement interpellés sur les matchs TikTok dans lesquels des sommes considérables sont mises en jeu avec des mécanismes proches de ceux du casino. C’est une évolution que nous n’avions pas anticipée lorsque nous avons préparé la loi sur les influenceurs. Ce sont des phénomènes nouveaux qui posent des problèmes graves d’addiction contre lesquels il faut protéger les mineurs. Nous aurons l’occasion de les évoquer dans les amendements mais nous regrettons que le filtre de l’article 45 nous empêche d’en discuter certains et de prendre les mesures nécessaires pour sécuriser davantage. Un rapport dans dix-huit mois sera bienvenu mais il aurait été préférable de réguler les phénomènes émergents.

M. Aurélien Taché (Écolo-NUPES). Avec toute la confiance que j’ai dans le Gouvernement – je le dis vraiment sans malice – l’ANJ, ce n’est pas la même chose que le Gouvernement ; c’est une autorité indépendante et spécialisée dans les jeux ; c’est elle qui nous a alertés sur les dangers des Jonum. Nous allons malgré tout faire confiance au Gouvernement.

M. Denis Masséglia, rapporteur. Certains des sujets que vous souhaitez voir abordés dans le rapport ne relèvent pas de la compétence de l’ANJ, c’est la raison pour laquelle il est question du Gouvernement. L’ANJ participera évidemment à l’élaboration du rapport.

La commission adopte le sous-amendement puis l’amendement sous-amendé.

L’amendement CS927 de M. Denis Masséglia est retiré.

La commission adopte l’article 15 modifié.

Après l’article 15

Amendement CS924 de M. Denis Masséglia et sous-amendements CS952 et CS958 de M. Arthur Delaporte, CS944 de M. Stéphane Vojetta, et CS943 de Mme Céline Calvez

M. Denis Masséglia, rapporteur. L’amendement vise à établir un cadre juridique complet et sécurisé pour l’expérimentation des Jonum prévue à l’article 15. Ce cadre a été défini en collaboration avec les acteurs du secteur et avec l’appui de toutes les autorités compétentes afin de soutenir le secteur du jeu et de garantir un haut degré de protection vis-à-vis des risques spécifiques identifiés.

L’article additionnel dote l’ANJ de pouvoirs supplémentaires pour veiller à l’application des obligations légales s’imposant aux entreprises de Jonum, qu’il s’agisse de lutter contre le blanchiment d’argent et le financement du terrorisme ou de s’assurer de la protection des joueurs contre le jeu excessif. Sont prévus à cet effet un dispositif de déclaration et un régime de sanctions mises en œuvre par l’ANJ, en sus des mises en demeure que son président pourra prononcer. Il est également fait obligation aux entreprises de Jonum d’empêcher la participation des mineurs même émancipés à un jeu à titre onéreux. L’article encadre enfin l’utilisation que font ces entreprises des données spécifiques qu’elles peuvent être amenées à traiter dans le cadre de leur modèle de jeu. L’articulation des rôles de la Commission nationale de l’informatique et des libertés (Cnil) et de l’ANJ dans cette matière est renvoyée à un décret.

Mme Sophia Chikirou (LFI-NUPES). Est-il possible compte tenu de l’importance de l’amendement d’obtenir plus de temps de parole et d’orateurs ? Nous avons beaucoup de questions à poser et d’arguments à échanger. Je rappelle que nous travaillons dans des conditions anormales : nous avons trois semaines pour examiner le projet de loi et vous présentez un amendement qui réécrit entièrement un article. Prenons le temps d’une discussion sérieuse.

M. le président Luc Lamirault. Le contenu de l’amendement a été largement débattu lors de la discussion de l’article 15 mais je reconnais néanmoins son importance. C’est la raison pour laquelle je vous propose qu’un orateur par groupe s’exprime.

M. Arthur Delaporte (SOC). Je défendrai conjointement les sous-amendements CS952 et CS958 destinés à interdire la promotion des Jonum auprès des jeunes.

Le premier vise ainsi à interdire aux entreprises de Jonum d’organiser des événements ou de parrainer ces mêmes événements à destination spécifique des mineurs. Les addictions, qui touchent en particulier les mineurs, se développent aussi par le biais des événements organisés autour du jeu.

Quant au sous-amendement CS958, il s’inspire du mécanisme adopté dans la loi sur les influenceurs pour les jeux d’argent et tend à interdire de faire de la publicité à destination des mineurs pour les Jonum, lesquels posent les mêmes problèmes de santé publique et d’addiction. Les influenceurs sont les principaux canaux de diffusion de ces jeux, certains allant jusqu’à faire du racolage en direct et par voie de messages privés, ce qui est tout aussi dangereux.

M. Stéphane Vojetta (RE). Dans le cadre de la lutte contre le blanchiment d’argent, l’encadrement des Jonum fera peser sur les entreprises de lourdes obligations. Or les entreprises de jeu web3 sont majoritairement de très petites entreprises. Le contrôle opéré par l’ANJ sur ces entreprises doit donc être proportionné. C’est l’objet du sous-amendement CS944.

Si nous voulons favoriser l’innovation – c’est l’un des objectifs de l’article 15 – dans un secteur d’avenir, sans remettre en cause le contrôle légitime pour protéger notre jeunesse, les acteurs naissants doivent pouvoir bénéficier d’une régulation proportionnée.

Mme Céline Calvez (RE). Par ce sous-amendement, je souhaite inviter notre rapporteur à être encore plus précautionneux sur les caractéristiques des jeux que l’ANJ devra examiner. L’alinéa 34 prévoit que l’ANJ « peut tenir compte des caractéristiques techniques du jeu à objets numériques monétisables ». Pour moi, c’est une nécessité pour garantir la qualité du contrôle exercé. C’est la raison pour laquelle il est proposé d’écrire que l’ANJ « tient compte ».

M. Denis Masséglia, rapporteur. Avis défavorable aux sous-amendements CS952 et CS958 ; extrêmement favorable aux sous-amendements CS944 et CS943, qui s’inscrivent parfaitement dans notre logique : mieux réguler en imposant des obligations un peu plus fortes aux grandes entreprises et en allégeant celles pour les plus petites entreprises.

M. Jean-Noël Barrot, ministre délégué. Même avis sur les sous-amendements et favorable à l’amendement.

Mme Marie Guévenoux (RE). Je remercie le rapporteur pour cette rédaction qui offre un cadre juridique, complet, clair et protecteur. Nous aurions tous préféré pouvoir discuter l’amendement dès l’article 15.

Le groupe Renaissance tient à souligner les garanties importantes qui sont apportées pour protéger les publics les plus fragiles et assurer la sécurité intérieure : l’interdiction faite aux mineurs d’accéder au parcours de jeux onéreux et celle faite aux éditeurs de Jonum de réaliser toute communication auprès d’un public mineur. Cela répond à nombre d’inquiétudes qui ont été exprimées par les membres de la commission spéciale. Je note également les dispositifs destinés à prévenir les comportements d’addiction : l’obligation d’informer les utilisateurs des risques en la matière, l’interdiction d’inciter les utilisateurs à des comportements excessifs et la possibilité pour les joueurs de s’auto-exclure du jeu.

Le groupe Renaissance est attaché à la consolidation des dispositifs de protection des mineurs, comme le veut l’esprit du texte.

Mme Sophia Chikirou (LFI-NUPES). Nous sommes très déçus d’aboutir à cet amendement qui ne tient pas les grandes promesses que vous nous avez faites.

Alors que le texte est censé protéger les mineurs, vous refusez des sous-amendements cruciaux sur la publicité à leur intention ; vous ne prévoyez pas de conditionner la création d’un compte joueur à la vérification d’âge – vous voulez seulement conditionner le retrait des gains, à l’instar des règles en matière de paris sportifs. Vous refusez obstinément de reconnaître que les Jonum s’apparentent bien à des jeux d’argent et de hasard. Vous avez bien du mal à nous expliquer les différences, vous allez même jusqu’à en inventer. Enfin, nous aurions souhaité que soient précisées les informations transmises à l’ANJ pour lutter contre le blanchiment d’argent.

Vous prétendiez réécrire l’article 15 pour mieux encadrer les Jonum. Nous ne sommes pas satisfaits de ce que vous proposez, notre vote ne changera donc pas.

M. Philippe Latombe (Dem). Le Sénat, ayant refusé d’autoriser le Gouvernement à légiférer par ordonnance et pris de court pour rédiger un texte dans le temps imparti, a renvoyé la question à l’Assemblée nationale. Je suis donc, pour une fois, à peu près d’accord avec vous, monsieur le rapporteur, pour fixer des limites à l’article 15.

Le groupe Démocrate demandera donc à nouveau – et, s’il ne le fait pas, nous serons plusieurs députés à le faire – une vérification préalable de l’âge, avec un libellé qui sera mot pour mot celui qui est issu des discussions que nous avons eues à propos du porno. Vous devrez alors assumer le fait de traiter différemment le porno et les jeux qui ne seraient pas à titre onéreux, lesquels suscitent, comme le confirme l’ANJ, une véritable addiction. Il semble donc nécessaire de renforcer les dispositions de cet article additionnel.

M. Hervé Saulignac (SOC). Monsieur le rapporteur, les félicitations que vous avez exprimées pour certains sous-amendements laissent penser que ceux de mon collègue Delaporte étaient particulièrement mauvais !

En tout état de cause, puisque vous nous invitez à un travail collectif, je ferai deux remarques. Tout d’abord, la formulation de votre amendement relatif aux mineurs selon laquelle les Jonum s’abstiennent de toute communication commerciale aux mineurs est un peu légère juridiquement. Par ailleurs, vous ne pouvez pas prétendre que vous voulez interdire les Jonum aux mineurs tout en les laissant organiser des événements – puisque vous êtes défavorable aux sous-amendements de M. Delaporte –, en autorisant les influenceurs à en faire la promotion, alors qu’on sait qu’ils s’adressent essentiellement à des jeunes, ou encore en refusant toute forme de vérification de l’âge. Comprenez que l’on puisse douter de vos intentions lorsque vous affirmez que vous voulez éviter que les mineurs ne se tournent vers les Jonum tout en repoussant tous les garde-fous qu’on vous propose.

Mme Agnès Carel (HOR). Le groupe Horizons votera avec plaisir cet amendement qui permet d’encadrer davantage l’expérimentation. Nous connaissons l’engagement du rapporteur face aux risques que comportent les Jonum en termes principalement de blanchiment d’argent et de concurrence avec d’autres acteurs du jeu, notamment les casinos – et nous pensons évidemment aux plus petits.

Enfin, l’amendement n’oublie pas l’enjeu de santé publique, si important à nos yeux. La question des jeux en ligne nous préoccupe particulièrement pour les plus jeunes et nous resterons donc vigilants en vue de l’examen du texte en séance publique.

M. Aurélien Taché (Écolo-NUPES). Nous allons certainement voter cet amendement CS924, même s’il a la taille d’une proposition de loi et aurait mérité à lui seul un débat complet.

Vous avez proposé à plusieurs reprises que nous continuions à échanger sur ce sujet d’ici à l’examen du texte en séance publique, mais comme l’a dit M. Latombe d’une façon très convaincante, il faut être cohérents : le garde-fou destiné à préserver les mineurs doit s’appliquer partout ou nulle part. Des jeux où de grosses sommes peuvent être engagées – puisque vous refusez le qualificatif de « jeux d’argent » – ne sont pas moins dangereux que l’industrie pornographique. J’espère donc des avancées qui permettront de clarifier les définitions. Les notions de hasard et de savoir-faire ne semblent pas vous satisfaire, de crainte que le poker ou le black-jack ne tombent finalement sous le coup de votre législation, mais je suis certain qu’en travaillant ensemble nous trouverons, si vous en avez la volonté, une meilleure rédaction. Ou alors, dites-nous la vérité ! Dites-nous que vous voulez que, pendant trois ans, de nouvelles start-ups comme Sorare émergent et que ce modèle de Jonum soit le plus libéral et le plus accessible possible, puisque vous y voyez une opportunité de marché. Ce point de vue est intéressant, mais il doit au moins être clarifié.

Mme Emeline K/Bidi (GDR-NUPES). Mes collègues ont rappelé les différentes raisons pour lesquelles cet amendement est largement insuffisant. Quant à la méthode, on nous a expliqué que les amendements que nous proposions en vue de sécuriser les Jonum étaient satisfaits par un autre amendement qui viendrait plus tard, de telle sorte que nous n’avons pas pu en discuter, et lorsque cet amendement est arrivé, long comme un jour sans pain, son manque de clarté nous a empêchés de faire notre travail de législateur.

En outre, car vous n’êtes pas à quelques contradictions près, vous nous indiquez qu’un simple message figurant sur l’interface de jeu avertira que les jeux sont interdits aux mineurs, tandis que leur identité sera vérifiée lors du retrait des gains. On se moque donc bien de savoir si des mineurs pourront accéder aux plateformes, mais ils ne pourront pas retirer leurs gains. À qui profitera le crime ? Les jeunes joueront, mais ce sont les plateformes qui garderont l’argent.

La commission rejette successivement les sous-amendements CS952 et CS958, adopte successivement les sous-amendements CS944 et CS943 et adopte l’amendement CS924 sous-amendé. L’article 15 bis est ainsi rédigé.

La réunion, suspendue à dix-sept heures, est reprise à dix-sept heures dix.

M. le président Luc Lamirault. Chers collègues, le ministre, qui a dû rejoindre la Première ministre pour une réunion, nous prie d’excuser son absence momentanée.

TITRE V
PERMETTRE À L’ÉTAT D’ANALYSER PLUS EFFICACEMENT L’ÉVOLUTION DES MARCHÉS NUMÉRIQUES

Article 16 : Élargissement des pouvoirs de collecte des données par le Pôle d’expertise de la régulation numérique (PEReN) pour des activités de recherche publique

Amendement CS317 de M. Andy Kerbrat

M. Andy Kerbrat (LFI-NUPES). L’absence de M. le ministre est regrettable, en particulier après le vote d’un amendement que nous appellerons désormais « amendement Sorare ».

Il faut responsabiliser les plateformes, mais votre projet pour le Pôle d’expertise de la régulation numérique (Peren) ne prévoit pas un encadrement total. Or l’enjeu est bien la régulation, dont il a jusqu’ici été peu question. Vous semblez oublier que le modèle économique de gestion des données par les plateformes n’est pas centralisé et repose, comme beaucoup de choses aujourd’hui, sur la sous-traitance.

L’amendement, assez simple, vise à ce que la collecte de données prenne en compte les plateformes, leurs partenaires et leurs sous-traitants, afin de fixer un cadre de régulation totale.

Mme Mireille Clapot, rapporteure pour le titre V. Je tiens, en préambule, à saluer la qualité des travaux menés par le Peren, qui apporte à tous les services de l’État une expertise précieuse à propos des plateformes numériques.

Quant à l’amendement, la précision qu’il propose est bienvenue. Avis favorable.

La commission adopte l’amendement.

Amendement CS889 de Mme Mireille Clapot

Mme Mireille Clapot, rapporteure. L’intelligence artificielle prend une place croissante dans nos vies, dans l’économie et dans notre univers. Je salue, à cet égard, l’installation par la Première ministre, le 19 septembre, d’un comité d’experts consacré à ce thème. Les données que génèrent les acteurs de l’intelligence artificielle générative doivent être intégrées au corpus de recherche et, si nous voulons que nos lois résistent à l’épreuve du temps, il faut voir loin. Or le texte initial ne prévoyait pas assez clairement cette inclusion. Le Peren nous a demandé de l’intégrer et je vous demande donc de modifier le texte en ce sens.

M. Andy Kerbrat (LFI-NUPES). Notre groupe votera cet amendement, qui a pour objectif, comme l’amendement précédent, de créer un cadre de régulation total. En effet, la percée de l’intelligence artificielle exigera dans les prochaines années une législation vraiment proactive, et non pas seulement « à rebours », comme cela a été trop souvent le cas. Cette mesure est une bonne introduction, mais elle doit nous ouvrir, dans le futur, à de vraies discussions à l’échelle nationale et à l’échelle européenne.

La commission adopte l’amendement.

Amendement CS354 de M. André Chassaigne

Mme Emeline K/Bidi (GDR-NUPES). Cet amendement rédactionnel vise à assurer la cohérence du texte.

Mme Mireille Clapot, rapporteure. La rédaction de l’article est déjà assez précise. Avis défavorable.

La commission rejette l’amendement.

Amendement CS458 de M. Andy Kerbrat

M. Andy Kerbrat (LFI-NUPES). La collecte de données est devenue, dans notre écosystème et dans nos habitudes numériques, une économie générale, qui entraîne des effets de bord beaucoup trop dangereux en termes d’anonymat et de protection des données personnelles. Depuis le début de l’examen de ce texte, trop de coups de boutoir ont été portés contre l’anonymat et le pseudonymat, et nous regrettons une fois encore le sort fait à nos amendements d’appel, visant par exemple à élargir la double identification pour les jeux en ligne ou la pornographie, afin d’éviter le ciblage.

Afin d’éviter de laisser trop longtemps accessibles les données personnelles, l’amendement tend à réduire la durée de leur conservation à six mois – au lieu de neuf – pour les services de l’État et à deux ans pour les chercheurs.

Mme Mireille Clapot, rapporteure. Vous êtes, avec cet amendement, plus royaliste que le roi, car la Cnil, souvent évoquée par vos collègues dans nos débats de ces derniers jours, se satisfait de ce délai de neuf mois. Un délai de six mois serait trop court pour les expérimentations et la durée retenue est ainsi un compromis qui permet au Peren de travailler tout en préservant le droit à la vie privée. Pour ce qui est de la recherche, le Peren a retenu, avec l’accord de la Cnil, la durée d’une thèse, soit trois à quatre ans, allongée d’une année pour permettre l’échange entre pairs – d’où le total de cinq ans. Je demande donc le retrait de l’amendement. À défaut, avis défavorable.

La commission rejette l’amendement.

Amendement CS459 de M. Andy Kerbrat

M. Andy Kerbrat (LFI-NUPES). La conception et le fonctionnement des services des très grandes plateformes en ligne ou de leurs sous-traitants et des très grands moteurs de recherche en ligne induisent des risques systémiques : diffusion de contenus illicites par l’intermédiaire des services de ces plateformes, effets négatifs réels ou prévisibles pour l’exercice des droits fondamentaux, effets négatifs réels ou prévisibles sur le discours civique, les processus électoraux et la sécurité publique, effets négatifs réels ou prévisibles liés aux violences sexistes et à la protection de la santé publique et des mineurs, et conséquences négatives graves sur le bien-être physique et mental.

Les chercheurs sont en mesure de proposer des solutions aux problèmes systémiques qu’ils identifient. Par souci d’intelligibilité de la loi, il convient de préciser que leurs recherches doivent également conduire à identifier des mesures efficaces et utiles.

Mme Mireille Clapot, rapporteure. Ce débat sur le rapport entre science et politique est intéressant et, si nous en avions le temps, nous pourrions le poursuivre. Le Peren est composé de chercheurs, qui peuvent certes proposer des solutions techniques, mais c’est bien, au bout du compte, le politique qui doit décider. Avis défavorable

M. Andy Kerbrat (LFI-NUPES). Il y a là une contradiction. On nous a fait croire, au début de l’examen du projet de loi, que nous disposions de solutions, fournies par le privé, pour assurer la double identification et vérifier l’identité numérique – solutions théoriques, du reste, et même pas techniques. Pourquoi un pôle de recherche public ne pourrait-il pas être vecteur de solutions ? Tout législateur que nous sommes, nous ne sommes pas experts : nous sommes des relais des scientifiques, des associations, des syndicats et des citoyens engagés. Il serait très utile de nous appuyer sur cette expertise et il faut laisser cette porte ouverte – c’est une mesure qui ne mange pas de pain.

Il ne suffit pas de faire la loi : il faut le faire de manière éclairée, ce qui suppose de se rapporter aux chercheurs, aux personnes qui ont une vision apartisane, bien que politique, de l’objet qu’ils étudient.

La commission rejette l’amendement

Elle adopte l’article 16 modifié.

Article 17 : Centralisation des données devant être transmises par les opérateurs numériques aux communes en matière de location de meublés de tourisme

Amendement CS321 de M. Andy Kerbrat

M. Andy Kerbrat (LFI-NUPES). Il vise à s’assurer que les préfets territorialement compétents sont bien parties prenantes de la gouvernance de l’organisme chargé de centraliser les données de l’API (application programming interface ou interface de programmation d’application). En effet, si l’article 17 prévoit que l’organisme centralisateur est désigné par un décret en Conseil d’État, le texte ne précise pas la gouvernance de cet organisme.

Dans la mesure où l’objectif de cet article est de permettre aux collectivités de mieux contrôler les locations au moyen de plateformes sur leur territoire, il semble évident que les préfets, au même titre que les communes, doivent être associés au pilotage de l’organisme chargé de centraliser les données. C’est d’autant plus indispensable que le préfet du département est compétent pour le recensement des logements vacants et qu’il est garant de la salubrité et de la tranquillité publiques. Il nous semble donc nécessaire d’inscrire dans la loi la présence des communes et des préfets dans la gouvernance de cet organisme.

Nous proposons d’introduire cet amendement dans le projet de loi visant à sécuriser et réguler l’espace numérique (Sren) parce que nous connaissons, dans nos communes, la prédation exercée par ces plateformes dans la location. Dans ma ville de Nantes, par exemple, la tension observée dans le domaine du logement est due en partie à un problème de foncier, mais aussi au nombre de logements vacants, qu’il s’agisse d’espaces donnés aux entreprises pour la construction de plateaux de call centers ou de biens destinés à la location lucrative. On compte ainsi dans la métropole nantaise environ 10 000 logements vides et les associations estiment que 5 000 seraient exploités par le canal d’Airbnb. Une régulation permettant une baisse réelle du coût du foncier et de location est indispensable.

Nous voulons une régulation par le préfet, mais nous voulons aussi – comme nous l’avons défendu à l’occasion d’autres projets de loi – que les préfectures assurent chaque année la publicité des logements vacants. Ce que vous avez fait avec la loi Kasbarian est un scandale et nous avons besoin de cette publicité pour lutter contre la location lucrative, qui ne fait que rendre les gens plus malheureux et plus pauvres.

Mme Mireille Clapot, rapporteure. L’article 17 vise à faciliter, entre les plateformes et les communes, l’échange de données relatives aux meublés de tourisme, dont le nombre, comme vous l’avez rappelé à juste titre, augmente fortement, et qui font l’objet, dans la législation actuelle, de contrôles dont les données circulent d’une manière peu moderne. Vous m’entendrez cependant répondre à plusieurs reprises qu’il ne faut pas demander plus qu’il ne peut à un article d’une loi visant à sécuriser et réguler l’espace numérique.

Pour en revenir à votre amendement, je vous demande un peu de patience, car j’en proposerai prochainement un autre qui permettra d’accéder en open data aux données agrégées permettant un pilotage des politiques de tourisme et de logement. En revanche, les données émises par la plateforme concernent les communes, qui sont en première ligne dans ce domaine, et je ne souhaite pas que les préfets y aient accès. Je demande donc le retrait de l’amendement. À défaut, avis défavorable.

M. Andy Kerbrat (LFI-NUPES). Le préfet a, je le répète, compétence pour le recensement des logements vacants et il est garant de la salubrité et de la tranquillité publiques. Alors que, comme vous l’avez reconnu vous-même, les plateformes, et en particulier Airbnb, opèrent une prédation du foncier et du locatif, cette régulation, pratiquée par d’autres pays d’Europe, est nécessaire et nous permettrait d’aller dans la bonne voie.

L’amendement n’est certes pas suffisant mais il importe néanmoins d’inscrire dans l’article que ces questions relèvent aussi de la compétence du préfet. S’il faut imposer dans l’espace numérique les mêmes règles que in real life, comme dit la jeunesse, faisons-le donc, en attribuant les compétences nécessaires.

M. Ian Boucard (LR). La jeunesse dit aussi : « dans la vie réelle » !

Cet article 17 est bon et nécessaire pour assurer un plus grand partage de données. Par ailleurs, M. Kerbrat signale un vrai problème car, dans les villes qui, comme Bordeaux, Nantes ou Rennes, du fait du TGV, se sont boboïsées à l’image de Paris et ont vu les loyers fortement augmenter par suite de l’arrivée de personnes disposant de revenus plus élevés, les plateformes telles que Airbnb ont pris la moitié du marché et les travailleurs pauvres ont été repoussés dans les banlieues de ces communes, le développement des zones à faibles émissions (ZFE) – soutenu, du reste, par La France insoumise – les empêchant en outre d’entrer dans les communes où ils travaillent.

Pour finir sur un trait d’humour, j’observe que dans ces villes, qui étaient souvent bien gérées, comme Lyon ou Bordeaux, et qui ont basculé du côté écolo-insoumis, on voit aujourd’hui la délinquance augmenter et les plans d’urbanisme se dégrader. M. Kerbrat a raison : il faut vite reprendre en main ces grandes métropoles françaises !

La commission rejette l’amendement.

Amendements identiques CS356 de Mme Emeline K/Bidi et CS394 de M. Hervé Saulignac

Mme Emeline K/Bidi (GDR-NUPES). Certaines données sont essentielles pour permettre aux communes de déterminer leur politique de logement et d’aménagement de leur territoire. L’amendement tend à ce que ces données soient transmises automatiquement aux communes, afin qu’elles n’aient plus à en faire la demande.

M. Hervé Saulignac (SOC). Cette demande, formulée à plusieurs reprises durant les auditions auxquelles nous avons procédé, exprime la situation des communes les plus modestes. Rendre automatique la transmission de ces données, c’est rendre service à ces communes.

Mme Mireille Clapot, rapporteure. Un amendement du Sénat a déjà permis que l’interface actuellement testée sur cinq communes et destinée à être étendue soit, en tant que de besoin, accessible aux communes. Au lieu du système actuel, dans lequel elles doivent, à une période donnée, envoyer une demande aux plateformes, lesquelles leur renvoient par mail un tableau Excel, les communes piocheront les données dans l’interface, ce qui fluidifiera grandement le processus. En revanche, leur envoyer systématiquement toutes les données compliquerait beaucoup le système. Avis défavorable.

M. Hervé Saulignac (SOC). Cette demande a été clairement exprimée durant les auditions par l’Association des maires de France (AMF). Certes, selon les maires, le dispositif a été amélioré. Il reste que, si les communes doivent aller chercher les données, même si ces dernières sont rendues plus accessibles, un grand nombre d’entre elles ne le feront pas. En revanche, il n’apparaît pas très compliqué de demander aux plateformes de transmettre automatiquement les données ; elles n’auront pas à relever un grand défi technique pour le faire. Je ne comprends donc pas pourquoi nos amendements font l’objet d’un avis défavorable, car ils faciliteraient la vie des communes, qui en sauraient gré à la représentation nationale.

M. le président Luc Lamirault. En tant qu’ancien maire, je peux témoigner qu’un maire reçoit tellement d’informations qu’il préfère aller les chercher lorsqu’il en a besoin plutôt que de les voir arriver en masse.

Mme Mireille Clapot, rapporteure. Merci, monsieur le président, pour ce témoignage d’élu local.

Monsieur Saulignac, l’AMF, avec qui nous avons discuté, est impatiente de voir ce système se mettre en place tel qu’il est, et peut-être un jour étendu, de telle sorte que le dispositif proposé par les amendements ne me semble pas nécessaire. Je maintiens donc mon avis défavorable.

La commission rejette les amendements.

Amendement CS891 de Mme Mireille Clapot

Mme Mireille Clapot, rapporteure. Le Parlement européen devrait se prononcer dans quelques semaines sur un projet de règlement relatif aux locations de courte de durée ; le trilogue devrait aboutir avant la fin de l’année. L’article 17 vise à anticiper d’éventuelles évolutions. Le tourisme étant une activité internationale, une harmonisation européenne serait opportune. Les acteurs concernés demandent des outils de pilotage et regardent le projet avec intérêt.

Par ailleurs, comme M. Kerbrat l’a souligné, la politique du logement est également concernée. L’amendement tend donc à préciser que seraient visées à l’alinéa 3 les données « utiles à la conduite d’une politique publique de tourisme et de logement définies par décret ». L’AMF est favorable à l’élargissement du champ, conforme au futur texte européen, car il sera bénéfique aux communes.

La commission adopte l’amendement.

Amendement CS263 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (LR). Cet amendement vise à faire établir, par le ministre du logement, une liste des communes qui ont adopté la procédure de changement d’usage et le régime de déclaration préalable. Lorsqu’une commune sollicite une plateforme comme Airbnb ou Booking pour recevoir les données nécessaires au contrôle de la réglementation relative aux meublés de tourisme, la plateforme doit vérifier que c’est son cas avant de répondre. Le déploiement de l’interface de programmation d’application API meublé ne supprimera pas l’obligation de vérification préalable. L’existence d’une liste des communes certifiées ferait gagner du temps aux plateformes, donc aux communes.

Mme Mireille Clapot, rapporteure. Les communes ont également demandé un moyen de vérifier leur éligibilité. Un organisme unique sera chargé de faire l’intermédiaire entre elles et les plateformes, ce qui résoudra autrement le problème. Avis défavorable.

L’amendement est retiré.

Amendement CS874 de Mme Emeline K/Bidi

Mme Emeline K/Bidi (GDR-NUPES). Nous voulons que les données ne soient pas « mises à la disposition » des communes, mais qu’elles leur soient « transmises ». Toutes les communes n’ont pas les moyens d’effectuer cette demande ; il serait plus simple qu’elles aient accès aux données sans avoir besoin d’accomplir une démarche. D’ailleurs, la rédaction du texte mérite d’être clarifiée.

Mme Mireille Clapot, rapporteure. Comme le président l’a souligné, les communes reçoivent de nombreux mails ; les petites communes, en particulier, n’ont sans doute pas intérêt à recevoir automatiquement des mails contenant des fichiers Excel, qu’elles devront traiter. Les données seront disponibles dans une interface que les communes pourront consulter au moment opportun – ce sera beaucoup plus pratique pour elles.

Mme Danielle Simonnet (LFI-NUPES). L’un n’empêche pas l’autre. Une commune peut accomplir la démarche si elle le souhaite ; d’un autre côté, la transmission automatique permettrait aux petites communes de prendre conscience de l’incidence du développement des meublés de tourisme sur leur territoire.

Les conséquences de la croissance d’Airbnb sur l’accès au logement sont déplorables ; la transmission des données à toutes les communes favoriserait un plus strict encadrement de l’activité.

Mme Mireille Clapot, rapporteure. Avec le développement informatique, il paraît simple d’accumuler les données, mais il faut agir avec prudence : cela peut entraîner des heures de travail humain. Les cinq communes qui ont testé le système retenu l’ont plébiscité ; l’AMF l’attend avec impatience. Mieux vaut ne pas le complexifier.

M. le président Luc Lamirault. Vous ne voudriez pas qu’une entreprise privée établisse la liste des adresses mail de toutes les communes ! Ce ne serait pas dans l’esprit du RGPD – règlement général sur la protection des données.

La commission rejette l’amendement.

Amendement CS61 de M. Ian Boucard

M. Ian Boucard (LR). Je crains que beaucoup d’entreprises disposent déjà d’un tel fichier, comme celles qui vendent des drapeaux. Les organismes qui font du lobbying n’éprouvent malheureusement aucune difficulté à envoyer des messages aux 577 députés en même temps.

Il s’agit en quelque sorte d’un amendement de repli aux amendements identiques de Mme K/Bidi et de M. Saulignac. Votre dispositif est tellement bon que nous voulons que toutes les communes y aient accès. Je vous propose de préciser qu’elles recevront les données dans un délai de trente jours.

Je n’ai pas vu l’interface fonctionner. Il faut que le système soit efficace : s’il est vrai que les petites communes n’auront pas le temps de traiter les mails reçus, elles auront encore moins le temps d’envoyer un mail de demande et de relancer trois fois l’organisme, s’il ne répond pas.

Mme Mireille Clapot, rapporteure. Je vous remercie de soutenir le dispositif. Votre demande correspond au fonctionnement du système en place. La commune émet une demande aux plateformes, qui leur transmettent les données. Avec le nouveau dispositif, issu de l’amendement adopté au Sénat, l’API sera disponible en permanence, et les plateformes de location l’alimenteront en tant que de besoin, au fil de l’eau, car l’activité varie beaucoup avec les saisons. Il est donc inutile d’inscrire un délai.

Je vous propose de retirer l’amendement ; à défaut, j’émettrai un avis défavorable.

L’amendement est retiré.

Amendements identiques CS 355 de Mme Soumya Bourouaha et CS318 de M. Jean-François Coulomme

Mme Soumya Bourouaha (GDR-NUPES). Mon amendement vise à préciser que l’organisme unique qui sera chargé de traiter les données sera public, afin de garantir rigueur et confidentialité.

M. Jean-François Coulomme (LFI-NUPES). « Vous ne voudriez pas qu’une entreprise privée établisse la liste des adresses mail de toutes les communes ! » avez-vous dit, monsieur le président. Vous avez raison, nous ne le voulons pas : nous demandons qu’il soit public. Lors des débats, le ministre délégué, M. Jean-Noël Barrot, nous a assuré que tel serait le cas. Nous proposons de l’inscrire dans la loi.

M. le président Luc Lamirault. Vous avez un peu détourné mes propos, monsieur Coulomme.

Mme Mireille Clapot, rapporteure. À la lecture de vos amendements, je me suis demandé quel serait l’intérêt de cette précision, puisqu’il s’agit d’un système d’intérêt général. Finalement, je souscris à vos arguments ; ce qui va sans dire va parfois mieux en l’écrivant. Avis favorable.

La commission adopte les amendements.

Amendement CS395 de M. Hervé Saulignac

M. Hervé Saulignac (SOC). Il est absurde de centraliser des centaines de milliers de données mais d’être incapable de les transmettre à quelques milliers de communes. Je parie que le transfert sera automatisé dans les prochaines années.

Puisque la commune devra impérativement demander les données pour en bénéficier, le présent amendement vise à préciser qu’après une première demande, la transmission sera faite annuellement, sans que la commune ait besoin de renouveler sa demande.

Mme Mireille Clapot, rapporteure. Les activités touristiques sont saisonnières ; avec ce système, les plateformes alimenteront régulièrement l’API. Restreindre la communication des données à un envoi annuel reviendrait à limiter son intérêt. Avis défavorable.

M. Jean-François Coulomme (LFI-NUPES). J’ai une modeste expérience en programmation : le dispositif demandé tient en deux lignes, qu’on appelle une liste de diffusion. Il suffit d’une inscription des usagers pour qu’un algorithme génère régulièrement un mail recensant toutes les locations concernées dans un fichier à plat.

La commission rejette l’amendement.

Amendement CS460 de Mme Sophia Chikirou

M. Andy Kerbrat (LFI-NUPES). Il vise à préciser que les plateformes transféreront les données uniquement sur l’API. Le dispositif actuel est inefficace parce que les données sont transmises manuellement ; les collectivités n’y ont donc accès qu’une fois par an, après un délai d’un mois environ. La généralisation de l’API est insuffisante mais va dans le bon sens. Toutefois il est essentiel de s’assurer que toutes les plateformes transféreront toutes les données sur une même interface, par voie électronique.

Certes, les communes pourront consulter l’interface régulièrement, mais il faut prendre en considération la fracture numérique et l’impératif de sécurité, en commençant par une API unique. Par expérience, je sais qu’on va sur les plateformes, mais qu’on n’y retourne pas.

Mme Mireille Clapot, rapporteure. Dans le système prévu, tout le monde est gagnant. Les plateformes préfèrent également un système centralisé car elles ne sont pas ravies de devoir établir des fichiers Excel pour répondre aux demandes nombreuses qui leur parviennent en décembre. Nous ne faisons pas la loi pour les plateformes, mais la centralisation des données profite à tous. Votre demande est satisfaite, la précision est donc inutile. Avis défavorable.

M. Andy Kerbrat (LFI-NUPES). Nous ne faisons pas la loi pour les plateformes, mais depuis quelques années, les plateformes font la loi dans ce pays – je le dis sans intention polémique. On l’a vu avec Uber ; on le voit avec Airbnb. Cette dernière est devenue une centrale de la gentrification de certaines communes, aux dépens de leur population. Nous avons adopté une logique d’accompagnement des plateformes qui est très dangereuse. Le pays connaît une crise du logement, une crise de l’inflation et une crise de l’énergie : nous demandons que l’État use de ses compétences régaliennes pour desserrer l’étau en assurant une régulation numérique des plateformes prédatrices.

La commission rejette l’amendement.

Amendement CS892 de Mme Mireille Clapot

Mme Mireille Clapot, rapporteure. Tous, nous nous sommes arraché les cheveux devant des fichiers Excel dont il fallait compiler les données non standardisées – rue Jean-Jaurès et rue jjaures. Le présent amendement tend à insérer les mots « sous un format standardisé » pour que les communes disposent d’un outil efficace.

M. Jean-François Coulomme (LFI-NUPES). Il faudrait préciser, avant l’examen en séance, qui établit le standard.

La commission adopte l’amendement.

Amendements CS819 de M. Aurélien Taché, CS282 de M. Jean-Claude Raux, CS323 de Mme Danielle Simonnet et CS842 de M. Aurélien Taché (discussion commune)

M. Aurélien Taché (Écolo-NUPES). Nous trouvons intéressante l’idée qu’un organisme unique facilite la tâche des communes pour limiter les locations saisonnières, en particulier celles d’Airbnb. Cependant, certaines données utiles au contrôle ont disparu de la liste des éléments à fournir. Lors des auditions, toutes les plateformes ont affirmé qu’il revenait aux communes de mener les contrôles, mais les communes ont souligné que certaines données leur manquaient – nom du loueur, adresse du bien, numéro de déclaration par exemple. L’alinéa 4 tend à supprimer la phrase qui en fait la liste ; l’amendement vise à supprimer l’alinéa 4.

Mme Danielle Simonnet (LFI-NUPES). Le présent amendement tend à réécrire l’alinéa 4, afin de rétablir la liste des données à transmettre et d’en inclure d’autres, toutes utiles pour contrôler le respect de la loi, en particulier le nom du propriétaire du bien et l’URL précise de l’offre de location. Les services des collectivités gagneraient ainsi beaucoup de temps. Elles doivent également disposer du nombre de jours de mise en location pour savoir si le loueur respecte la limite autorisée, à savoir 120 jours. Les collectivités demandent à disposer de ces données pour ne pas se trouver déboutées lorsqu’elles poursuivent Airbnb en justice. C’est cohérent avec l’esprit de la création d’une API.

M. Aurélien Taché (Écolo-NUPES). La raréfaction de l’offre de logement et l’augmentation incessante des loyers sont de terribles réalités ; la location saisonnière prend trop de place. Les plateformes se déchargent des vérifications sur les collectivités : nous voulons donner à ces dernières les armes pour mener à bien les contrôles – c’est tout ce qu’elles demandent.

Mme Mireille Clapot, rapporteure. Avis défavorable sur tous les amendements.

L’expérimentation API a montré que les communes demandent souvent l’URL de l’annonce ; elles demandaient l’adresse du propriétaire alors que c’est désormais le loueur qui importe. Certaines données leur manquent. Néanmoins, nous avons précédemment adopté l’amendement CS891 qui tend à élargir le périmètre aux données utiles à la conduite d’une politique publique de tourisme et de logement, donc au-delà de celui que vous demandez.

Mme Danielle Simonnet (LFI-NUPES). Nous pouvons donc préparer pour l’examen en séance un amendement, rédigé à partir de votre amendement CS891, qui prévoie précisément la liste de toutes les données utiles aux communes. Soyons plus ambitieux dans la défense du droit au logement comme dans la politique de tourisme. Si des décrets doivent encore intervenir, autant que le texte soit exhaustif. Dans la bataille contre Airbnb, les petites communes du Pays basque comme Paris ont besoin de connaître les adresses des biens.

Mme Mireille Clapot, rapporteure. Je sais combien vous êtes sensible au problème du logement. La rédaction de l’amendement CS891 embrasse les deux domaines. Le travail préparatoire à l’examen de la loi m’a convaincue qu’il fallait élaborer un texte capable de résister à l’épreuve du temps. Or la technologie va très vite. Dans six ou douze mois, les communes pourraient avoir besoin d’un nouvel élément, qu’il faudrait alors ajouter à la liste. Un texte européen arrive et un organisme sera bientôt créé. Il sera temps alors de définir précisément quelles données demander. Mieux vaut ne pas restreindre le champ.

La commission rejette successivement les amendements.

Suivant l’avis de la rapporteure, la commission rejette l’amendement CS264 de M. Aurélien Lopez-Liguori.

Amendement CS893 de Mme Mireille Clapot

Mme Mireille Clapot, rapporteure. L’amendement vise à placer en libre accès les données du portail unique, une fois agrégées, donc anonymisées. Leur consultation respectera la confidentialité et la vie privée des personnes concernées. Plusieurs d’entre vous ont demandé que ces données soient accessibles, pour mener des analyses nécessaires à la conduite des politiques du tourisme et du logement.

Je salue le rapport d’Éric Bothorel sur la politique publique de la donnée, des algorithmes et des codes sources, publié en 2020, et le rapport d’Anne Le Hénanff pour la Commission supérieure du numérique et des postes, relatif à la souveraineté numérique. Je vous invite à les lire.

M. Andy Kerbrat (LFI-NUPES). Le groupe La France insoumise-NUPES est très attaché à l’open data. Nous dénonçons l’emprise que les géants du numérique exercent sur les services publics et sur la défense. Cependant nous ne sommes pas certains qu’il soit possible d’anonymiser les données personnelles. Sur le vote de cet amendement nous nous abstiendrons donc.

La commission adopte l’amendement.

Amendement CS928 de Mme Mireille Clapot

Mme Mireille Clapot, rapporteure. Les communes qui ont mis en place la procédure d’enregistrement doivent contrôler que les loueurs de meublés déclarés comme résidence principale ne dépassent pas la limite de 120 jours de location. Or certains logements apparaissent sur plusieurs plateformes. L’amendement vise à créer un système d’alerte pour avertir les communes lorsqu’un logement atteint le plafond. Le traitement automatisé des données permet d’effectuer le rapprochement que les communes n’ont pas le temps de faire manuellement.

M. Andy Kerbrat (LFI-NUPES). Nous sommes favorables à cet amendement comme à tout dispositif susceptible de réguler les plateformes prédatrices. Cependant vos positions sont contradictoires : vous avez refusé l’envoi automatique de données aux communes en expliquant qu’elles ne pourraient pas lire les mails et vous nous proposez ici de leur envoyer un mail. Il faudra apporter des précisions sur les mécanismes d’alerte avant l’examen en séance.

La commission adopte l’amendement.

Amendement CS875 de Mme Soumya Bourouaha

Mme Soumya Bourouaha (GDR-NUPES). Cet amendement vise à insérer le mot « public » après le mot « organisme », par cohérence avec l’amendement CS355 que nous avons précédemment adopté.

Suivant l’avis de la rapporteure, la commission adopte l’amendement.

Amendement CS320 de Mme Danielle Simonnet

Mme Danielle Simonnet (LFI-NUPES). La création de l’API vise à aider les communes à contrôler les locations de meublés de tourisme et à poursuivre les plateformes en cas de fraude. C’est essentiel car dans certaines communes, la multiplication de ces meublés favorise la spéculation et de nombreux logements sont retirés du marché de la location d’habitation. Puisqu’il s’agit de servir l’intérêt général, il faut que les collectivités locales participent à la gouvernance de l’organisme unique chargé de l’API.

Mme Mireille Clapot, rapporteure. Comme vous, je souhaite associer les communes. Je vous propose de retirer votre amendement au profit du CS896, que je défendrai dans un instant ; il tend à créer un comité de suivi. Si vous maintenez votre amendement, j’émettrai un avis défavorable.

Mme Danielle Simonnet (LFI-NUPES). Votre amendement vise à inclure les communes et l’administration de l’État dans la gouvernance du dispositif, afin de satisfaire leurs attentes et de résoudre les difficultés qu’elles pourraient rencontrer dans leur relation avec l’organisme unique. Les collectivités participeront-elles réellement à la gouvernance ?

Mme Mireille Clapot, rapporteure. Nous créons un comité de suivi où siégeront des représentants de l’État et des communes. Il ne s’agit pas de définir leur ordre du jour. Les communes sont soucieuses de leur indépendance ; elles feront valoir leurs droits et leurs intérêts.

La commission rejette l’amendement.

Amendement CS467 de Mme Sophia Chikirou

M. Jean-François Coulomme (LFI-NUPES). Avec les plateformes de location touristique nous assistons à une prédation de l’espace privé, mais aussi de l’espace public puisque certains quartiers deviennent difficiles à vivre.

Afin que les communes disposent d’un outil d’analyse des données efficace pour réfléchir à l’aménagement de leur territoire, à leur politique foncière, urbanistique, à leur politique du logement, nous demandons que les données soient accessibles pendant une durée qui ne peut pas être inférieure à deux ans.

Mme Mireille Clapot, rapporteure. En l’état actuel du texte, ce sont les données de l’année n et de l’année n-1 qui seront fournies. Vous parlez ici de conservation, ce qui pose la question de l’équilibre entre les exigences du RGPD, qui impose de ne pas conserver les données trop longtemps, et la nécessité d’une durée suffisante pour pouvoir exploiter les données. Il est trop tôt pour dire où mettre ce curseur et, vous l’avez compris, le sujet ne sera pas clos avec cet article 17. Demande de retrait ; à défaut, avis défavorable.

M. Jean-François Coulomme (LFI-NUPES). Nous retirons l’amendement pour des raisons de rédaction – « vingt-quatre mois » aurait été préférable à « deux ans », termes qui pourraient nuire à la quantité de données accessibles.

L’amendement est retiré.

L’amendement CS62 de M. Ian Boucard est retiré.

Amendement CS896 de Mme Mireille Clapot

Mme Mireille Clapot, rapporteure. C’est l’amendement qui vise à inclure les communes et l’administration de l’État dans la gouvernance du dispositif.

La commission adopte l’amendement.

Amendement CS590 de Mme Clara Chassaniol

Mme Clara Chassaniol (RE). Il s’agit de compléter le dispositif pour mieux lutter contre les fraudes au numéro d’enregistrement accordé par les communes. L’API permettra de croiser les données pour un même numéro d’enregistrement lorsque celui-ci est utilisé sur des plateformes différentes, mais pas de vérifier que ce numéro est bien valable. Or, même si les communes peuvent procéder à des vérifications, mais elles n’ont pas les moyens d’en mener suffisamment pour lutter contre les locations frauduleuses.

Je propose d’offrir aux communes un outil pour uniformiser les numéros d’enregistrement et ainsi de leur permettre de vérifier les données des loueurs et leur conformité avec les déclarations faites auprès d’elles.

Mme Mireille Clapot, rapporteure. Paris et les grandes villes rencontrent des problèmes particuliers en la matière : la créativité humaine est infinie lorsqu’il s’agit de tricher…

La centralisation des données permettra déjà un bond considérable dans la détection des problèmes. Nous faisons donc une part du chemin ; j’aimerais que les communes fassent l’autre. Le règlement européen nous permettra aussi d’approfondir le sujet.

Cet amendement ne me paraît pas tout à fait abouti, et je vous propose que nous le retravaillions en vue de la séance.

Mme Clara Chassaniol (RE). Je retire l’amendement. Nous rappellerons aux communes qu’elles doivent aussi faire un effort sur le contrôle de ces numéros d’enregistrement.

L’amendement est retiré.

Amendement CS461 de Mme Sophia Chikirou

M. Andy Kerbrat (LFI-NUPES). Je voudrais utiliser à mon tour l’exemple de la ville de Lyon, mais de façon positive : cette commune nous a signalé lors des auditions que les données transmises aux communes n’étaient pas toujours opposables lors de contentieux avec des particuliers. C’est une des caractéristiques de cette économie des plateformes : ce sont des particuliers qui sont en fait en cause. Cela me rappelle l’audition de la Première ministre devant la commission d’enquête sur les Uber Files au cours de laquelle elle avait vanté la liberté des entrepreneurs de ne pas respecter le code du travail.

La France insoumise – et plus largement la NUPES – érige le droit au logement en priorité. La crise que nous traversons nous impose d’aller plus loin en créant de la sécurité juridique pour les communes, donc en rendant ces données opposables.

Mme Mireille Clapot, rapporteure. Je partage votre confiance dans la justice de notre pays. J’ai entendu comme vous cette remarque, mais nous n’avons pas obtenu de précisions. Rien dans le RGPD ne s’oppose à ce que les données récoltées en vue de contrôler la bonne application d’une loi soient utilisées. Les données seront maintenant centralisées et standardisées, donc fiabilisées. Il ne me semble pas nécessaire d’inscrire dans la loi la précision que vous proposez : le blocage n’est peut-être pas d’origine législative. Avis défavorable.

La commission rejette l’amendement.

Elle adopte l’article 17 modifié.

Après l’article 17

Amendement CS468 de M. Andy Kerbrat

M. Andy Kerbrat (LFI-NUPES). C’est un amendement d’appel. Vous avez compris ma monomanie au sujet des plateformes de location touristique et de leur impact non seulement sur nos métropoles mais aussi ailleurs, en Bretagne par exemple, où elles provoquent parfois une inflation qui rend difficile pour les habitants de se loger. Le droit au logement doit être une priorité.

Nous demandons donc que les ONG et les fondations de droit au logement aient accès aux informations anonymisées de la plateforme unique, afin d’alimenter leurs travaux de recherche et d’observation, donc leurs propositions. Cela permettra au législateur d’agir sur des bases solides.

Mme Mireille Clapot, rapporteure. Merci pour ce vibrant plaidoyer, mais votre amendement est satisfait. Avis défavorable.

La commission rejette l’amendement.

TITRE VI
RENFORCER LA GOUVERNANCE DE LA RÉGULATION DU NUMÉRIQUE

Article 18 : Coopération du coordinateur pour les services numériques avec le Pôle d’expertise de la régulation numérique

Amendement CS894 de Mme Mireille Clapot

Mme Mireille Clapot, rapporteure. Cet amendement vise à préciser que, lorsqu’il coopère avec l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), le Peren exerce ses missions en toute indépendance, qu’il soit sollicité ou qu’il propose de lui-même son assistance technique.

La commission adopte l’amendement.

Amendement CS895 de Mme Mireille Clapot

Mme Mireille Clapot, rapporteure. Cet amendement demandait au Peren de présenter un bilan annuel, transmis au Parlement ainsi qu’à la Cnil. Je le retire, car il pourrait avoir des effets pervers.

L’amendement est retiré.

La commission adopte l’article 18 modifié.

TITRE VII
CONTRÔLE DES OPÉRATIONS DE TRAITEMENT DE DONNÉES À CARACTÈRE PERSONNEL EFFECTUÉES PAR LES JURIDICTIONS DANS L’EXERCICE DE LEUR FONCTION JURIDICTIONNELLE

Article 19 : Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par le tribunal des conflits et les juridictions de l’ordre administratif

La commission adopte l’amendement rédactionnel CS593 de M. Denis Masséglia, rapporteur pour les titres IV et VII.

Amendement CS644 de M. Erwan Balanant

M. Erwan Balanant (Dem). Je propose de remplacer le mandat de trois ans renouvelable une fois prévu pour le membre du Conseil d’État élu pour exercer le contrôle du traitement des données par un mandat de six ans non renouvelable, comme c’est le cas pour le président de l’Arcom.

M. Denis Masséglia, rapporteur. Je préfère en rester à la rédaction actuelle du texte.

La commission rejette l’amendement.

Amendements CS640 de M. Erwan Balanant et CS595 de M. Denis Masséglia (discussion commune)

M. Erwan Balanant (Dem). Le texte prévoit une présentation du rapport au Parlement. Je propose d’en rester à une simple transmission, plus souple. J’ai vu que le rapporteur faisait une proposition similaire, je retire donc mon amendement.

M. Denis Masséglia, rapporteur. L’amendement CS595 est plus court, mais l’objectif est en effet le même.

L’amendement CS640 est retiré.

La commission adopte l’amendement CS595.

Elle adopte l’article 19 modifié.

Article 20 : Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions de l’ordre judiciaire et le Conseil supérieur de la magistrature

La commission adopte l’amendement rédactionnel CS608 de M. Denis Masséglia, rapporteur.

Amendements CS265 de M. Aurélien Lopez-Liguori, CS599 de M. Denis Masséglia et CS633 de M. Erwan Balanant (discussion commune)

M. Aurélien Lopez-Liguori (RN). Il s’agit de permettre que le contrôle des opérations de traitement des données à caractère personnel soit exercé par un avocat général à la Cour de cassation.

M. Denis Masséglia, rapporteur. L’amendement CS599 a le même objet.

M. Erwan Balanant (Dem). Même objet également. Monsieur le rapporteur, pourquoi précisez-vous « magistrat hors hiérarchie » dans votre amendement ?

M. Denis Masséglia, rapporteur. Afin qu’il s’agisse d’un magistrat qui a de l’expérience.

Ces amendements ayant tous le même objectif, je vous encourage à vous rallier au mien, qui correspond le mieux aux demandes exprimées lors des auditions.

La commission rejette l’amendement CS265.

Elle adopte l’amendement CS599.

En conséquence, l’amendement CS633 tombe.

L’amendement CS634 de M. Erwan Balanant est retiré.

Amendements CS639 de M. Erwan Balanant et CS607 de M. Denis Masséglia (discussion commune)

M. Erwan Balanant (Dem). La différence entre les deux amendements étant minime, je retire le mien.

M. Denis Masséglia, rapporteur. Comme tout à l’heure, l’amendement prévoit que le rapport est transmis au Parlement sans qu’il soit besoin d’organiser une présentation chaque année.

L’amendement CS639 est retiré.

La commission adopte l’amendement CS607.

Elle adopte l’article 20 modifié.

Article 21 : Création d’une autorité de contrôle des traitements des données à caractère personnel effectués par les juridictions financières

La commission adopte l’amendement rédactionnel CS610 de M. Denis Masséglia, rapporteur.

L’amendement CS638 de M. Erwan Balanant est retiré.

Amendement CS643 de M. Erwan Balanant et amendements identiques CS609 de M. Denis Masséglia et CS68 de Mme Christine Engrand (discussion commune)

M. Erwan Balanant (Dem). Comme tout à l’heure, je retire l’amendement.

M. Denis Masséglia, rapporteur. À l’instar de ce que nous avons voté aux articles 19 et 20, l’amendement prévoit que le rapport est transmis plutôt que présenté.

Mme Ségolène Amiot (LFI-NUPES). Il est tout de même triste de se priver d’une présentation de rapport devant le Parlement. Ce rapport ne pourra pas être débattu.

L’amendement CS643 est retiré.

La commission adopte les amendements identiques CS609 et CS68.

Elle adopte l’article 21 modifié.

TITRE VIII
ADAPTATIONS DU DROIT NATIONAL

Chapitre Ier
Mesures d’adaptation de la loi n°2004-575 du 21 juin 2004 pour la
confiance dans l’économie numérique

Article 22 : Adaptation de la loi pour la confiance dans l’économie numérique (LCEN)

Amendement CS371 de Mme Isabelle Santiago

M. Paul Midy, rapporteur général, rapporteur pour le titre VIII. Demande de retrait ; à défaut, avis défavorable. L’amendement est en partie satisfait par l’article 35 du Digital Services Act (DSA), et pose par ailleurs des problèmes juridiques, notamment le risque de réserver l’activation que vous demandez à la première connexion.

L’amendement est retiré.

Amendements CS266 et CS267 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Dans un souci de bonne information des internautes, l’amendement CS266 impose aux sites la publication des éventuels labels reçus, par exemple la certification SecNumCloud mise en place par l’Agence nationale pour la sécurité des systèmes d’information (Anssi).

Dans la même logique, le second prévoit l’obligation pour les sites internet de faire savoir au public s’il existe un risque d’un accès d’autorités publiques d’États non-membres de l’Union européenne à ces données du fait de législations extraterritoriales.

Les utilisateurs pourront ainsi opérer des choix plus responsables.

M. Paul Midy, rapporteur général. Avis défavorable. Sur le premier amendement, je vous renvoie au schéma de discussion européen sur ce sujet. La formulation du second est trop large.

La commission rejette successivement les amendements.

Amendement CS211 de M. Laurent Esquenet-Goxes

Mme Caroline Yadan (RE). Cet amendement a pour objet d’assouplir le délai de prescription du droit de réponse à une publication en ligne.

L’article 22 prévoit actuellement que le droit de réponse s’exerce dans un délai de trois mois à compter de la publication du message concerné. Or il arrive souvent qu’une personne nommée ou désignée n’ait pas connaissance de cette publication.

En s’appuyant sur le point de départ de droit commun du délai de prescription en droit civil, cet amendement propose donc de retarder le début du compte à rebours au moment où la personne « a connu ou aurait dû connaître » l’existence de la publication.

M. Paul Midy, rapporteur général. Demande de retrait ; à défaut, avis défavorable. Il y a un problème de formulation, car la durée serait potentiellement indéfinie. Nous pourrons en reparler d’ici à la discussion en séance publique.

L’amendement est retiré.

Amendement CS33 de M. Raphaël Gérard

Mme Clara Chassaniol (RE). Cet amendement tend à créer un droit de réponse au profit des associations de lutte contre les discriminations sur internet. Il aligne le régime du droit de réponse dans la presse numérique sur celui de la presse écrite, et donne ainsi aux associations un nouvel outil pour diffuser de manière visible des messages pédagogiques sur la portée discriminatoire des contenus incriminés sur les plateformes.

M. Paul Midy, rapporteur général. Merci pour votre engagement contre les discriminations sur internet. Avis favorable.

La commission adopte l’amendement.

Suivant l’avis défavorable du rapporteur général, la commission rejette l’amendement CS204 de Mme Caroline Parmentier.

Amendement AS361 de M. Andy Kerbrat

M. Jean-François Coulomme (LFI-NUPES). Il s’agit, comme le demande l’association La Quadrature du net, de garantir la neutralité du net, c’est-à-dire que tous les contenus circulent sur la toile de manière égalitaire, sans ralentissement du débit pour certains usagers par exemple en fonction du prix de leur abonnement ou en fonction d’algorithmes sophistiqués.

M. Paul Midy, rapporteur général. L’amendement est satisfait puisque le législateur européen protège la neutralité du net depuis 2016. Demande de retrait ; à défaut, avis défavorable.

La commission rejette l’amendement.

Amendement CS746 de M. Christophe Blanchet

M. Paul Midy, rapporteur général. Nous sommes favorables au principe de cet amendement, mais nous nous interrogeons sur la portée opérationnelle de la nouvelle obligation d’information au sujet de la contrefaçon et des médicaments falsifiés. Dans un esprit constructif, j’émets un avis de sagesse.

La commission adopte l’amendement.

Amendement CS743 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Cet article prévoit que les hébergeurs ont le devoir d’informer promptement les autorités de toute activité illicite constituant des infractions dont ils auraient connaissance. L’amendement ajoute à cette liste le trafic d’armes.

L’amendement CS438, qui vient ensuite, ajoute les infractions relatives au trafic de stupéfiants, souvent organisés sur les réseaux comme Snapchat.

M. Paul Midy, rapporteur général. En cohérence avec nos discussions de ces derniers jours, qui visaient plutôt à restreindre et à consolider notre texte, avis défavorable.

La commission rejette l’amendement.

Amendement CS65 de Mme Corinne Vignon

Mme Mireille Clapot (RE). Il s’agit d’ajouter la zoopornographie et la zoophilie aux infractions qui doivent être signalées par les hébergeurs. Ceux-ci doivent être responsabilisés.

M. Paul Midy, rapporteur général. Nous partageons évidemment votre intention. Pour des raisons de bonne écriture et de cohérence, je vous demande néanmoins le retrait de l’amendement. À défaut, avis défavorable.

La commission rejette l’amendement.

Suivant l’avis défavorable du rapporteur général, la commission rejette l’amendement CS438 de M. Aurélien Lopez-Liguori.

Amendement CS13 de M. Raphaël Gérard

M. Paul Midy, rapporteur général. Retrait, sinon avis défavorable.

L’amendement est retiré.

Amendement CS443 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). L’article 22 ne contient aucune disposition pour sanctionner les entités fournissant des services d’hébergement qui ne satisfont pas à leurs obligations de transparence. Nous proposons de rendre le dispositif plus coercitif.

M. Paul Midy, rapporteur général. Nous pourrions en partager l’intention, mais le dispositif présente un risque d’inconstitutionnalité. Demande de retrait ; à défaut, avis défavorable.

La commission rejette l’amendement.

Amendement CS430 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). La conservation des données ne peut en aucun cas porter sur le contenu des correspondances, ni sur les informations consultées. Cette conservation et le traitement des données doivent s’effectuer dans le respect de la loi « informatique et libertés ».

M. Paul Midy, rapporteur général. L’amendement est satisfait car vous avez repris les dispositions de l’article L. 34-1 du code des postes et des communications électroniques. Avis défavorable.

L’amendement est retiré.

Amendements CS269 et CS268 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Il s’agit de prévoir non un avis simple mais un avis conforme de la Cnil.

M. Paul Midy, rapporteur général. La question mérite d’être débattue. Toutefois, même si l’avis de la Cnil est indispensable et éclairant, il ne serait pas efficace de le rendre impératif. Dans un processus de consultation, cela risquerait d’inverser les rôles de l’autorité administrative indépendante (AAI) et du Gouvernement.

Demande de retrait ; sinon, avis défavorable.

La commission rejette successivement les amendements.

Amendement CS325 de Mme Ségolène Amiot

Mme Ségolène Amiot (LFI-NUPES). L’amendement tend à rendre leur liberté aux utilisateurs des plateformes de partage de contenus et de réseaux sociaux, en instaurant une obligation d’interopérabilité. Comme pour le cloud, il s’agit de ne pas rester captif d’une plateforme ou d’un réseau social, et de pouvoir passer de l’une à l’autre.

M. Paul Midy, rapporteur général. La proposition est intéressante mais, en l’état, elle risque de constituer une surtransposition du Digital Markets Act (DMA). Je vous suggère donc de retirer votre amendement et de le retravailler d’ici aux élections européennes. Sinon, l’avis sera défavorable.

La commission rejette l’amendement.

Elle adopte l’article 22 modifié.

En conséquence, les amendements CS497 de Mme Isabelle Santiago et CS750 de Mme Estelle Folest, les amendements identiques CS26 de Mme Véronique Riotton, CS140 de M. Philippe Gosselin, CS344 de Mme Soumya Bourouaha, CS382 de Mme Isabelle Santiago, CS466 de Mme Virginie Duby-Muller, CS575 de Mme Naïma Moutchou et CS730 de Mme Caroline Yadan, les amendements identiques CS469 de Mme Virginie Duby-Muller et CS731 de Mme Caroline Yadan, ainsi que les amendements identiques CS11 de M. Thibault Bazin, CS141 de M. Philippe Gosselin, CS343 de Mme Emeline K/Bidi, CS381 de M. Hervé Saulignac, CS576 de Mme Naïma Moutchou et CS812 de Mme Fabienne Colboc tombent.

Après l’article 22

Amendement CS35 de M. Raphaël Gérard

Mme Clara Chassaniol (RE). L’amendement vise à renforcer la lutte contre l’effet de diffamation à caractère discriminatoire, en étendant le droit de réponse dans la presse à l’ensemble des associations de lutte contre les discriminations. Cela contribuerait à promouvoir une couverture médiatique plus équilibrée, à lutter contre les discriminations, et à encourager la responsabilité éditoriale.

M. Paul Midy, rapporteur général. Même avis que pour le précédent amendement, pour les mêmes raisons. Demande de retrait ; sinon, avis défavorable.

Mme Sophia Chikirou (LFI-NUPES). Je regrette cet avis. Nous sommes favorables à cet amendement, qui étend le droit de réponse dans la presse à l’ensemble des associations de lutte contre les discriminations. Lutter contre les propos haineux et discriminatoires est un vrai enjeu. Si l’amendement n’était pas adopté, nous le reprendrions en séance.

M. Paul Midy, rapporteur général. Comme je l’avais dit lorsque nous avions examiné le premier amendement sur cette question, sa rédaction pose des problèmes sur le plan juridique mais je serais ravi de la retravailler pour la séance.

La commission rejette l’amendement.

Amendement CS27 de Mme Véronique Riotton

Mme Céline Calvez (RE). La lutte contre les violences faites aux femmes, premier pilier de la grande cause de ce quinquennat et du précédent, conduit à lutter contre les représentations d’une gravité inouïe des crimes qui banalisent les violences perpétrées à l’égard des femmes. Le rapport du Sénat « Porno : l’enfer du décor » a rappelé combien les contenus ultraviolents pullulent sur internet et exposent non seulement les mineurs mais l’ensemble des internautes à des contenus objectivement illicites et réprimés – actes de torture et de barbarie, viols, électrocutions, noyades, brûlures. Les procès de French Bukkake et de Jacquie et Michel doivent servir de leçon. On ne peut pas décemment dire que tous les contenus pornographiques se valent. Comme nous souhaitons protéger les citoyens des contenus faisant l’apologie du terrorisme, nous voulons que les hébergeurs cessent de faire l’apologie du crime et retirent les vidéos à caractère sexuel, qui promeuvent l’ultraviolence.

M. Paul Midy, rapporteur général. Je salue l’engagement de Mme Riotton sur cette question. Dans cet objectif, nous avons notamment fait adopter mon amendement comportant une demande de rapport sur l’élargissement de la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (Pharos), pour que le Gouvernement rende compte de sa capacité à être opérationnel sur ces questions. C’est une première étape, mais nous serions ravis d’avancer ensemble d’ici à l’examen en séance. Demande de retrait.

L’amendement est retiré.

Amendement CS583 de Mme Véronique Riotton

Mme Céline Calvez (RE). Des millions de vidéos diffusées sur les sites pornographiques font l’apologie de la pédocriminalité. Pendant trop longtemps, nous avons détourné les yeux face à un contenu qui normalise les crimes de pédocriminalité et les autres formes de violence sexuelle sur mineurs, voire y incite, en les simulant. Combien faudra-t-il de Camille Kouchner, de Christine Angot ou d’Emmanuelle Béart pour arrêter de tolérer la diffusion de vidéos qui mettent en scène l’inceste ?

L’amendement vise à interdire à l’ensemble des hébergeurs – réseaux sociaux, applications, sites internet, sites pornographiques – la diffusion de contenus simulant des rapports sexuels avec des personnes présentées comme mineures, en s’appuyant sur les titres, métadonnées, descriptifs et autres mots-clés qui accompagnent le contenu de la vidéo.

M. Paul Midy, rapporteur général. Je salue à nouveau votre combat et celui de votre collègue Riotton. Pour les mêmes raisons que le précédent, je vous demande de retirer cet amendement ; à défaut, avis défavorable.

L’amendement est retiré.

Amendement CS800 de M. Christopher Weissberg

M. Christopher Weissberg (RE). L’amendement vise à imposer aux plateformes de signaler à leurs utilisateurs les contenus que publient des entités sanctionnées par l’Union européenne. Certaines plateformes comme TikTok informent déjà les utilisateurs des médias bannis par l’Union européenne.

M. Paul Midy, rapporteur général. Je vous remercie pour votre amendement ainsi que pour votre rapport sur cette question. L’esprit de cet amendement est satisfait par l’article 4. Demande de retrait.

L’amendement est retiré.

Amendement CS906 de Mme Louise Morel

Mme Louise Morel (Dem). Cet amendement d’appel concerne les réseaux privés virtuels (VPN), une question fréquemment abordée lors des auditions.

Je ne suis pas contre les VPN et je reconnais leur rôle pour garantir l’anonymat. En tant que rapporteure des titres Ier et II, qui comportent de réelles avancées, je m’interroge sur leur usage dans l’environnement numérique et j’aurais aimé vous entendre sur ce point. Je propose de conditionner l’utilisation des techniques VPN à un dispositif de contrôle d’âge au départ, afin de filtrer l’accès à certains sites pour les mineurs.

M. Paul Midy, rapporteur général. Nous avons beaucoup parlé des VPN à l’occasion de nos travaux sur les titres Ier et II. Un amendement peu clair a été déposé sur la question mais personne dans notre assemblée n’a voulu les interdire. Le problème est difficile à traiter à ce stade, c’est pourquoi je vous suggère de retirer votre amendement.

Mme Louise Morel (Dem). Je laisse à mes collègues le soin de réfléchir d’ici à la séance. Nous aurons l’occasion d’en rediscuter. À ce stade, je retire mon amendement.

L’amendement est retiré.

Amendement CS807 de Mme Fabienne Colboc

Mme Violette Spillebout (RE). Comme l’Arcom le préconise dans son rapport de juillet 2023 sur la lutte contre la diffusion de contenus haineux en ligne, cet amendement vise à ce que les services des réseaux sociaux précisent clairement au sein des conditions générales de service ce que recouvrent les contenus et les comportements proscrits par le droit national et les règles des opérateurs, notamment l’interdiction des incitations à la haine et des comportements de harcèlement en ligne. Cette mesure permettrait de garantir que les utilisateurs de réseaux sociaux soient clairement informés des limites à ne pas franchir. L’amendement contribue ainsi à renforcer le rôle des réseaux sociaux en tant qu’acteurs responsables de la régulation de leurs propres espaces.

M. Paul Midy, rapporteur général. Je vous remercie de soulever cette question. Je sais que vous travaillez beaucoup sur ces problématiques, notamment sur la diffusion de fausses nouvelles et de contre-vérités dans les médias et les réseaux sociaux. Votre intention est louable.

La rédaction de l’amendement pose toutefois un problème. En outre, il est en partie satisfait. C’est pourquoi je vous propose de le retirer. Sinon, j’émettrai un avis défavorable, de façon à le retravailler d’ici à l’examen en séance.

L’amendement est retiré.

Article 23 : Dispositions relatives au retrait des contenus terroristes et pédopornographiques

Amendement rédactionnel CS930 de M. Paul Midy, rapporteur général

Mme Sophia Chikirou (LFI-NUPES). Il est dommage que l’amendement CS906 de Mme Morel ait été retiré car nous aurions voté contre. L’identification au démarrage du VPN signerait la fin de l’anonymat : quid alors des lanceurs d’alerte, de la police, de la gendarmerie et des signaleurs de confiance ? Le principe du VPN, c’est l’anonymat : il n’y a donc pas de vérification au départ.

L’amendement CS807 de Mme Colboc, en revanche, est une avancée, celle de renvoyer aux réseaux sociaux la charge de publier ce qui est permis ou non, dans chaque pays.

Quant à l’amendement rédactionnel CS930, je m’abstiendrai.

La commission adopte l’amendement.

Elle adopte l’article 23 modifié.

Article 24 : Dispositions relatives au retrait judiciaire des contenus illicites et aux obligations des opérateurs de plateforme en ligne

La commission adopte successivement les amendements rédactionnels CS938, CS939 et CS940 de M. Paul Midy, rapporteur général.

Amendement CS116 de Mme Violette Spillebout

Mme Violette Spillebout (RE). Par cette loi, nous voulons protéger les citoyens des arnaques et empêcher les actions illégales dans l’espace numérique. Or, selon le Baromètre 2022 de la consommation des biens culturels dématérialisés de l’Arcom, plus d’un quart des internautes pirates accèdent à des retransmissions sportives illicites diffusées par les réseaux sociaux. Les titulaires de droits antipiratage qu’ils mandatent notifient aux plateformes les publications et contenus non autorisés, pour qu’ils soient retirés le plus rapidement possible. Toutefois, ces notifications sont traitées dans les vingt-quatre heures, un délai insuffisant pour les retransmissions illégales.

Il est essentiel que les acteurs visés bénéficient du statut de signaleur de confiance créé par le règlement sur les services numériques, afin que leurs notifications soient traitées dans les plus brefs délais. Les comptes diffusant des retransmissions sportives pirates retransmettent aussi souvent des arnaques ainsi que des contenus pornographiques illégaux ou violents : ils représentent des menaces systémiques pour le consommateur.

M. Paul Midy, rapporteur général. Je vous remercie pour votre travail sur cette question. L’avis sera évidemment favorable.

M. Jean-François Coulomme (LFI-NUPES). L’amendement part d’une bonne intention mais nous n’avons déjà pas les moyens de faire cesser des harcèlements ou des contenus qui contreviennent à la loi en temps réel – nous avons discuté dans les premiers articles des délais nécessaires pour faire appliquer des décisions de suspension ou de mise en garde. Du fait de ce manque de moyens, l’objectif de suspendre des retransmissions sportives en temps réel est inatteignable. Quand bien même il le serait, la priorité est davantage de protéger les enfants ou les victimes des violences que de faire respecter les droits des chaînes.

La commission adopte l’amendement.

Elle adopte l’article 24 modifié.

Article 25 : Adaptation de la loi du 21 juin 2004 pour la confiance dans l’économie numérique et désignation de l’Arcom en tant que coordinateur national pour les services numériques pour la France

La commission adopte l’amendement rédactionnel CS802 de M. Paul Midy, rapporteur général.

Amendements CS840 de M. Paul Midy et CS270 de M. Aurélien Lopez-Liguori (discussion commune)

M. Aurélien Lopez-Liguori (RN). Trois autorités sont compétentes pour appliquer le DSA : l’Arcom, la Cnil et la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF). Afin d’assurer la lisibilité du dispositif, nous proposons qu’elles puissent élaborer des recommandations communes.

M. Paul Midy, rapporteur général. Demande de retrait ; à défaut, avis défavorable. Par principe, les conventions doivent rester souples et aux mains des régulateurs, et ne pas figurer dans la loi. Sans cela, il serait inutile de laisser au régulateur la possibilité de s’organiser par cette voie.

La commission adopte l’amendement CS840.

En conséquence, l’amendement CS270 tombe.

Amendement CS936 de M. Paul Midy.

M. Paul Midy, rapporteur général. Cet amendement doit permettre la bonne coordination des différentes autorités compétentes pour appliquer le DSA, en particulier dans les cas susceptibles de créer des distorsions de concurrence.

La commission adopte l’amendement.

Elle adopte l’amendement rédactionnel CS803 de M. Paul Midy, rapporteur général.

Amendement CS271 de M. Aurélien Lopez-Liguori

M. Aurélien Lopez-Liguori (RN). Nous proposons que la liste des signaleurs de confiance, que publiera le coordinateur pour les services numériques, fasse l’objet d’un débat au Parlement, une fois par an en cas de mise à jour. Il s’agit de garantir la transparence autour des acteurs car certaines associations sont politiques : on doit débattre pour déterminer si elles ont leur place dans la liste.

M. Paul Midy, rapporteur général. Nous entendons l’esprit de l’amendement mais il pose un problème technique. On ne peut pas imposer un tel débat dans le cadre d’une loi ordinaire : le Parlement est souverain dans l’établissement de son ordre du jour.

La commission rejette l’amendement.

Amendements CS653, CS656 et CS657 de Mme Céline Calvez (discussion commune)

Mme Céline Calvez (RE). Le coordinateur pour les services numériques sera chargé de recevoir de nombreuses informations des fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche.

Pour plus de transparence, le premier amendement tend à instituer une analyse annuelle des rapports de transparence, qui sera présentée au Parlement.

Il faut aussi clarifier les contenus et données que l’on exigera de ces plateformes. Pour cela, le rapport devra détailler les algorithmes ; leurs effets attendus et constatés ; les mesures prises par les opérateurs pour garantir la diversité et la pluralité des contenus ; et la façon d’éviter les nombreux biais potentiels, concernant notamment la lutte contre la discrimination, la désinformation ou la polarisation.

Les deux autres amendements reprennent séparément chacun de ces deux axes.

M. Paul Midy, rapporteur général. Nous avons beaucoup travaillé sur ces questions, qui ont été débattues à de nombreuses reprises. Je salue votre engagement sur la transparence des algorithmes et l’impact qu’ils peuvent avoir sur la vie de nos concitoyens.

Malheureusement, les amendements posent des questions d’inconventionnalité. C’est pourquoi je vous propose de les retirer. À défaut, j’y serai défavorable.

Mme Céline Calvez (RE). En quoi demander un rapport à l’Arcom serait-il inconventionnel ?

M. Paul Midy, rapporteur général. Les amendements ne contiennent pas que cette demande. Je vous invite à les retravailler.

Les amendements sont retirés.

La commission adopte successivement les amendements rédactionnels CS806, CS808, CS809, CS811, CS813, CS816 et CS818 de M. Paul Midy, rapporteur général.

Amendement de précision CS357 de M. André Chassaigne

Mme Soumya Bourouaha (GDR-NUPES). L’amendement vise à préciser les voies de recours. Le renforcement des pouvoirs de l’Arcom, qui a vocation à devenir le coordinateur national pour les services numériques, impose de nous assurer de l’existence d’un recours tant administratif que judiciaire.

M. Paul Midy, rapporteur général. L’amendement restreint la possibilité des voies de recours. Je propose de conserver les dispositions du texte, selon lesquelles les voies de recours seront précisées par un décret en Conseil d’État.

Demande de retrait, sinon avis défavorable.

La commission rejette l’amendement.

La commission adopte successivement les amendements rédactionnels CS823, CS824, CS825, CS826, CS828, CS829 et CS830 de M. Paul Midy, rapporteur général.

Amendement CS329 de Mme Emeline K/Bidi

Mme Soumya Bourouaha (GDR-NUPES). Compte tenu des pouvoirs étendus confiés à l’Arcom, il est indispensable d’assurer une mission de contrôle et de suivi de ses activités par la présentation annuelle d’un rapport d’activité.

M. Paul Midy, rapporteur général. Nous sommes d’accord avec cet objectif mais l’amendement est satisfait. Demande de retrait.

L’amendement est retiré.

La commission adopte l’article 25 modifié.

Après l’article 25

Amendement CS278 de M. Jean-Claude Raux

M. Aurélien Taché (Écolo-NUPES). Sur des questions aussi importantes que la protection des données individuelles, la liberté numérique ou la transparence des algorithmes, le débat mérite d’être plus long et détaillé. Je réserve donc mes arguments pour la séance.

Suivant l’avis du rapporteur général, la commission rejette l’amendement.

Amendement CS337 de Mme Emeline K/Bidi

Mme Soumya Bourouaha (GDR-NUPES). L’amendement alerte sur la nécessité de renforcer les moyens humains et financiers de l’Arcom, au vu de toutes les missions qui lui seront confiées. À l’instar de l’exercice précédent, où ses effectifs avaient augmenté, l’Arcom doit voir ses moyens s’accroître. Dans ce sens, un rapport est utile, pour mesurer les nouveaux besoins et les satisfaire.

M. Paul Midy, rapporteur général. Satisfait. Demande de retrait.

La commission rejette l’amendement.

Chapitre II
Modification du code de la consommation

Article 26 : Mise en cohérence du code de la consommation avec le règlement européen sur les services numériques (RSN)

Suivant l’avis du rapporteur général, la commission rejette l’amendement CS169 de Mme Lisa Belluco.

Amendements CS210 de M. Aurélien Taché et CS127 de Mme Lisa Belluco (discussion commune)

M. Aurélien Taché (Écolo-NUPES). Le débat sur les libertés numériques, qui me tient beaucoup à cœur, n’est pas encore mûr. Nous en parlerons en séance publique.

M. Paul Midy, rapporteur général. Je demande le retrait des amendements ; à défaut, avis défavorable.

Mme Ségolène Amiot (LFI-NUPES). Ces amendements sont très pertinents : leur adoption permettrait de mieux informer les internautes du rôle des algorithmes, qui déterminent les contenus dont ils ont connaissance, et d’éviter les doubles peines pour les victimes de harcèlement en ligne puisqu’elles pourraient récupérer l’ensemble de leurs données.

La commission rejette successivement les amendements.

Amendement CS747 de M. Christophe Blanchet

M. Paul Midy, rapporteur général. Je demande le retrait de l’amendement, qui touche à un sujet important et intéressant, mais qui risque de conduire à une surtransposition du DSA.

Mme Louise Morel (Dem). Je maintiens l’amendement, que beaucoup de mes collègues ont signé.

Mme Ségolène Amiot (LFI-NUPES). Imposer aux plateformes l’obligation de publier des formulaires de signalement de contenu illicite me paraît le minimum. Les moyens des équipes de Pharos et de la Cnil sont modestes, donc celles-ci ont besoin des signalements des internautes.

M. Paul Midy, rapporteur général. C’est une excellente idée, que je soutiens pleinement ; néanmoins je vous renvoie à la séance publique pour discuter de sa relation avec le DSA, puis aux élections européennes où nous pourrons défendre l’opportunité de l’insérer dans le règlement DSA 2.

La commission rejette l’amendement.

Elle adopte l’article 26 non modifié.

Chapitre III
Modification du code du commerce

Article 27 : Adaptation du code de commerce au règlement européen sur les marchés numériques

La commission adopte l’article 27 non modifié.

Chapitre IV
Mesures d’adaptation de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication

Article 28 : Adaptations de la loi du 30 septembre 1986 relative à la liberté de communication au règlement (UE) 2022/2065 du 19 octobre 2022 relatif à un marché unique des services numériques

La commission adopte successivement l’amendement rédactionnel CS831, les amendements de précision CS833 et CS835 ainsi que l’amendement rédactionnel CS834 de M. Paul Midy, rapporteur général.

Ella adopte l’article 28 modifié.

Chapitre V
Mesures d’adaptation de la loi relative à la lutte contre la
manipulation de l’information

Article 29 : Abrogation de trois dispositifs de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information

Amendement CS839 de M. Paul Midy

Mme Sophia Chikirou (LFI-NUPES). Nous sommes vent debout contre cet amendement qui, en supprimant l’obligation pour les plateformes de rendre leur algorithme transparent, allégera leur devoir de lutte contre la désinformation. Vous choisissez de transposer une version moins-disante du droit de l’Union européenne.

M. Jean-Noël Barrot, ministre délégué. Le règlement sur les services numériques change le paysage en ce qu’il crée pour les grandes plateformes une nouvelle obligation, celle d’analyser et de corriger le risque systémique qu’elles font peser sur le discours civique. Elles auront l’obligation de lutter activement contre la désinformation, sans quoi leur responsabilité pourra être engagée, quel que soit leur lieu d’implantation. Cette évolution est inédite, une telle disposition n’existant dans aucun droit national.

Mme Sophia Chikirou (LFI-NUPES). S’il n’y a pas d’obligation de transparence de l’algorithme sur ce type de contenu, des dérives seront possibles. Une plateforme pourra sanctionner, censurer ou moins valoriser des propos qui ne lui conviennent pas, par exemple des discours de gauche ou, pire, des plaidoyers pour l’accès au droit à l’avortement. Pourquoi revenir sur l’une des avancées qui a été obtenue ?

M. Paul Midy, rapporteur général. Rassurez-vous, l’amendement met simplement la rédaction du texte en cohérence avec le DSA ; il conserve évidemment les avancées du DSA sur la transparence des algorithmes et sur l’accès des chercheurs aux données essentielles des interfaces. L’amendement est presque de nature rédactionnelle.

M. Jean-Noël Barrot, ministre délégué. Le règlement sur les services permet d’avancer considérablement sur la responsabilité des plateformes dans la lutte contre la propagation de fausses nouvelles et de former tous les recours contre ceux qui s’estiment lésés par des décisions de suspension de compte. Nous remplaçons la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information par ce cadre plus ambitieux.

La commission adopte l’amendement et l’article 29 est ainsi rédigé.

Chapitre VI
Mesures d’adaptation du code électoral

Article 30 : Rehaussement du seuil de connexions à partir duquel s’applique l’obligation, en période électorale, de tenue par les opérateurs de plateforme en ligne d’un registre public assurant la transparence sur les commanditaires de la publicité en ligne

La commission adopte l’article 30 non modifié.

Chapitre VII
Mesures d’adaptation de la loi n° 78-17 du 6 janvier 1978 relative à
l’informatique, aux fichiers et aux libertés

Article 31 : Adaptations de la loi « informatique et libertés » au règlement européen portant sur la gouvernance européenne des données

La commission adopte successivement les amendements rédactionnels CS612 et CS613 de M. Paul Midy, rapporteur général.

La commission adopte l’article 31 modifié.

Après l’article 31

Amendement CS494 de M. Marc Ferracci

M. Marc Ferracci (RE). Cet amendement a vocation à permettre un meilleur accès aux données des administrations pour toutes les personnes souhaitant exploiter ces éléments à des fins de recherche, d’évaluation des politiques publiques ou d’innovation.

Des données sont actuellement accessibles dans le cadre sécurisé du Centre d’accès sécurisé aux données (CASD), duquel les données ne sont pas extractibles pour ne pas être exploitées à des fins malveillantes. Actuellement, les administrations peuvent toujours refuser l’accès aux données, même en cas d’avis positif du comité du secret statistique. Nous souhaitons qu’un refus oblige les administrations à toujours demander l’avis de ce comité et à le suivre.

Le potentiel d’exploitation de ces données n’est plus à démontrer : en croisant des données d’emploi, d’éducation ou de logement, il est possible d’obtenir une vision plus éclairée et transparente de l’efficacité de nos politiques publiques. Voilà pourquoi nous voulons promouvoir l’accès à ces données.

M. Paul Midy, rapporteur général. Je vous remercie beaucoup, cher collègue, pour votre engagement sur l’important sujet de la transparence des données et des moyens accordés aux chercheurs pour faire avancer leurs travaux. Nous partageons le même objectif, pour lequel un gros travail a déjà été fourni. Il en reste à accomplir avec quelques entités d’ici à l’examen en séance ; en attendant, je vous demande de retirer l’amendement.

M. Jean-Noël Barrot, ministre délégué. Je salue cette démarche très importante, à laquelle celles et ceux, comme Marc Ferracci et moi-même, qui ont commencé à faire de la recherche et de l’évaluation des politiques publiques avant de s’engager en politique ne manqueront pas d’être sensibles. Une fois qu’un dispositif robuste aura été finalisé – je m’engage à y parvenir d’ici à la discussion en séance –, les possibilités d’évaluation des politiques publiques seront considérablement élargies ; on ne peut concevoir de bonnes politiques publiques sans les évaluer : c’est la raison pour laquelle vous pouvez compter sur tout mon soutien pour faire aboutir cette démarche.

L’amendement est retiré.

Article 32 : Adaptations de la loi « informatique et libertés » au règlement européen sur les services numériques

Amendement CS827 de Mme Clara Chassaniol

Mme Clara Chassaniol (RE). L’amendement vise à réintroduire la possibilité de calculer le montant de l’astreinte journalière que peut imposer l’autorité de contrôle à un fournisseur de plateforme en ligne en fonction de ses revenus. Le Sénat a retiré cette disposition que nous souhaitons réinsérer dans le texte, afin de combler un vide juridique attaché au cas où un fournisseur n’aurait pas la forme juridique d’une entreprise.

M. Paul Midy, rapporteur général. Je suis favorable à cette excellente idée.

La commission adopte l’amendement.

Elle adopte l’amendement rédactionnel CS614 de M. Paul Midy, rapporteur général.

Amendement CS470 de Mme Ségolène Amiot

Mme Ségolène Amiot (LFI-NUPES). Cet amendement vise à augmenter les sanctions en cas de manquement susceptible d’engendrer un risque élevé pour les droits et les libertés des personnes. Il s’agit d’une disposition du paragraphe 4 de l’article 52 du DSA.

M. Paul Midy, rapporteur général. Excellente idée, avis favorable.

La commission adopte l’amendement.

Elle adopte l’article 32 modifié.

 

Chapitre VIII
Mesures d’adaptation de la loi n° 47-585 du 2 avril 1947 relative au statut des entreprises du groupage et de distribution des journaux et publications périodiques

Article 33 : Adaptations de la loi du 2 avril 1947 relative au statut des entreprises du groupage et de distribution des journaux et publications périodiques

La commission adopte l’amendement de coordination CS836 de M. Paul Midy, rapporteur général.

Elle adopte l’article 33 modifié.

Chapitre IX
Mesures d’adaptation de la loi n° 2017-261 du 1er mars 2017 visant à préserver l’éthique du sport, à renforcer la régulation et la transparence du sport professionnel et à améliorer la compétitivité des clubs, du code de la propriété intellectuelle, de la loi  2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique et du code pénal

Article 34 : Adaptations de la loi du 1er mars 2017 visant à préserver l’éthique du sport, du code de la propriété intellectuelle, de la loi du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles et du code pénal

La commission adopte l’amendement rédactionnel CS837 de M. Paul Midy, rapporteur général.

Elle adopte l’article 34 modifié.

Chapitre X
Dispositions transitoires et finales

Article 35 : Habilitation à légiférer par ordonnance pour l’application dans les territoires ultramarins du projet de loi et de plusieurs règlements européens

Amendement de suppression CS471 de M. Jean-François Coulomme

M. Jean-François Coulomme (LFI-NUPES). Comme nous défendons la légitimité du travail parlementaire – cette conviction est partagée, j’en suis sûr, bien au-delà des rangs de la NUPES –, nous refusons d’habiliter le Gouvernement à légiférer par ordonnance, à plus forte raison pour des dispositions concernant les territoires ultramarins, que le Gouvernement traite différemment de la métropole : il est grand temps que les lois et l’action administrative soient les mêmes dans tout le pays. L’amendement vise donc à supprimer l’article pour que le droit commun s’applique à tous.

M. Paul Midy, rapporteur général. En supprimant l’article vous excluriez les territoires ultramarins des apports de la réglementation européenne. L’avis est défavorable.

M. Jean-Noël Barrot, ministre délégué. Même avis.

M. Andy Kerbrat (LFI-NUPES). Nous redéposerons à chaque fois ce type d’amendement pour montrer notre opposition à l’habilitation de légiférer par ordonnance. Nous en avons tristement l’habitude en commission des lois : les dispositions législatives portant sur les territoires ultramarins appellent systématiquement, dans l’esprit du Gouvernement, le choix des ordonnances.

Depuis six ans, nos collègues ultramarins se sentent méprisés en voyant le sort de leurs territoires toujours réglé par ordonnances. Ils ont ainsi l’impression d’être exclus du débat politique national.

M. Paul Midy, rapporteur général. Le débat est intéressant, mais nous avons choisi ce véhicule pour des raisons d’efficacité pour nos compatriotes d’outre-mer.

La commission rejette l’amendement.

Elle adopte l’article 35 non modifié.

Article 36 : Dispositions d’entrée en vigueur

Amendement CS838 de M. Paul Midy

M. Paul Midy, rapporteur général. Cet amendement vise à s’assurer de la cohérence de l’entrée en vigueur de l’article 2 bis.

La commission adopte l’amendement.

Amendement CS954 de Mme Louise Morel

Mme Louise Morel (Dem). Mon amendement vise à ce que les dispositions de l’article 6 modifiées par l’adoption de l’amendement CS630 n’entrent en vigueur que le 1er janvier 2025.

M. Paul Midy, rapporteur général. Publier la liste des sites filtrés par le dispositif anti-arnaque est une très bonne idée. Avis favorable.

La commission adopte l’amendement.

Elle adopte l’article 36 modifié.

La commission adopte l’ensemble du projet de loi modifié.

M. Jean-Noël Barrot, ministre délégué. Je remercie le rapporteur général et les rapporteurs thématiques pour leur travail, ainsi que les députés de la commission spéciale pour la qualité de nos échanges. Nous avons beaucoup à faire d’ici à la discussion en séance, notamment sur la question du référentiel.

M. Paul Midy, rapporteur général. Je remercie le président de la commission spéciale pour cette semaine de débats.

M. le président Luc Lamirault. À mon tour de tous vous remercier pour le débat serein et studieux que nous avons eu. Je vous donne rendez-vous en séance publique à partir du mercredi 4 octobre.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


—  1  —

   LISTE DES Personnes AUDITIONNÉES PAR LES RAPPORTEURS DE LA COMMISSION SPÉCIALE

   M. Thierry-Xavier Girardot, secrétaire général

   M. Christophe Soulard, premier président

   M. Rémy Heitz, procureur général

   Mme Audrey Prodhomme, secrétaire générale du parquet général

   Mme Estelle Jond-Necand, secrétaire générale adjointe de la première présidence

   Mme Maïa Wirgin, secrétaire générale

   Mme Marie Dussol, directrice des affaires juridiques

Airbnb *

   M. Auxence Moulin, responsable des affaires publiques

Booking.com *

   M. Alexis Darmois, directeur des affaires publiques

Expedia *

   M. Philippe Bauer, directeur des relations institutionnelles

Association des maires de France (AMF)

   M. Alain Chrétien, vice-président de l’AMF, maire de Vesoul et président de l’agglomération de Vesoul

   Mme Annick Pillevesse, responsable du service juridique

   M. Assane Fall, conseiller technique au département conseil juridique et documentation

Association nationale des élus des territoires touristiques (ANETT)

   Mme Géraldine Leduc, directrice générale

Union nationale des propriétaires immobiliers (UNPI) *

   M. Alexis Thomasson, secrétaire général

Union nationale pour la promotion de la location de vacances (UNPLV) *

   M. Dominique Debuire, président

   M. Philippe Bauer, vice-président

   Mme Angeline Charbonnier, directrice du pôle affaires publiques

UFC-Que choisir

   M. Frithjof Michaelsen, chargé de mission numérique

Association Force ouvrière consommateurs (AFOC)

   M. David Rousset, secrétaire général

Union nationale des associations familiales (UNAF)

   M. Olivier Gérard, coordonnateur du pôle « médias – usages numériques »

Observatoire de la parentalité et de l’éducation numérique (OPEN) *

   M. Thomas Rohmer, fondateur et directeur

Conseil français des associations pour les droits de l’enfant (COFRADE)

   M. Arthur Melon, délégué général

   M. Ian Brossat, adjoint à la maire de Paris en charge du logement

   Mme Barbara Fuseau, conseillère de cabinet, ville de Paris

   Mme Sophia Popoff, conseillère municipale de Lyon déléguée au logement

Union des métiers et des industries de l’hôtellerie (UMIH) *

   M. Éric Abihssira, vice-président

   Mme Véronique Siegel, présidente de la branche Hôtellerie

Groupement des hôtelleries et restaurations de France (GHR)

   Mme Fabienne Ardouin, présidente de la commission Europe et numérique

   M. Franck Trouet, délégué général

 

   M. Jérôme Notin, directeur général

   Mme Sylvie Pierre-Brossolette, présidente

   Mme Paola Bergs, secrétaire générale

   Mme Héloïse Lenfant, chargée de mission

Numeum *

   M. Michel Combot, délégué général

   Mme Marine Gossa, déléguée aux affaires publiques

Alliance Digitale (AD)

   M. Pierre Devoize, directeur général adjoint

   M. Camiel Estany, conseil en communication et affaires publiques

Fédération du e-commerce et de la vente à distance (FEVAD) *

   M. Marc Lolivier, délégué général

   Mme Erika Klein, juriste

France Digitale *

   Mme Marianne Tordeux Bitker, directrice des affaires publiques

   Mme Agata Hidalgo, responsable des affaires publiques européennes

Alliance française des places de marché (AFPDM)

   Mme Charlotte Cheynard, présidente

   M. Pierre Sellin, conseil

Mouvement des entreprises de France (MEDEF) *

   M. Alexis Kasbarian, responsable du pôle transition numérique et innovation

   Mme Maxence Demerlé, directrice du numérique

   Mme Fadoua Qachri, chargée de mission senior à la direction des affaires publiques

 

 

 

 

MindGeek – Aylo

   Mme Sarah Bain, associée, vice-présidente de l’engagement public

   M. Solomon Friedman, associé, vice-président conformité chez Ethical Capital Partners.

   M. Matt Kilicci, vice-président, confiance et sécurité, paiement et risque de Aylo

   M. Anthony Penhale chef des affaires juridiques de Aylo

Groupe Marc Dorcel

   M. Grégory Dorcel, directeur général

   Mme Camille Clouvel, chargée de la RSE et de la communication

   Mme Sophie Macquart-Moulin, adjointe au directeur

   Monsieur Thibault Cayssials, chef du bureau de la législation pénale spécialisée

Meta (Facebook) *

   Mme Capucine Tuffier, responsable affaires publiques France

   Mme Beatrice Oeuvrard, responsable affaires publiques France

   Mme Elisa Borry-Estrade, responsable affaires publiques France

X (ex-Twitter) *

   Mme Claire Dilé, directrice des affaires publiques France

YouTube

   M. Thibault Guiroy, directeur des affaires publiques France

   M. Arnaud Vergnes, responsable relations institutionnelles, Google

Snapchat

   Mme Sarah Bouchahoua, responsable des affaires publiques France

TikTok *

   M. Eric Garandeau, directeur des relations institutionnelles et des affaires publiques France

   Mme Sarah Khemis, responsable des relations institutionnelles et des affaires publiques France

 

MYM

   M. Gauthier Lapeyronnie, directeur marketing

   M. Paul Benelli, directeur juridique

   M. Nicolas Deffieux, directeur

   M. Lucas Verney, directeur adjoint

Google Chrome (Google) *

   M. Olivier Esper, directeur des relations institutionnelles et réglementaires de Google

Apple Safari (Apple) *

   Mme Julie Lavet, responsable affaires publiques France et Benelux

Mozilla Firefox

   M. Sylvestre Ledru, responsable Mozilla pour la France

   M. Tasos Stampelos, Public Policy & Government Relations

   M. Jean Cattan, secrétaire général

   M. Roch-Olivier Maistre, président

   Mme Justine Boniface directrice de cabinet

   M. Guillaume Blanchot, directeur général

   M. César Boyer, collaborateur

   Mme Marie-Laure Denis, présidente

   M. Thomas Dautieu, directeur de l’accompagnement juridique

   M. Bertrand Pailhès, directeur des technologies et de l’innovation

   Mme Chirine Berrichi conseillère pour les questions parlementaires et institutionnelles

   M. Loïc Duflot, chef du service de l’économie numérique

   Mme Chantal Rubin, cheffe du pôle régulation des plateformes numériques

   M. Adrien Laroche, directeur de projets économie de la donnée

   M. Damien Caillou, chef de projet pôle régulation des plateformes numériques

   Mme Camille Mosser, cheffe de projet spécialisée dans le numérique (data et IA)

   Mme Cécile Augeraud, commissaire divisionnaire, adjointe au sous-directeur de la lutte contre la cybercriminalité (SDLC) et cheffe de l’OCLCTIC

   Mme Alice Joiran, commissaire de police, cheffe du pôle détection

   Mme Clara Timsit, conseillère juridique

   Lieutenant-colonel Christophe Lambert, chef du département Signal Image Parole (SIP)

   Mme Annie Prévot, directrice

   M. Jean-Baptiste Lapeyrie, directeur de projets à la délégation ministérielle au numérique en santé (DNS)

   M. Raphaël Beaufret, coresponsable de la DNS

   M. Rivière Loïc, président Hindsight

   M. Alban Schmutz, consultant, membre du conseil d’administration d’Eurocloud

   Mme Nadine Mouy, sous directrice du numérique

   Mme Hélène Bonnet, adjointe au bureau des médias, communications électroniques, culturel, économie de la donnée

   Mme Bulle, chef du bureau juridique

   Mme Lefort, adjointe au bureau du droit de la consommation

 

 

Syndicat des éditeurs de logiciels de loisirs (SELL)

   M. Nicolas Vignolles, délégué général

   M. Benjamin Niang, responsable affaires publiques et Europe

Syndicat national du jeu vidéo (SNJV) *

   Mme Anne Dévouassoux, présidente

   M. Julien Villedieu, délégué général

   M. Lévan Sardjevéladzé, vice-président affaires publiques 

   Mme Vanessa Kaplan, directrice des opérations

Ubisoft *

   M. Emmanuel Martin, vice-président affaires corporatives

   M. Guillaume Tormo, vice-président associate general counsel

Association française des jeux en ligne (AFJEL) *

   Mme Isabelle Djian, déléguée générale

   M. Adrien Julian, président du groupe de travail « Lutte contre le jeu illégal »

Française des jeux (FDJ) *

   Mme Marion Hugé, directrice de la régulation et des affaires publiques

   M. Jean-Baptiste Maupas Oudinot, directeur de l’ABU divertissement

Betclic

   Mme Audrey Herblin-Stoop, directrice de la communication externe et des affaires publiques

Association pour le développement des actifs numériques (ADAN) *

   Mme Faustine Fleuret, présidente et directrice générale

Fédération française des professionnels de la blockchain (FFPB) *

   M. Rémy André Ozcan, président

Sorare *

   Mme Gabrielle Dorais, directrice juridique

   Mme Jennifer d’Hoir, directrice politiques publiques

   M. Julien Vaulpré, conseil

 

Pari mutuel urbain (PMU) *

   M. Constantin Garreau, directeur de l’innovation

   M. Benoît Coeuré, président

   M. Yann Guthmann, chef du service de l’économie numérique

   Mme Laure Martin-Tervonen, directrice de la marque et des affaires publiques

   M. Giuliano Ippoliti, directeur de la conformité

Google Cloud (Google) *

   M. Frédéric Geraud, directeur des politiques publiques

   M. Benoit Tabaka, directeur des relations institutionnelles 

Amazon Web Services (AWS) *

   M. Stéphan Hadinger, directeur de la technologie

   Mme Charlotte Baylac, chargée des affaires publiques

Microsoft *

   M. Anton Carniaux, directeur des affaires publiques et juridiques

   Me Jean-Sébastien Mariez, associé

Huawei Cloud (Huawei Technologies France) *

   M. Minggang Zhang, directeur général adjoint

   M. Benjamin Hecker, directeur du service juridique

   Mme Laure Penin de la Raudière, présidente

   Mme Cécile Dubarry, directrice générale

   Mme Virginie Mathot de Raincourt, conseillère de la présidente

   Mme Léa Ployaert, cheffe de l’unité « marché mobile et ressources rares » au sein de la direction des affaires juridiques

 

   M. Francisco Mingorance, secrétaire général

   M. Alban Schmutz, directeur indépendant

   M. Daniel Le Coguic, président

   M. Yoann Kassianides, délégué général

OVHcloud (OVH) *

   Mme Solange Viegas Dos Reis, directrice juridique et membre du comité exécutif

   Mme Anne Duboscq, directrice des affaires publiques

Docaposte *

   M. Guillaume Poupard, directeur général adjoint

   Mme Smara Lungu, directrice stratégie, marketing et relations institutionnelles

NumSpot

   M. Alain Issarni, président

Euclidia

   Dr Jean-Paul Smets, vice-président

Outscale

   M. Grégory Abate, secrétaire général adjoint de Dassault Systèmes

   M. David Chassan, directeur de la stratégie

Scaleway *

   M. Damien Lucas, directeur général

   M. Lucas Buthion, responsable affaires publiques du groupe Iliad

   M. Alexandre Grosse, chef de service, adjoint de la directrice

   Mme Isabelle Falque-Pierrotin, présidente

   M. Rémi Lataste, directeur général

 

 

   M. Jean-Claude Laroche, président

   M. Henri d’Agrain, délégué général

   M. Aymeric Bourdin, chargé de mission

   M. Grégory Weill, vice-procureur, chef du PNLH

Ligue des droits de l’Homme (LDH) *

   Mme Maryse Artiguelong, membre du bureau national, responsable du groupe de travail « libertés et numérique »

   Mme Evelyne Sire-Marin, membre du bureau national, ex-présidente de la 15e chambre correctionnelle spécialisée sur la pédopornographie

La Quadrature du Net *

   Mme Marne Strazielle, directrice de la communication

   Mme Noémie Levain, juriste

   M. Bastien Le Querrec, juriste

   Mme Rachel-Flore Pardo, co-fondatrice et co-présidente

   Mme Lisa Gauvin-Drillaud, co-fondatrice

   Mme Hana Outaik, co-fondatrice

Fédération française des télécoms (FFTélécoms) *

   M. Olivier Riffard, directeur général adjoint

Altice-SFR *

   Mme Alix de Montesquieu, chargée des affaires publiques

Orange *

   Mme Carole Gay, responsable des affaires publiques

Bouygues Telecom *

   M. Corentin Durand, directeur des affaires publiques

 

Iliad Free *

   M. Lucas Buthion, responsable des affaires publiques

Association internationale de gouvernance du cachet électronique visible (AIGCEV)

   M. Gilles Barré, président

   M. Yves Le Querrec, secrétaire général

Docaposte *

   Mme Smara Lungu, directrice stratégie, marketing et relations institutionnelles

   Mme Candice Dauge, directrice de l’identité numérique La Poste

GreenBadg

   M. Jacky Lamraoui, président et fondateur

Crime Science Technology (CST)

   M. Cosimo Prete, président et fondateur

   Mme Anne-Gaëlle Baudouin, directrice

   M. Florent Tournois, directeur de projet France identité

   M. Pierre Orszag, responsable des titres et de l’identité

The Sandbox

   M. Mathieu Nouzareth, directeur général

PyratzLabs

   M. Bilal El Alamy, président

   Mme Houda Leroy, directrice générale

   M. Vincent Strubel, directeur général

 

 * Ces représentants d’intérêts ont procédé à leur inscription sur le répertoire des représentants d’intérêts de la Haute Autorité pour la transparence de la vie publique (HATVP), qui vise à fournir une information aux citoyens sur les relations entre les représentants d’intérêts et les responsables publics lorsque sont prises des décisions publiques.


—  1  —

   Annexe :
textes susceptibles d’être abrogés ou modifiés à l’occasion de l’examen du projet de loi visant à sécuriser et réguler l’espace numérique

Projet de loi

Dispositions en vigueur modifiées

Article

Codes et lois

Numéro d’article

1er

Loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique

10 et 10-1 (nouveau)

2

Loi n° 2020-936 du 30 juillet 2020 visant à protéger les victimes de violences conjugales

23 (abrogé)

2 bis

Loi n° 2004-575 du 21 juin 2004 précitée

6-8 (nouveau)

3

Loi n° 2004-575 du 21 juin 2004 précitée

6-2, 6-2-1 et 6-2-2 (nouveaux), 6-5

4 AA

Code de l’éducation

L. 312-9

4 A

Loi n° 2004-575 du 21 juin 2004 précitée

1-3 (nouveau)

4

Loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication

33-1, 33-3, 42, 42-10, 43-2 et 43-7

4

Loi n° 2004-575 du 21 juin 2004 précitée

11

4 bis

Code pénal

226-8

5

Code pénal

131-6, 131-35-1 (rétabli)

5

Code de procédure pénale

41-2

5 bis

Loi du 29 juillet 1881 sur la liberté de la presse

Paragraphe 4 de la section V(nouveau, 65-5)

5 ter A

Code pénal

131-5-1

5 ter

Code pénal

226-8-1 (nouveau)

5 quater

Code pénal

222-33-1-1

6

Loi n° 2004-575 du 21 juin 2004 précitée

12

7

Code de commerce

L. 442-12 (nouveau)

11 bis B

Code de la santé
publique

L. 1111-8

14

Code des postes et des communications électroniques

L. 130

16

Loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique

36

17

Code du tourisme

L. 324-2-1

18

Loi n° 2004-575 du 21 juin 2004 précitée

7-1 (nouveau)

19

Code de justice administrative

Chapitre V du titre Ier du livre Ier (nouveau, L. 155-1)

20

Code de l’organisation judiciaire

Chapitre III du titre V du livre IV (nouveau, L. 453-1 et L. 453-2)

20

Loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés

19

21

Code des juridictions financières

Section 6 du chapitre Ier du titre Ier du livre Ier (nouvelle, L. 111-18)

22

Loi n° 2004-575 du 21 juin 2004 précitée

1-1 et 1-2 (nouveaux), 6

23

Loi n° 2004-575 du 21 juin 2004 précitée

6-1, 6-1-3 et 6-1-5

24

Loi n° 2004-575 du 21 juin 2004 précitée

6-3, 6-4 et 6-4-2

25

Loi n° 2004-575 du 21 juin 2004 précitée

7, 7-2 et 7-3 (nouveaux), 8-1 (nouveau), 9-2 et 9-2 (nouveaux)

26

Code de la consommation

Article liminaire, L. 111-7, L. 111-7-1 (abrogé), L. 111‑7-2, L. 111-7-3, L. 112-8, chapitre III du titre III du livre Ier (nouveau, L. 133-1, L. 133-2, L. 133-3), L. 224-42-4, L. 511-7-1 (nouveau), section 4 chapitre II du titre Ier du livre V (nouvelle, L. 512-66 à L. 51268), L. 521-3-1, L. 524-3, L. 531-7 (nouveau), L. 532-5

27

Code du commerce

L. 420-7, L. 450-11 et L. 450‑12 (nouveaux), L. 462‑9, L. 462-9-2 (nouveau), L. 490-9

28

Loi n° 86-1067 du 30 septembre 1986 précitée

14, 18, intitulé du chapitre Ier du titre IV, 58, 60

28

Loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République

42

29

Loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information

11, 13 et 14 (abrogés)

30

Code électoral

L. 163-1

31

Loi n° 78-17 du 6 janvier 1978 précitée

8, titre VI, 16, 20-1 (nouveau), titre IV bis (nouveau, 124-1 à 124-3)

32

Loi n° 78-17 du 6 janvier 1978 précitée

8, titre VII, titre VI (rétabli, 124-4 et 124-5), intitulé du section 2 du chapitre II du titre Ier, 19, 20, 22, 22-1

33

Loi n° 47-585 du 2 avril 1947 relative au statut des entreprises de groupage et de distribution des journaux et publications périodiques

15

34

Loi n° 2017-261 du 1er mars 2017 visant à préserver l’éthique du sport, à renforcer la régulation et la transparence du sport professionnel et à améliorer la compétitivité des clubs

24

34

Code de la propriété intellectuelle

L. 137-2 et L. 219-2, L. 131-4

34

Loi n° 2021-1382 du 25 octobre 2021 précitée

36

34

Code pénal

323-3-2

 


([1])  La composition de cette commission spéciale figure au verso de la présente page.

([2]) Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE (règlement général sur la protection des données).

([3]) Sénat, rapport d’information n° 900 (2021-2022) fait au nom de la délégation aux droits des femmes, 27 septembre 2022.

([4]) Cour de cassation, Chambre criminelle, 12 octobre 2005, n° 05-80713.

([5]) Cour de cassation, Chambre criminelle, 23 février 2000, n° 99-83928.

([6]) Uniform Resource Locator, c’est-à-dire l’adresse d’une ressource sur internet.

([7]) Le décret n° 2021-1306 du 7 octobre 2021 relatif aux modalités de mise œuvre des mesures visant à protéger les mineurs contre l’accès à des sites diffusant un contenu pornographique précise que les FAI procèdent à cet arrêt par tout moyen approprié, notamment en utilisant le protocole de blocage par nom de domaine (DNS) permettant d’identifier les adresses IP.

([8]) Par exemple, c’est la réponse à cette simple question qui conditionne l’accès au site Pornhub, assortie du message suivant adressé aux parents : « Notre page de contrôle parental explique comment vous pouvez facilement bloquer l’accès à ce site ». Toutefois, le lien figurant dans ce message renvoie à une page rédigée en anglais, y compris dans la version française du site, une version traduite n’étant consultable qu’indirectement, après manipulations dans la barre de navigation.

([9])  L’Observatoire de la parentalité et de l’éducation numérique (Open), l’Union nationale des associations familiales (Unaf) et le Conseil français des associations pour les droits de l’enfant (Cofrade, qui regroupe plus de 50 associations).

([10]) Édité par la société MG Freesites Ltd.

([11]) Édité par la société Fedrax Lda.

([12]) Édité par la société Hammy Media Ltd.

([13]) Édité par la société NKL Associates s.r.o.

([14]) Édité par la société WebGroup Czech Republic (WGCR).

([15]) Recours en annulation formé par les sociétés WebGroup Czech Republic, a.s. et NKL Associates s.r.o. le 7 février 2022.

([16]) Cour de cassation, 1ère chambre civile, 5 janvier 2023, n° 22.40.017.

([17]) Article modificatif des articles 42-1 et 42-2 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication depuis réécrits.

([18]) Amendement COM-91 de M. Hervé, rapporteur (groupe Union centriste).

([19]) Amendement COM-92 de M. Hervé, rapporteur (groupe Union centriste).

([20]) Amendement n° 130 de M. Hervé, rapporteur (groupe Union centriste).

([21]) Amendement COM-37 de Mme Rossignol (groupe Socialiste, Écologiste et Républicain).

([22]) « [La mission] recommande la mention au sein [des] lignes directrices de la nécessité d’opérer le contrôle de l’âge dès l’entrée sur le site, avant même de visionner la moindre image même floutée . Un écran noir doit s’afficher sur les smartphones et ordinateurs des utilisateurs dont l’âge n’a pas été vérifié. »

([23]) Amendement COM-92 de M. Hervé, rapporteur (groupe Union centriste).

([24]) Amendement COM-61 rect. de M. Fialaire (groupe Rassemblement Démocratique et Social Européen).

([25]) Amendement n° 131 de M. Hervé (groupe Union Centriste).

([26]) Amendement n° 46 rect. quater de Mme Noël (groupe Les Républicains).

[27]) Voir le commentaire de l’article 1er du présent projet de loi.

([28]) Étude réalisée par Toluna – Harris Interactive pour l’association e-Enfance/3018, avec le soutien de Google. Enquête quantitative réalisée en ligne du 6 au 14 février 2023 auprès d’un échantillon représentatif de 616 parents d’enfants âgés de 6 à 10 ans et d’un échantillon représentatif de 432 enfants âgés de 6 à 10 ans.

([29]) Étude BornSocial 2022,  en partenariat avec l’association Génération Numérique.

([30]) Amendement n° 111 rect. bis de Mme Morin-Desailly (groupe Union centriste).

([31]) Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur.

([32]) Il s’agit des contenus, mentionnés au 7 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 précitée, relatifs à l’apologie, la négation ou la banalisation des crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et leur apologie (ajoutée par la loi n° 2014-1353 du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme), l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation sexuelle, de leur identité de genre ou de leur handicap ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences sexuelles et sexistes, ainsi que les atteintes à la dignité humaine.

([33]) 8 du I de l’article 6.

([34]) Décret n° 2015-125 du 5 février 2015 relatif au blocage des sites provoquant à des actes de terrorisme ou en faisant l’apologie et des sites diffusant des images et représentations de mineurs à caractère pornographique.

([35])  Les signalements sur Pharos s’effectuent via l’adresse www.internet-signalement.gouv.fr.

([36]) Avant l’entrée en vigueur de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République, la personnalité qualifiée était désignée en son sein par la Cnil.

([37]) En 2022, la personnalité qualifiée a émis trois recommandations à l’attention de l’OCLCTIC qui portaient sur des contenus qui avaient été considérés à caractère terroriste.

([38]) Rapport annuel 2022 de la personnalité qualifiée de l’Arcom : rapport commun d’Alexandre Linden, membre du collège de la CNIL et de Laurence Pécaut-Rivolier, membre du collège de l’Arcom. Le transfert de la mission assurée par la personnalité qualifiée du collège de la CNIL à celui de l’Arcom est effectif depuis le 7 juin 2022.

([39]) À l’article 6-1 de la LCEN l’absence de sanction pénale s’agissant du retrait des contenus concerne également ceux à caractère terroriste mais cette sanction est prévue à l’article 6-1-3 de la LCEN.

([40]) Défini comme « un fournisseur de services […] qui consistent à stocker des informations fournies par un fournisseur de contenus à la demande de celui-ci » (article 2 du règlement (UE) 2021/784 « TCO »).

([41]) Article 131-38 du code pénal.

([42]) Article 131-39 (2°) du code pénal.

([43]) Article 131-39 (9°) du code pénal.

([44]) Article 14 du règlement (UE) 2021/784 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne.

([45]) Défini comme « un utilisateur qui a fourni des informations qui sont stockées, ou qui l’ont été, et diffusées au public par un fournisseur de services d’hébergement » (article 2 du règlement (UE) 2021/784 « TCO »).

([46]) Proposition de règlement du Parlement européen et du Conseil établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants – COM (2022) 209 final.

([47]) Rapport de la commission des affaires européennes de l’Assemblée nationale n° 1436 du 21 juin 2023 sur la proposition de résolution européenne (n° 1395) de Mme Perrine Goulet relatif à la proposition de règlement établissant des règles en vue de prévenir et de combattre les abus sexuels sur les enfants.

([48]) Directive 2011/92/UE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants ainsi que la pédopornographie et remplaçant la décision-cadre 2004/68/JAI du Conseil.

([49]) Règlement (UE) 2021/1232 du Parlement européen et du Conseil du 14 juillet 2021 relatif à une dérogation temporaire à certaines dispositions de la directive 2002/58/CE en ce qui concerne l’utilisation de technologies par les fournisseurs de services de communications impersonnelles non fondés sur la numérotation pour le traitement de données à caractère personnel et d’autres données aux fins de la lutte contre les abus sexuels commis contre des enfants en ligne.

([50]) C’est-à-dire les services de courrier électronique, de messagerie instantanée, ou de téléphonie par internet.

([51]) Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques.

([52]) Amendement COM-93 de M. Hervé, rapporteur (groupe Union centriste).

([53]) Amendement COM-94 de M. Hervé, rapporteur (groupe Union centriste).

([54]) Amendement COM-135 de M. Hervé, rapporteur (groupe Union centriste) .

([55]) Amendement n° 132 de M. Hervé, rapporteur (groupe Union centriste).

([56]) L’article L. 312-9 du code de l’éducation a connu neuf évolutions législatives depuis 2009.

([57])  L’éducation aux droits et aux devoirs liés à l’image des femmes a été ajoutée par la loi n° 2023-451 du 9 juin 2023 visant à encadrer l’influence commerciale et à lutter contre les dérives des influenceurs sur les réseaux sociaux.

([58])  La sensibilisation contre la manipulation d’ordre commercial et les risques d’escroquerie en ligne a été ajoutée par la loi n° 2023-451 du 9 juin 2023 précitée.

([59])  Stratégie numérique pour l’éducation 2023-2027, ministère de l’éducation nationale et de la jeunesse, janvier 2023.

([60]) Assemblée nationale, rapport d’information de Mme Christine Hennion et de M. Jean-Michel Mis du 8 juillet 2020 sur l’identité numérique, n° 3190.

([61])  La publicité en faveur des boissons alcooliques est par exemple encadrée par l’article L. 3323-4 du code de la santé publique, qui prévoit que « toute publicité en faveur des boissons alcooliques […] doit être assortie d’un message de caractère sanitaire précisant que l’abus d’alcool est dangereux pour la santé ».

([62]) Amendement n° 71 rect. de Mme Annick Billon (groupe Union centriste).  

([63]) Correspond à la section 3 du chapitre II du titre II du livre II du code pénal.

([64]) Correspond au paragraphe 2 de la section 5 du chapitre VII du titre II du livre II du code pénal.

([65]) La notion de contenu illicite est définie à l’article 3 du RSN : « toute information qui, en soi ou par rapport à une activité, y compris la vente de produits ou la fourniture de services, n’est pas conforme au droit de l’Union ou au droit d’un État membre qui est conforme au droit de l’Union, quel que soit l’objet précis ou la nature précise de ce droit ».

([66]) Sénat, rapport d’information fait au nom de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes sur l’industrie de la pornographie par Mmes Annick Billon, Alexandra Borchio Fontimp, Laurence Cohen et Laurence Rossignol, publié le 27 septembre 2022, p 96.

([67])  Recommandation n° 3 du rapport précité.

([68]) Amendement n° 71 rect. de Mme Annick Billon (groupe Union centriste).  

([69])  Sénat, rapport d’information fait au nom de la délégation aux droits des femmes et à l’égalité des chances entre les hommes et les femmes sur l’industrie de la pornographie par Mmes Annick Billon, Alexandra Borchio Fontimp, Laurence Cohen et Laurence Rossignol, publié le 27 septembre 2022.

([70]) Recommandation n° 10 du rapport du Sénat précité.

([71])  Rapport d’information précité, p 50.

([72])  Règlement (UE) 2023/1214 du Conseil du 23 juin 2023 modifiant le règlement (UE) n° 833/2014 concernant des mesures restrictives eu égard aux actions de la Russie déstabilisant la situation en Ukraine.

([73])  Les médias suivants étaient déjà concernés : Russia Today English, Russia Today UK, Russia Today Germany, Russia Today France, Russia Today Spanish, Sputnik, Rossiya RTR, Rossiya 24, TV Ventre international, NTV Mir, Rossiya 1, REN TV, Pervyi Kanal, RT Arabic, Sputnik Arabic. Les médias suivants ont été ajoutés : Russia Today Balkan, Oriental Review, Tsargrad, New Eastern Outlook et Katehon.

([74]) Déclaration de la présidente Ursula von der Leyen sur de nouvelles mesures visant à répondre à l’invasion de l’Ukraine par la Russie, 27 février 2022, Bruxelles.

([75]) Arrêt du tribunal de l’Union européenne en grande chambre, 27 juillet 2022, affaire T-125/22.

([76]) Article paru dans Libération le 6 janvier 2023 – « Interdite, RT France reste accessible et continue sa propagande russe ».

([77]) Étude d’impact annexée au présent projet de loi, p. 64.

([78]) L’Arcom définit un éditeur de services audiovisuels comme une entreprise publique ou privée qui programme des émissions de télévision ou de radio, quel que soit le mode de diffusion de ces émissions.

([79]) L’Arcom définit un distributeur de service comme une société qui propose une ou plusieurs chaînes de télévision par abonnement, comme CanalSat par exemple.

([80]) Il convient de distinguer les fournisseurs d’accès, qui offrent un accès à des services de communication au public en ligne au moyen d’un abonnement, et les hébergeurs, qui stockent des données pour le compte des éditeurs de contenus, sans être à l’origine de ces contenus.

([81])  Le dispositif de l’article 6-1 de la LCEN est détaillé supra, dans le commentaire de l’article 3 du présent projet de loi.

([82])  L’article 459 du code des douanes sanctionne les personnes ayant contrevenu à la législation et à la réglementation des relations financières avec l’étranger.

([83])  Décision n° 2021-953 QPC du 3 décembre 2021 – Société Specitubes [Cumul des poursuites pour violation d’une mise en demeure prononcée par le préfet en matière d’installations classées pour la protection de l’environnement].

([84]) Décision n° 2020-801 DC du 18 juin 2020 – Loi visant à lutter contre les contenus haineux sur internet.

([85]) L’article 2 de la loi de 1986 définit un service de médias audiovisuels à la demande comme « tout service de communication au public par voie électronique permettant le visionnage de programmes au moment choisi par l’utilisateur et sur sa demande, à partir d’un catalogue de programmes dont la sélection et l’organisation sont contrôlées par l’éditeur de ce service ».

([86])  L’article 33-1 de la loi n° 86-1067 du 30 septembre 1986 prévoit une obligation de conventionnement pour les services de radio et de télévision distribués ou diffusés sur les réseaux et n’utilisant pas les fréquences assignées par l’Arcom.

([87]) L’article 33-3 de la loi n° 86-1067 du 30 septembre 1986 prévoit une obligation de conventionnement pour les Smad (hors services de télévision de rattrapage) dont le chiffre d’affaires annuel net réalisé sur le territoire français excède un million d’euros.

([88])  Selon la définition utilisée par l’Arcom, un boîtier tiers est un équipement permettant de visualiser dans une interface spécifique et en streaming des programmes audiovisuels (en direct ou à la demande). Ils permettent généralement de « basculer » un flux vidéo lancé sur un appareil mobile vers un téléviseur.

([89])  Amendements CS733 et CS776.

([90])  Définition qui combine les éléments extraits du jugement n° 20167000022 de la 8e chambre correctionnelle du tribunal correctionnel de Versailles, le 14 avril 2021 et l’exposé sommaire de l’amendement n° 127 déposé par le Gouvernement en première lecture du présent projet de loi au Sénat.

([91])  Claire Langlais-Fontaine, « Démêler le vrai du faux : étude de la capacité du droit actuel à lutter contre les deepfakes », La Revue des droits de l’homme, [En ligne], 18 | 2020, 12 juin 2020.

([92])  Chiffres cités par l’étude d’impact annexée au présent projet de loi, p 74 (la période de référence n’étant pas précisée).

([93]) La notion de plateforme en ligne est définie au paragraphe i de l’article 3 du règlement (UE) 2022/2065 du 19 octobre 2022 comme « un service d’hébergement qui, à la demande du destinataire du service, stocke et diffuse au public des informations, à moins que cette activité ne soit une caractéristique mineure et purement accessoire d’un autre service ou une fonctionnalité mineure du service principal qui, pour des raisons objectives et techniques, ne peut être utilisée sans cet autre service, et pour autant que l’intégration de cette caractéristique ou de cette fonctionnalité à l’autre service ne soit pas un moyen de contourner l’applicabilité du présent règlement ».

([94])  Huit circonstances sont prévues en matière d’outrage sexiste et sexuel. Celui-ci est caractérisé lorsque les faits sont commis :

1° Par une personne qui abuse de l’autorité que lui confèrent ses fonctions ;

2° Sur un mineur ;

3° Sur une personne dont la particulière vulnérabilité due à son âge, à une maladie, à une infirmité, à une déficience physique ou psychique ou à un état de grossesse est apparente ou connue de son auteur ;

4° Sur une personne dont la particulière vulnérabilité ou dépendance résultant de la précarité de sa situation économique ou sociale est apparente ou connue de son auteur ;

5° Par plusieurs personnes agissant en qualité d’auteur ou de complice ;

6° Dans un véhicule affecté au transport collectif de voyageurs ou au transport public particulier ou dans un lieu destiné à l’accès à un moyen de transport collectif de voyageurs ;

7° En raison de l’orientation sexuelle ou de l’identité de genre, vraie ou supposée, de la victime ;

8° Par une personne déjà condamnée pour la contravention d’outrage sexiste et sexuel et qui commet la même infraction en étant en état de récidive.

([95])  Décision n° 2019-778 DC du 21 mars 2019, considérant n° 242.

([96])  Décision n° 2022-846 DC du 19 janvier 2023, considérant n° 139.

([97])  Rép. min. n° 16587 : JOAN, 15 octobre 2019, p. 9053, Janvier C.

([98])  Claire Langlais-Fontaine, « Démêler le vrai du faux : étude de la capacité du droit actuel à lutter contre les deepfakes », La Revue des droits de l’homme, [En ligne], 18 | 2020, 12 juin 2020.

([99])  Décision n° 2022-841 DC du 13 août 2022, considérant n° 8).

([100])  Décision n° 2022-1016 QPC du 21 octobre 2022.

([101]) Cette problématique concerne d’ailleurs également les collectivités territoriales, même si ces dernières ne sont pas comprises dans le périmètre du présent article.

([102]) Règlement (UE) 2022/1925 du Parlement européen et du Conseil relatif aux marchés contestables et équitables dans le secteur numérique.

([103])  Règlement (UE) 2022/868 du Parlement européen et du Conseil du 30 mai 2022 portant sur la gouvernance européenne des données et modifiant le règlement (UE) 2018/1724 (règlement sur la gouvernance des données).

([104]) Proposition de règlement du Parlement européen et du Conseil fixant des règles harmonisées pour l’équité de l’accès aux données et de l’utilisation des données (règlement sur les données).

([105])  Directive (UE) 2022/2555 du Parlement européen et du Conseil du 14 décembre 2022 concernant des mesures destinées à assurer un niveau élevé commun de cybersécurité dans l’ensemble de l’Union.

([106]) Règlement (UE) 2022/868 du Parlement européen et du Conseil du 30 mai 2022 portant sur la gouvernance européenne des données et modifiant le règlement (UE) 2018/1724 (règlement sur la gouvernance des données).

([107]) Proposition de règlement du Parlement européen et du Conseil fixant des règles harmonisées pour l’équité de l’accès aux données et de l’utilisation des données (règlement sur les données).

([108]) MM. Franck Montaugé (président) et Gérard Longuet (rapporteur), rapport n° 7 fait au nom de la commission d’enquête sur la souveraineté numérique, octobre 2019.

([109]) Loi n° 68-678 du 26 juillet 1968 relative à la communication de documents et renseignements d'ordre économique, commercial, industriel, financier ou technique à des personnes physiques ou morales étrangères.

([110]) MM. Franck Montaugé (président), Gérard Longuet (rapporteur), rapport  n° 7  fait au nom de la commission d’enquête sur la souveraineté numérique, octobre 2019, p. 10.

([111]) MM. Jean-Luc Warsmann (président) et Philippe Latombe (rapporteur), rapport d’information n° 4299  publié en conclusion des travaux de la mission d’information de la conférence des Présidents sur le thème « Bâtir et promouvoir une souveraineté numérique nationale et européenne », juin 2021.

([112])  Cour de justice de l’Union européenne, arrêt Data Protection Commissioner contre Facebook Ireland Ltd et Maximillian Schrems, 16 juillet 2020.

([113]) Amendement n° 114.

([114]) Il s’agit notamment de tout élément relevant du secret de la défense nationale, de la sûreté de l’État, ou relatif à la sécurité publique, à la sécurité des personnes ou à la sécurité des systèmes d’information des administrations.

([115])  Inspection générale des finances, Les jetons à vocation commerciale dans l’économie française : cas d’usage et enjeux juridiques, mai 2023.

([116]) Inspection générale des finances, Les jetons à vocation commerciale dans l’économie française : cas d’usage et enjeux juridiques, mai 2023, p.4.

([117]) Amendement n° AC 156 déposé par le Gouvernement le mercredi 9 juin 2021 lors de l’examen du projet de loi n° 4187 adopté par le Sénat, relatif à la régulation et à la protection de l’accès aux œuvres culturelles à l’ère numérique.

([118]) Décret n° 2022-603 du 21 avril 2022 fixant la liste des autorités administratives et publiques indépendantes pouvant recourir à l’appui du pôle d’expertise de la régulation numérique et relatif aux méthodes de collecte de données mises en œuvre par ce service dans le cadre de ses activités d’expérimentation.

([119]) Délibération n° 2022-030 du 10 mars 2022 portant avis sur un projet de décret portant modalités de mise en œuvre par le pôle d’expertise de la régulation numérique de traitements informatisés et automatisés permettant la collecte de données publiquement accessibles mises à disposition du public par les opérateurs de plateforme (demande d’avis n° 22000888).

([120])  La loi n° 2021-1104 du 22 août 2021 portant lutte contre le dérèglement climatique et renforcement de la résilience face à ses effets a notamment imposé aux calculateurs d’itinéraires de mieux informer les utilisateurs sur les alternatives à leurs déplacements quotidiens.

([121]) Le développement et le progrès de la recherche dans tous les domaines de la connaissance, la valorisation des résultats de la recherche au service de la société, le partage et la diffusion des connaissances scientifiques, le développement d’une capacité d’expertise et d’appui aux politiques publiques, la formation à la recherche et par la recherche, et enfin l’organisation de l’accès libre aux données scientifiques.

([122]) Règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE.

([123]) L’article 33 du RSN définit les très grandes plateformes en ligne comme les plateformes ayant un nombre mensuel moyen de destinataires actifs du service dans l’Union égal ou supérieur à 45 millions.

([124]) Le paragraphe 1 de l’article 34 prévoit que « les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services ».

([125]) Paris, Marseille, Lyon, Toulouse, Nice, Nantes, Montpellier, Strasbourg, Bordeaux, Lille et Rennes.

([126]) Décret n° 2013-392 du 10 mai 2013 relatif au champ d’application de la taxe annuelle sur les logements vacants instituée par l’article 232 du code général des impôts.

([127]) Un intermédiaire de location est défini à l’article L. 324-2-1 du code du tourisme comme « toute personne qui se livre ou prête son concours contre rémunération ou à titre gratuit, par une activité d’entremise ou de négociation ou par la mise à disposition d’une plateforme numérique, à la mise en location d’un meublé de tourisme ».

([128]) Association qui représente les acteurs de la location de vacances.

([129]) « Respect de l’encadrement de la location meublée touristique en 2023 : l’UNPLV publie sa liste actualisée », publication sur le site internet de l’UNPLV, le 16 janvier 2023.

([130]) Proposition de règlement du Parlement européen et du Conseil concernant la collecte et le partage des données relatives aux services de location de logements de courte durée, et modifiant le règlement (UE) 2018/1724 – COM(2022) 571 final.

([131]) Proposition de règlement du Parlement européen et du Conseil concernant la collecte et le partage des données relatives aux services de location de logements de courte durée et modifiant le règlement (UE) 2018/1724, orientation générale du Conseil de l’Union européenne, 20 février 2023.

([132])  Amendement déposé par M. Jean-François Coulomme (LFI).

([133]) Amendement déposé par Mme Soumya Bourouaha (GDR).

([134]) Amendement déposé par Mme Soumya Bourouaha (GDR).

([135]) Décret n° 2022-603 du 21 avril 2022 fixant la liste des autorités administratives et des autorités publiques indépendantes pouvant recourir à l’appui du pôle d’expertise de la régulation numérique et relatif aux méthodes de collecte de données mises en œuvre par ce service dans le cadre de ses activités d’expérimentation.

([136]) Compte-rendu de l’audition de M. Lucas Verney, directeur adjoint du PEReN, par la commission spéciale chargée d’examiner le projet de loi visant à sécuriser et réguler l’espace numérique, le 13 juin 2023.

([137]) Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur («directive sur le commerce électronique»).

([138]) Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques (directive vie privée et communications électroniques).

([139])  Plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements.

([140])  Traitement harmonisé des enquêtes et signalements pour les e-escroqueries.

([141])  Par exemple : Tribunal judiciaire, Paris, 8 juillet 2022.

([142])  Par exemple : Tribunal judiciaire de Paris, 25 janvier 2022, n° 22/50142.

([143]) L’article 3 du règlement sur les services numériques en donne les définitions suivantes :

« g) "service intermédiaire" : un des services de la société de l’information suivants :

i) un service de "simple transport", consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service ou à fournir l’accès à un réseau de communication ;

ii) un service de "mise en cache", consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service, impliquant le stockage automatique, intermédiaire et temporaire de ces informations, effectué dans le seul but de rendre plus efficace la transmission ultérieure de ces informations à d’autres destinataires à leur demande ;

iii) un service d’"hébergement", consistant à stocker des informations fournies par un destinataire du service à sa demande ».

([144]) En avril 2023, la Commission européenne a désigné dix-sept très grandes plateformes en ligne (Alibaba, AliExpress, Amazon Store, Apple AppStore, Booking.com, Facebook, plusieurs services de Google, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Twitter, Wikipedia, YouTube et Zalando) et deux très grands moteurs de recherche en ligne (Bing et Google Search).

([145]) Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur (« directive sur le commerce électronique »).

([146])  Le Président de la République nomme le président de l’Arcom tandis que le président de l’Assemblée nationale et le président du Sénat nomment chacun trois membres. Un membre en activité du Conseil d’État et un membre en activité de la Cour de cassation sont par ailleurs désignés, respectivement, par le vice-président du Conseil d’État et le premier président de la Cour de cassation.

([147]) Article 7 de la LCEN en vigueur : « Lorsque les personnes visées au 1 du I de l’article 6 invoquent, à des fins publicitaires, la possibilité qu’elles offrent de télécharger des fichiers dont elles ne sont pas les fournisseurs, elles font figurer dans cette publicité une mention facilement identifiable et lisible rappelant que le piratage nuit à la création artistique. »

([148]) Ce statut sera attribué dans chaque pays par le CSN à des entités ou organisations (telles que des associations) en raison de leur expertise et de leurs compétences. Leurs signalements seront traités en priorité.

([149]) Amendement COM-136 de M. Chaize, rapporteur (groupe Les Républicains).

([150]) Amendement COM-138 de M. Chaize, rapporteur (groupe Les Républicains).

([151]) Amendement COM-137 de M. Chaize, rapporteur (groupe Les Républicains).

([152]) Amendement n° 101 de Mme Blatrix Contat (groupe Socialiste, Écologiste et Républicain).

([153]) Telles que définies au sein de l’article liminaire du code de la consommation et de son article L. 111-7.

([154]) Ce dernier élément est explicitement prévu par l’article 52 du RSN.

([155]) Définition ajoutée par la directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive « SMA »), compte tenu de l’évolution des réalités du marché.

([156])  Article 14 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

([157]) Théma. Contrats climat : premiers constats et perspectives d’amélioration. Arcom, janvier 2023.

([158]) Rapport annuel 2022 de l’Arcom, adopté le 24 mai 2023.

([159]) Amendement COM-141 de M. Hervé, rapporteur (groupe Union centriste).

([160]) Amendement COM-142 de M. Hervé, rapporteur (groupe Union centriste).

([161]) Amendement COM-143 de M. Hervé, rapporteur (groupe Union centriste).

([162]) Charte des droits fondamentaux de l’Union européenne du 18 décembre 2000.

([163]) Les scrutins mentionnés au premier alinéa de l’article 33-1-1 de la loi relative à la liberté de communication sont l’élection du Président de la République, les élections générales des députés, l’élection des sénateurs, l’élection des représentants au Parlement européen et les opérations référendaires.

([164]) Il s’agit des contenus, mentionnés au 7 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 (LCEN), relatifs à l’apologie, la négation ou la banalisation des crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et leur apologie (ajouté par la loi n° 2014-1353 du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme), l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation sexuelle, de leur identité de genre ou de leur handicap ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences sexuelles et sexistes, ainsi que les atteintes à la dignité humaine.

([165]) Amendement COM-144 de M. Hervé, rapporteur (groupe Union centriste).

([166])  Conseil constitutionnel, décision n° 2018-765 DC du 12 juin 2018, considérant n° 47.

([167])  Conseil constitutionnel, décision n° 2018-765 DC du 12 juin 2018, considérant n° 47.

([168])  Amendements COM-146, COM-149, COM-150, COM-151, COM-152 et COM-153.

([169]) La distribution est actuellement assurée par France messagerie (qui a repris une partie des actifs de Presstalis à la suite de sa faillite en 2020) et les Messageries lyonnaises de presse (MLP).

([170]) Amendement COM-79 de M. Bargeton (groupe Rassemblement des démocrates, progressistes et indépendants).

([171])  Nouvelle-Calédonie, Polynésie française, Wallis-et-Futuna, Saint-Barthélemy, Saint-Martin et Saint-Pierre-et-Miquelon.