Compte rendu

Commission
des lois constitutionnelles,
de la législation
et de l’administration
générale de la République

 Examen de la proposition de loi de Mme Aude Bono-Vandorme, Mme Yaël Braun-Pivet, M. Guillaume Gouffier‑Cha, M. Christophe Castaner et plusieurs de leurs collègues portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne (n° 4883 rect.) (Mme Aude Bono-Vandorme, rapporteure)                             2

 Examen des pétitions (M. Christophe Euzet, rapporteur)..... 18


Mercredi
9 février 2022

Séance de 9 heures 30

Compte rendu n° 47

session ordinaire de 2021-2022

Présidence
de M. Stéphane Mazars,
Vice-président


  1 

La séance est ouverte à 9 h 30.

Présidence de M. Stéphane Mazars, vice-président.

La Commission examine la proposition de loi de Mme Aude Bono-Vandorme, Mme Yaël Braun-Pivet, M. Guillaume GouffierCha, M. Christophe Castaner et plusieurs de leurs collègues portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne (n° 4883 rect.) (Mme Aude Bono-Vandorme, rapporteure).

M. Stéphane Mazars, président. Nous examinons aujourd’hui la proposition de loi portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne, de Mme Aude Bono-Vandorme et des membres du groupe La République en marche. Déposée le 11 janvier 2022, elle sera examinée le 16 février en séance publique.

Mme Aude Bono-Vandorme, rapporteure. La lutte contre la propagation des contenus à caractère terroriste et, plus largement, contre l’ensemble des contenus haineux, nécessite une adaptation constante de notre législation. Depuis bientôt cinq ans, nous avons pris pleinement nos responsabilités en ce sens. Bien que la circulation de contenus néfastes en ligne soit une préoccupation de longue date des pouvoirs publics, cette législature a en effet été l’occasion de grandes avancées, pour les armer et les aider à faire face à ce phénomène particulièrement destructeur. Je remercie en particulier ma collègue, Laetitia Avia, qui s’est engagée dans cette bataille depuis le début de la législature.

Sous l’influence d’un droit européen de plus en plus protecteur, car conscient des enjeux de société et des défis auxquels nous soumet collectivement la haine en ligne, le législateur français a instauré, dès 2004, des dispositifs de retrait de ces contenus, voire de blocage des sites internet à partir desquels ils sont accessibles.

L’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC) peut ainsi demander aux éditeurs ou aux hébergeurs de retirer le matériel faisant l’apologie du terrorisme ou provoquant à l’acte terroriste, ou du contenu à caractère pédopornographique. Cette autorité administrative s’appuie, pour ce faire, sur les signalements effectués par le biais de la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS). Plus de 289 000 signalements ont ainsi été enregistrés en 2020.

Si l’injonction de retrait n’est pas respectée, l’Office peut demander aux fournisseurs d’accès à internet, aux moteurs de recherche ou aux annuaires de bloquer l’accès au site internet et de déréférencer les contenus. En 2020, il a formulé plus de 50 000 demandes de retrait, 500 demandes de blocage et plus de 4 100 demandes de déréférencement.

La loi pour la confiance dans l’économie numérique (LCEN) prévoit également une disposition de blocage de nature judiciaire. Dans ce cadre, le juge peut enjoindre le fournisseur d’accès à internet ou l’hébergeur de retirer le contenu litigieux voire de bloquer l’accès au site sur lequel ce contenu est diffusé. Le régime s’est récemment étoffé, pour accompagner le développement des nouveaux usages et des pratiques des acteurs du numérique.

La loi du 24 août 2021 confortant le respect des principes de la République instaure un nouvel article 6-4 dans la LCEN, qui comporte plusieurs dispositions, inspirées de la loi visant à lutter contre les contenus haineux sur internet, dite loi Avia, s’imposant aux opérateurs de plateforme en ligne.

Le qualificatif même d’opérateurs de plateforme en ligne est novateur : il a été créé par la loi du 7 octobre 2016 pour une République numérique afin de désigner les services de communication en ligne qui se distinguent à la fois des éditeurs et des hébergeurs par le recours à un service de classement, de référencement ou de mise en relation et qui, de ce fait, doivent être assujettis à des obligations plus importantes.

L’article 6-4 pose d’abord pour principe la participation de ces opérateurs à la lutte contre la diffusion publique des contenus haineux, dont ceux faisant l’apologie des actes de terrorisme ou appelant à les commettre. Il les enjoint à coopérer avec les autorités publiques, en mettant à disposition des moyens humains et technologiques proportionnés, et en désignant un point de contact avec ces autorités. Il soumet les acteurs à des obligations de transparence renforcées et leur demande d’instaurer des dispositifs de signalement des contenus haineux ainsi que des modalités de recours interne contre les décisions qu’ils ont prises. Il prévoit enfin des obligations renforcées d’information et d’évaluation globale des risques à l’encontre des opérateurs des plateformes les plus importantes.

En cas de manquement à ces obligations, la nouvelle Autorité de régulation de la communication audiovisuelle et numérique (Arcom) peut adresser une mise en demeure à l’opérateur. S’il ne s’y conforme pas, elle peut prononcer une sanction pécuniaire dont le montant peut aller jusqu’à 20 millions d’euros ou 6 % du chiffre d’affaires annuel mondial.

Le régime juridique du blocage administratif des contenus à caractère terroriste évoluera prochainement sous l’influence du règlement du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne, dit règlement TCO, dont l’entrée en vigueur est prévue le 7 juin 2022.

Ce texte crée des règles uniformes pour lutter contre l’utilisation abusive des contenus à caractère terroriste et prévoit une série de nouvelles obligations à l’encontre des hébergeurs. La plus importante, sans doute, consiste à enjoindre l’hébergeur de retirer ou de bloquer l’accès, dans tous les États membres, aux contenus à caractère terroriste qui lui sont notifiés, dans un délai ne pouvant excéder une heure après réception de l’injonction.

Le texte instaure des dispositions particulières pour les hébergeurs « exposés », c’est-à-dire ceux qui sont particulièrement soumis à la circulation de contenus à caractère terroriste. Ils sont contraints d’instaurer des mesures spécifiques afin de protéger leurs services contre la diffusion de ces contenus, tout en ayant le choix, sous réserve de leur efficacité et de leur proportionnalité, des mesures qu’ils souhaitent adopter.

D’autres obligations administratives sont également prévues par le règlement, notamment la désignation d’un point de contact unique au sein de l’hébergeur, afin de fluidifier les échanges avec les pouvoirs publics ; la conservation à des fins administratives et judiciaires des contenus litigieux bloqués ou retirés ; ainsi que de nouvelles exigences, à l’égard des utilisateurs, en matière de transparence.

Anticipant l’entrée en vigueur de ce règlement, le législateur a déjà inscrit dans la loi confortant le respect des principes de la République que le régime juridique actuel cesse d’être applicable, s’agissant des contenus à caractère terroriste, à partir du 7 juin 2022.

Les auditions que j’ai menées m’ont convaincue de la pertinence du texte et de sa nécessité, pour faire face à ces ennemis invisibles et mouvants, que sont le terrorisme et sa propagande. Jean-François Ricard, procureur national antiterroriste a ainsi expliqué, lors de son audition, que le phénomène de recrutement de mineurs, notamment d’enfants de moins de 15 ans, à partir de la diffusion en ligne des contenus à caractère terroriste, a été très marqué en 2021. Ces contenus contribuent d’abord à la radicalisation de ces jeunes, puis permettent la transition entre le stade de la fascination morbide et celui de la préparation d’une action.

Si leur prompt retrait ne saurait à lui seul suffire à remédier à ce phénomène, il est néanmoins absolument nécessaire d’y parvenir tant la circulation de ces contenus et la facilité avec laquelle ils sont accessibles sont préoccupantes.

C’est dans ce cadre que la présente proposition de loi est soumise à nos débats. Les règlements européens sont, par essence, d’application directe. Cependant, les dispositions du règlement TCO nécessitent d’adapter à la marge notre législation nationale afin de garantir, comme le droit européen nous y oblige, l’application pleine et entière de ses dispositions.

Ainsi, la proposition de loi comprend un article unique insérant quatre nouveaux articles dans la LCEN. Le premier habilite l’autorité administrative, désignée par décret, à émettre des injonctions de retrait ou de blocage des contenus à caractère terroriste. Il désigne l’Arcom comme autorité compétente en matière d’examen approfondi de ces injonctions et pour l’application des mesures spécifiques prévues à l’encontre des hébergeurs exposés.

Le deuxième prévoit de nouvelles sanctions pénales à l’encontre des fournisseurs de services d’hébergement qui ne respecteraient pas les obligations de retrait des contenus.

Le troisième permet à l’Arcom de mettre en demeure l’hébergeur de se conformer aux principales obligations prévues par le règlement européen et, en cas de non-conformité, prévoit la possibilité de prononcer une sanction pécuniaire à l’encontre de l’hébergeur.

Le dernier article instaure plusieurs voies de recours à la disposition des fournisseurs de services d’hébergement et des fournisseurs de contenus.

Mes échanges avec les acteurs concernés par le texte ont permis de soulever plusieurs points pouvant faire l’objet d’une réécriture, dans les limites liées à la nécessité de ne pas aboutir à un texte contredisant le règlement européen. Outre plusieurs amendements de nature rédactionnelle, je présenterai quelques suggestions de modification du dispositif, qui amélioreront concrètement le texte soumis à vos débats.

Je défendrai en particulier la nomination d’un suppléant de la personnalité qualifiée de l’Arcom, afin de garantir le traitement de l’examen approfondi des injonctions de retrait dans des délais raisonnables. J’ajouterai une précision selon laquelle l’Arcom n’est compétente que pour les hébergeurs dont l’établissement principal se situe en France, conformément à la lettre du texte européen. Je demanderai également le renforcement des prérogatives de l’Autorité en matière de collecte de l’information et de prononcé des mises en demeure ainsi que la saisine du Conseil d’État au lieu du tribunal administratif pour les hébergeurs souhaitant obtenir la réformation des décisions de l’Arcom s’agissant des mesures spécifiques imposées aux prestataires exposés.

C’est ce texte, ainsi amendé, travaillé avec l’ensemble des acteurs chargés, de près ou de loin, de la lutte contre la propagation des contenus à caractère terroriste, que je vous encourage à voter largement.

Mme Laetitia Avia (LaREM). Je remercie la rapporteure pour cette contribution à la lutte contre les contenus dangereux sur internet. Le sujet est important eu égard à la réalité de la menace terroriste par les outils et les usages numériques.

On le sait, en matière de contenus à caractère terroriste, internet est un lieu à la fois d’endoctrinement, d’exhibition, de revendication et de propagande. Rappelons-nous la tuerie de Christchurch, l’assassinat de Samuel Paty et toutes les affaires qui sont traitées quotidiennement par les cellules de lutte contre le terrorisme et par Viginum, le service de vigilance et de protection contre les ingérences numériques étrangères.

Ce texte important nous donne les armes nécessaires pour lutter contre des contenus qui se répandent avec viralité sur les réseaux et internet, comme sur des sites plus secrets, réservés, mais tout aussi dangereux. Dans le cadre de l’examen de ma proposition de loi, le Gouvernement avait proposé d’intégrer ce que l’on appelle communément la golden hour, c’est-à-dire le retrait en une heure des contenus à caractère terroriste. À l’époque, les discussions étaient en cours à l’échelle européenne sur ce sujet. La disposition, que nous avions intégrée, a malheureusement été censurée par le Conseil constitutionnel car le texte ne proposait pas assez de garde-fous.

Depuis, le contexte a radicalement évolué : il y a eu une prise de conscience au sein de la société. Le texte a une assise européenne puisqu’il fait l’objet d’un règlement, que l’ensemble des États membres a adopté. Nous avons créé l’Arcom, le régulateur du numérique. Le Parlement européen et la Commission européenne ont voté le digital services act (DSA), un des textes fondateurs de la régulation du numérique. Nous l’avions anticipé dans le cadre de la loi du 24 août 2021 confortant les principes de la République. C’est donc dans un contexte bien différent que nous examinons ces dispositions d’adaptation nécessaires au règlement TCO.

Il reste quelques points d’ajustement et d’interrogation : outre ceux que la rapporteure a évoqués, l’articulation entre les régimes de sanction pose problème tant à l’échelle nationale qu’européenne. Le TCO prévoit que des sanctions, pouvant aller jusqu’à 4 % du chiffre d’affaires, s’appliquent au moindre manquement. La loi française mentionne des sanctions plus systémiques, pouvant aller jusqu’à 6 % du chiffre d’affaires. Nous parviendrons sans aucun doute à clarifier ce point lors de nos débats.

Le groupe La République en marche apporte son entier soutien à cette proposition de loi de grande importance.

M. Raphaël Schellenberger (LR). Nous n’avons pas fini de mesurer les effets d’internet sur certains phénomènes liés aux réseaux criminels. En 2015 et 2018, nous avons pu constater le rôle qu’a joué internet dans la diffusion et le recrutement des agents de ces entreprises terroristes, et comment il a permis de préparer et de faciliter les activités terroristes, puis d’en faire l’apologie. Ces contenus à caractère terroriste, partagés en ligne, ont largement contribué à la radicalisation des « loups solitaires ».

En réponse à cela, les autorités publiques ont d’abord appelé les fournisseurs de services d’hébergement à prendre certaines mesures. De tels efforts ont contribué à améliorer les réactions des entreprises aux signalements effectués par les autorités nationales ainsi que l’unité européenne chargée du signalement des contenus sur internet, et à renforcer la coopération au niveau européen. Dès mars 2018, la Commission européenne a adopté une recommandation sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne. Elle comprenait un chapitre spécifique recensant les mesures visant à endiguer efficacement le téléchargement et le partage de propagande terroriste en ligne. On peut citer par exemple l’amélioration de la procédure de signalement, un délai de réponse au signalement d’une heure, une détection plus proactive, une suppression effective et des mesures de sauvegarde suffisantes pour évaluer avec précision les contenus à caractère terroriste.

En imposant un ensemble minimal d’obligations de vigilance aux fournisseurs de services d’hébergement, des règles et des contraintes spécifiques ainsi que des obligations aux États membres, la proposition de règlement, présentée par la Commission européenne les 19 et 20 septembre 2018, pour concrétiser ces engagements, visait à accroître l’efficacité des mesures pour détecter, identifier et supprimer les contenus à caractère terroriste en ligne, sans pour autant empiéter sur les droits fondamentaux, tels la liberté d’expression et d’information. En matière de lutte contre le terrorisme, l’équilibre est parfois difficile à trouver : il est néanmoins important de chercher à le préserver. Ce n’est pas en piétinant nos valeurs que nous les ferons triompher.

La présidence allemande du Conseil de l’Union européenne a mené à bien les négociations entre la présidence, le Parlement européen et la Commission européenne sur le règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. Grâce à lui, les entreprises de l’internet peuvent se voir contraintes de supprimer des contenus à caractère terroriste en ligne en l’espace d’une heure, à la suite d’une injonction des autorités administratives.

La présente proposition de loi a pour objectif de procéder aux adaptations de la législation nationale que nécessite le règlement, en créant de nouveaux articles dans notre code. Le groupe Les Républicains la soutiendra.

Mme Marietta Karamanli (SOC). La proposition de loi que nous examinons décline le règlement européen du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne, qui vise à lutter contre les propos illicites de nature terroriste, appelant à recourir à la violence, notamment physique, et au meurtre.

En décembre 2020, le Parlement européen et le Conseil sont parvenus à un accord final sur un règlement imposant dans un délai d’une heure, de retirer les contenus à caractère terroriste signalés. Étant donné l’ampleur du problème et la rapidité nécessaire pour identifier et retirer efficacement ces contenus, il est précisé que l’adoption de mesures spécifiques, efficaces et proportionnées constitue un élément essentiel de la lutte contre les contenus à caractère terroriste en ligne.

Le projet, qui remontait à 2018, considère internet comme un outil privilégié de propagande et de recrutement des réseaux terroristes. Le règlement garantit que ce qui est illégal hors ligne l’est aussi en ligne. Il est demandé aux plateformes d’agir à temps et de faire preuve d’assez de transparence sur les mesures appliquées. À défaut, elles s’exposent à des sanctions décidées par les États membres demandant le retrait de contenus terroristes. S’agissant de l’internationalisation de la lutte, des ordres transfrontaliers de retrait des contenus doivent pouvoir être effectués.

Le règlement ne prévoit pas d’obligation de surveillance générale à la charge des plateformes, ni de recours à des filtres automatisés. Les contenus à caractère éducatif, journalistique et artistique sont exclus du texte. Celui-ci précise que l’autorité administrative – en l’espèce, l’Arcom – pourra émettre des injonctions, ainsi que les sanctions administratives et pénales possibles.

Si nous n’avons pas déposé d’amendement à la présente proposition de loi, nous comptons nous prononcer au regard des réponses que recueilleront nos trois observations.

D’abord, nous ne disposons d’aucune évaluation comparative des dispositions prises par les autres pays de l’Union européenne : elle aurait pu contribuer à notre réflexion sur une possible harmonisation de la réglementation applicable, au moins par les grands États.

Nous regrettons ensuite que la proposition de loi soit examinée selon la procédure accélérée. La procédure ordinaire reste la norme dans notre Constitution.

Enfin, si le règlement, d’application générale et immédiate dans l’ordre juridique de chaque État, a prévu une évaluation au bout de trois ans, la proposition de loi n’y fait pas référence, de même qu’à des travaux à venir.

Sur le fond, nous sommes d’accord : il faut faire tout ce qui est possible pour lutter contre les messages terroristes. Mais les trois éléments que j’ai soulevés au nom du groupe Socialistes et apparentés méritent examen. La discussion est ouverte pour déterminer si des amendements devront être déposés en ce sens.

M. Dimitri Houbron (Agir ens). Depuis plusieurs années, notre société est confrontée à la propagande terroriste en ligne, qui incite des individus à commettre des attentats, notamment en leur donnant des instructions détaillées sur la manière d’infliger un préjudice maximal. Après la commission de ces atrocités, les organisations terroristes revendiquent l’attentat et opèrent une propagande supplémentaire, en ligne, pour faire l’apologie de leurs actes et inciter d’autres personnes à les rejoindre.

Pour endiguer cette spirale, la présente proposition de loi s’attache à établir une protection de la sécurité publique, en réduisant l’accessibilité des contenus à caractère terroriste, qui promeuvent et encouragent la violation des droits fondamentaux. Cette lutte contre la diffusion des contenus à caractère terroriste en ligne est la composante d’une problématique globale des contenus illicites en ligne. Son traitement a nécessité un arsenal combiné de mesures législatives et réglementaires, fondées sur une collaboration entre les autorités et les fournisseurs de services d’hébergement. Cette combinaison de dispositifs doit être établie dans le strict respect des droits fondamentaux – le groupe Agir ensemble y a toujours veillé.

Le Gouvernement a pris différentes mesures et initiatives, et réalisé des efforts dans ce domaine.

D’abord, grâce à l’action du garde des sceaux, un pôle national de lutte contre la haine en ligne a été créé au sein du parquet de Paris, pour centraliser le traitement des affaires les plus significatives et complexes. Depuis sa création, le 4 janvier 2021, il s’est saisi de plus de 140 dossiers. La nouvelle entité est appuyée par le parquet de Paris, qui apporte son expertise à l’ensemble des juridictions, et peut se saisir de toute affaire relevant de la lutte contre la haine en ligne.

Ensuite, grâce à l’adoption de la loi confortant le respect des principes de la République, dite de lutte contre les séparatismes, le pôle national de lutte contre la haine en ligne est doté d’outils supplémentaires, avec la création du délit de mise en danger de la vie d’autrui par la diffusion d’informations personnelles et surtout, avec la possibilité, en cas de flagrant délit, de procéder à des comparutions immédiates, jusqu’alors impossibles en droit de la presse.

Le Gouvernement a aussi contribué à renforcer les capacités humaines de la plateforme PHAROS, un outil qui a répertorié 263 825 signalements en 2021, dont 7 894 liés au terrorisme.

La collaboration européenne est nécessaire pour éradiquer cette propagande terroriste. J’ai eu le plaisir d’accueillir le garde des sceaux, avec plusieurs de ses homologues européens à Lille, pour renforcer la lutte contre la haine en ligne et le harcèlement. Il s’agissait de définir un cadre clair et européen, pour contraindre les plateformes comme Google, Twitter et Facebook à collaborer avec les services de la justice. Cette batterie de mesures et d’initiatives doit être complétée par une législation qui renforce la loi pour la confiance dans l’économie numérique, afin d’être en conformité avec la réglementation européenne.

La présente proposition de loi vise ainsi à établir un cadre juridique clair et harmonisé, pour prévenir l’utilisation abusive des services d’hébergement pour la diffusion de contenus à caractère terroriste en ligne, afin d’assurer le bon fonctionnement du marché unique numérique, tout en garantissant la confiance et la sécurité.

Elle vise aussi à préciser la responsabilité que doivent assurer les fournisseurs de services d’hébergement pour prendre toutes les mesures appropriées, raisonnables et proportionnées, nécessaires pour garantir la sécurité de leurs services ainsi que pour détecter et supprimer rapidement et efficacement les contenus à caractère terroriste en ligne, en tenant compte de l’importance fondamentale de la liberté d’expression et d’information dans une société ouverte et démocratique.

Dans la mesure où la proposition de loi entend déployer les dispositifs européens sur notre sol, pour améliorer la lutte contre la diffusion de ces contenus et s’attache à prendre en compte le respect des droits fondamentaux, le groupe Agir ensemble la soutiendra.

Mme Blandine Brocard (Dem). Depuis 2015, les attentats terroristes qui ont frappé l’Europe, en particulier la France, ont démontré une utilisation croissante d’internet, surtout des réseaux sociaux, par les groupes terroristes, afin d’enrôler de nouvelles recrues, de faire de la propagande, de préparer et faciliter leurs activités terroristes, puis d’en faire l’apologie. Outre l’engagement volontaire des plateformes, la législation française a, dès 2014 par la loi renforçant les dispositions relatives à la lutte contre le terrorisme, établi un dispositif administratif unique de blocage et de déréférencement des contenus à caractère terroriste et pédophile, qui a été étoffé au cours des années.

L’Union européenne s’est par la suite emparée du sujet. En mars 2018, la Commission européenne a adopté une série de recommandations pour lutter efficacement contre le contenu illégal en ligne, avant de présenter, en septembre 2018, un projet de règlement qui, après plusieurs années de négociations, a abouti au règlement du 29 avril 2021 relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne, dit règlement TCO.

Le groupe Démocrate croit résolument en la nécessité d’envisager la régulation du numérique à l’échelle européenne, en particulier sur la question du terrorisme, où il nous faut encore approfondir et renforcer la mutualisation des moyens entre États. Seule l’Europe dispose aujourd’hui du poids nécessaire pour faire plier les grandes plateformes et assurer le respect de nos règles. C’est avec nos partenaires qu’il faut avancer sur ce sujet. La présidence française de l’Union européenne en donnera l’occasion.

Le règlement TCO, qui entrera en vigueur le 7 juin 2022, est une pierre supplémentaire de l’édifice. Il permettra une harmonisation dans l’Union européenne des moyens de lutte contre la radicalisation, tout en préservant la liberté d’expression et d’information ainsi que le pluralisme des médias. Si la plupart de ses dispositions figurent déjà dans notre législation, notamment grâce aux mesures que nous avons adoptées dans les dernières années, et bien que le règlement soit par principe d’application directe, il convient encore d’en adapter certaines dispositions afin d’assurer sa pleine effectivité. Tel est le cas pour la possibilité ouverte par le règlement d’enjoindre les plateformes de retirer dans l’heure des contenus à caractère terroriste.

Nous avons tous à l’esprit la proposition de loi de Laetitia Avia visant à lutter contre les contenus haineux sur internet qui prévoyait une disposition similaire imposant le retrait dans l’heure des contenus à caractère terroriste ou pédophile. Celle-ci a malheureusement été vidée de l’essentiel de son contenu par le Conseil constitutionnel au motif que ses dispositions portaient atteinte de manière disproportionnée à la liberté d’expression. Le Conseil a néanmoins validé le principe de l’injonction de retrait. Il considère ainsi que la diffusion de contenus incitant à la commission d’actes terroristes ou en faisant l’apologie constitue des abus de la liberté d’expression et de communication portant gravement atteinte à l’ordre public et aux droits des tiers.

Chacun en convient ici, nous ne pouvons pas laisser la moindre place à de tels abus et nous devons renforcer la lutte contre la violence en ligne qui ne cesse de se répandre.

La proposition de loi vise à rendre effectif le règlement TCO en désignant une autorité administrative compétente pour ordonner des injonctions de retrait et en attribuant à l’Arcom de nouvelles compétences pour veiller au respect du droit européen. Elle introduit également des sanctions pénales et administratives en cas de manquement, essentielles pour assurer le respect de nos engagements européens ainsi que le maintien de l’ordre public numérique.

J’insiste toutefois sur la nécessaire cohérence de notre législation avec le futur digital services act (DSA) que le Parlement européen a adopté il y a quelques jours et qui doit apporter de nouvelles solutions de régulation des plateformes. J’espère que la présidence française mènera à bien les négociations pour aboutir à une législation ambitieuse.

Le groupe du Mouvement démocrate soutient le présent texte qui, dans la lignée de la loi confortant le respect des principes de la République, permet de limiter les abus en ligne, de renforcer la protection de nos concitoyens et d’éviter qu’internet ne devienne une zone de non-droit.

M. Paul Molac (LT). Comme le disait le philosophe cuisinier grec Ésope de la langue, internet est capable du meilleur – il donne facilement accès à d’innombrables informations – comme du pire.

Parmi les difficultés que soulève le présent texte, je mentionnerai d’abord le choix d’une proposition de loi et non d’un projet de loi. La première est dispensée de l’avis du Conseil d’État et d’étude d’impact. Étant l’auteur de plusieurs propositions de loi, je suis bien placé pour savoir que, de ce fait, leur objet et le temps que nous consacrons à leur étude sont souvent limités.

Ensuite, il faut veiller à la proportionnalité des limites qui sont posées à des libertés essentielles – je suis toujours inquiet de telles restrictions. Nous ne sommes pas en Chine mais ce qui s’y passe doit nous alerter : la facilité avec laquelle internet est instrumentalisé pour fliquer les citoyens est affreuse.

Les plateformes expliquent qu’elles devront recourir à des algorithmes pour se conformer à l’obligation de retrait en une heure. C’est donc soit une machine soit l’autorité administrative qui décidera des contenus autorisés ou non. J’aurais préféré que ce soit le juge. C’est certes plus long et plus compliqué mais aussi plus respectueux de la séparation des pouvoirs. Nous avons déjà vu des préfets prendre des décisions d’interdiction de manifestation ou de stade dans le seul but de limiter d’éventuels désagréments pour eux.

Certains estiment que le règlement européen serait contraire à la Constitution. Comment surmonter un tel obstacle ? La révision de la Constitution n’est pas envisageable dans les quinze jours qu’il nous reste… Quelle sera donc la pérennité de la proposition de loi ?

Il est bien difficile de concilier notre droit, les libertés essentielles et la nécessaire protection contre des contenus inacceptables.

M. Ugo Bernalicis (FI). Dans la continuité de notre position sur la loi visant à lutter contre les contenus haineux sur internet, nous sommes opposés au présent texte non pas parce que nous contestons son objet – j’anticipe la caricature du groupe de La République en marche – mais pour les raisons suivantes.

La loi censurée par le Conseil constitutionnel contenait des mesures similaires à celles qui sont proposées là. L’association la Quadrature du net, dont l’avis est souvent précis, détaillé et fondé, nous l’a rappelé, le Conseil avait alors estimé que le délai très court dans lequel l’autorité administrative se prononce empêchait de saisir un juge pour garantir la liberté fondamentale qu’est la liberté d’expression. Dans son rapport d’activité de 2020, la CNIL considère, elle aussi, qu’il y a un problème de constitutionnalité dans la mesure où le règlement est d’application immédiate.

Certes, il n’y a pas pour les plateformes d’obligation de recourir à des algorithmes ou des filtres mais il n’y a pas d’interdits non plus. Ces dernières ont déjà annoncé qu’elles mettraient en place des algorithmes sans lesquels il leur serait impossible, disent-elles, de s’acquitter de leur tâche. Or lors de son audition à l’Assemblée, Frances Haugen nous a fait la démonstration de la perversité de tels algorithmes : alors qu’ils sont censés nous protéger, ils laissent passer certains contenus haineux et en censurent d’autres qui ne le sont pas. Bastien Lachaud a subi les foudres d’un algorithme pour une vidéo de son intervention à la tribune dans laquelle il indiquait son opposition au passe sanitaire. Nous avons fait intervenir le ministre pour que la vidéo soit de nouveau accessible, mais tout le monde n’a pas cette chance. Pendant ce temps, pour ceux qui nous menacent sur les réseaux sociaux, arme à la main, l’algorithme n’existe pas. Finalement, qui peut trancher ? La justice, avec ses lenteurs, certes. Ce sont peut-être elles qui vous gênent ; pourtant, j’avais cru comprendre que la justice était réparée, qu’elle avait reçu des « sucres rapides ». Ce n’est évidemment pas le cas. Nous y remédierons le moment venu en augmentant les effectifs dédiés.

L’enquête sur l’assassinat de Samuel Paty a montré que des signalements avaient été transmis à la plateforme PHAROS – plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements. Mais nous manquons de moyens humains pour surveiller ce qui se passe sur internet, analyser et prendre des décisions. Vous avez d’ailleurs fini par renforcer PHAROS puisque c’est la seule chose à faire en la circonstance. Il faudrait également recruter des magistrats spécialisés.

Les terroristes utilisent les plateformes pour accroître l’audience de leur message mais c’est loin d’être le seul outil auquel ils ont recours : les actes qu’ils commettent et le traitement médiatique qu’ils reçoivent sont un amplificateur tout aussi puissant. Les plateformes les aident-elles à s’organiser ? Les services de renseignement le savent bien, les terroristes ne sont pas assez idiots pour passer par les plateformes pour communiquer entre eux.

Avec ce texte, vous manquez la cible que vous affirmez viser.

M. Stéphane Peu (GDR). Je reprends à mon compte plusieurs des propos de mes collègues, à commencer par l’incompréhension face au choix de la proposition de loi comme véhicule législatif d’autant plus après les déconvenues de la loi dite Avia. Le projet de loi aurait été utilement précédé d’une étude d’impact et d’un avis du Conseil d’État. Quelles sont les raisons de ce choix qui nous laisse perplexe ?

Il faut y ajouter le fait que le règlement n’a pas donné lieu à un vote en séance plénière au Parlement européen et a fait l’objet d’un avis très réservé des trois rapporteurs spéciaux des Nations unies allant jusqu’à demander son retrait ainsi que de réserves de la part de plus d’une soixantaine d’ONG. Ce contexte politique et juridique aurait justifié une autre manière de procéder que celle qui nous est proposée.

Je vous soumets nos réserves sous forme de questions et nous ferons connaître notre position sur le texte en séance.

En premier lieu, le recours à des procédures automatisées, incontournable compte tenu des délais imposés, est préoccupant. L’exemple donné par Ugo Bernalicis est parlant : un même algorithme censure un député à la tribune de l’Assemblée nationale mais tolère des appels au meurtre de députés. Les filtres automatisés sont sujet à caution.

Deuxième faiblesse, il est indiqué que tout État membre de l’Union européenne pourra intervenir auprès d’hébergeurs dans n’importe quel autre État de l’Union. Or, il ne vous a pas échappé que tous les États membres n’ont pas la même conception de l’État de droit et de la liberté d’expression. En vertu du règlement, ne pourrait-on pas voir les caricatures de Charlie Hebdo, qui ont abouti au drame que l’on sait, censurées au nom d’une conception restrictive de la liberté d’expression dans certains pays selon laquelle le blasphème est assimilé à du terrorisme ? Ce serait un paradoxe fâcheux. Nous sommes inquiets de la possibilité donnée à certains États de prendre des décisions en contradiction avec nos valeurs.

Dans un texte qui affecte les libertés, l’État de droit, la séparation des pouvoirs ou le rôle du juge sont des sujets qui méritent toute notre attention. En l’espèce, alors qu’il est bien question d’une liberté, le juge est complètement évincé, ce qui dénote la fragilité du dispositif.

Je ne nie pas l’urgence à agir pour défendre de manière efficace nos valeurs sans pour autant les piétiner.

M. Philippe Latombe. L’article 1er prévoit un dispositif identique à celui que le Conseil constitutionnel avait censuré dans sa décision du 18 juin 2020. Dès lors comment pourrait-il être conforme à la Constitution alors que celle-ci n’a pas été modifiée ?

Actuellement, une personnalité qualifiée est chargée au nom de la CNIL de contrôler les signalements et les demandes de retrait. Dans une affaire récente, l'Office central contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) avait retenu la qualification terroriste avant d’être contredit par la personnalité qualifiée de la CNIL. La décision judiciaire rendue le 31 janvier 2019 a donné raison à cette dernière. Or le texte confie désormais à l’Arcom la mission de contrôler mais aussi d’appliquer des sanctions. Pourquoi supprimer le contrôle exercé par la personnalité qualifiée que le législateur avait jugé pertinent en son temps ? Je doute que le texte puisse apporter une solution dans l’affaire que je viens d’évoquer mais peut-être me démentirez-vous.

M. Philippe Gosselin. Le texte va évidemment dans le bon sens. Qui peut refuser de lutter contre le terrorisme, contre la propagation de ce fiel sur internet et contre ces atteintes à l’État de droit ainsi qu’à l’intégrité de nos concitoyens ?

Néanmoins, on peut s’interroger sur la proportionnalité des dispositions qui sont prévues. Je regrette également l’absence d’avis du Conseil d’État et d’étude d’impact. Loin de moi toutefois l’impression que le texte est bâclé.

Stéphane Peu a pointé la diversité des conceptions au sein de l’Union européenne sur des sujets qui pourtant nous réunissent. L’Union rassemble des États aux cultures, aux sensibilités et aux histoires différentes. On peut regretter que la vision française ne domine pas mais les visions allemande ou hongroise sont tout aussi légitimes et méritent d’être respectées. On peut néanmoins craindre des ingérences fâcheuses.

À l’instar de Philippe Latombe, je m’interroge sur la conformité de l’article 1er à la décision du Conseil constitutionnel du 18 juin 2020. Je pensais que la vieille règle non bis in idem pouvait s’appliquer ici.

Sans me faire le porte-parole de la CNIL au sein de laquelle je représente l’Assemblée nationale, je m’interroge sur la disparition de la personnalité qualifiée. Qu’apporte le texte dans ce domaine ?

Mme Cécile Untermaier. Le choix de recourir à une proposition de loi qui nous prive de l’avis du Conseil d’État et d’étude d’impact suscite des interrogations. Bien sûr, nous pouvons décider seuls mais sur des sujets qui seront examinés par le Conseil constitutionnel, la prudence est de mise et l’éclairage d’autres institutions n’est pas inutile.

Nous redoutons la sanction du Conseil constitutionnel. Quelle est votre analyse ? Quelle est la position de la CNIL ?

Face à la difficulté de sanctionner les contenus sur un site hébergé en dehors de la France, le règlement est bienvenu. En revanche, l’utilité des dispositions qu’ajoute la proposition de loi ne nous paraît pas démontrée surtout en l’absence d’étude d’impact sur un sujet qui touche aux libertés fondamentales et au code pénal.

Mme Aude Bono-Vandorme, rapporteure. Madame Avia, s’agissant de l'harmonisation avec les sanctions prévues dans la loi confortant le respect des principes de la République, les obligations visées par ladite loi et par la présente proposition de loi peuvent concerner des types différents d'hébergeurs. La loi prévoit ainsi une sanction pouvant aller jusqu’à 6 % du chiffre d'affaires et 20 millions d'euros pour les contenus haineux. Cette disposition permet de sanctionner les manquements des opérateurs de plateformes en ligne mentionnés à l'article 6-4 de la loi pour la confiance dans l’économie numérique (LCEN) dont l'activité sur le territoire français dépasse un seuil de nombre de connexions déterminé par décret. Le dispositif créé par la loi ne concerne donc que les grandes plateformes. En revanche, les sanctions prévues dans la proposition de loi, qui sont plafonnées à 4 % du chiffre d'affaires en matière pénale et administrative, concernent l'ensemble des hébergeurs, y compris les plus petits. Le critère de la taille est pris en considération uniquement pour déterminer le quantum de la sanction. Le nouvel article 6-1-2 de la LCEN est donc susceptible de s’appliquer aux petits hébergeurs qui ne sont pas soumis aux obligations de diligence prévues par l'article 6-1-4.

En outre, le règlement TCO prévoit dans son article 18 un plafond pour les sanctions en cas de refus de se conformer aux injonctions de retrait. Il n'est donc pas possible d’infliger une sanction pour ce motif excédant 4 % du chiffre d'affaires. En revanche, pour les obligations administratives afférentes – transparence, instauration d'un point de contact, coopération avec les autorités, etc. –, il pourrait être envisagé d'aggraver les sanctions pour les aligner sur celles de la loi confortant le respect des principes de la République. Cependant, outre les difficultés posées par la taille des hébergeurs, il semble cohérent de ne pas sanctionner plus durement les manquements aux obligations administratives que les manquements aux obligations de retrait, ces dernières étant vraiment au cœur de notre dispositif. C’est pour cette même raison que je m’opposerai à tous les amendements visant à aggraver les sanctions.

Monsieur Schellenberger, je vous remercie pour votre soutien.

Madame Karamanli, le recours à la procédure accélérée me semble légitime puisque le règlement doit s’appliquer à compter du 7 juin 2022.

L’article 23 du règlement prévoit une évaluation, qui sera diligentée par la Commission européenne, au plus tard le 7 juin 2024. Il n’est donc pas nécessaire d’adopter une disposition en ce sens. Toutefois, rien n'empêche notre assemblée d'évaluer l'application de la présente proposition de loi comme elle le fait régulièrement.

Madame Brocard, la proposition de loi transpose le règlement TCO qui concerne les contenus à caractère terroriste en ligne tandis que le DSA vise à encadrer les plateformes et les réseaux sociaux afin de mieux lutter contre la haine en ligne et la désinformation. Il s'agit de responsabiliser les hébergeurs tels que Facebook, Twitter, YouTube quant aux contenus qu'ils diffusent. Le DSA prévoit aussi de nouvelles obligations visant à faciliter les signalements. En cela, le dispositif du DSA se rapproche de celui existant en droit français depuis 2021 dans l'article 6-4 de la LCEN. Les deux règlements ne sont pas incompatibles. Néanmoins, les dispositions du TCO priment sur celles du DSA, comme l’affirme d’ailleurs le considérant n° 9 du DSA.

Monsieur Molac, vous vous interrogez, comme plusieurs de nos collègues, sur la constitutionnalité de cette proposition de loi.

Le dispositif prévoit des garanties qui en assurent sa conformité à la Constitution. D’abord, la proposition de loi traduit simplement le droit européen : sa transposition est une obligation pour la France et le Conseil constitutionnel prévoit, à ce titre, un examen de constitutionnalité restreint. Ensuite, le périmètre matériel de l’infraction n’est pas le même que celui qui avait été retenu dans la loi Avia. La nature des contenus à caractère terroriste est précisément définie, tant dans notre code pénal que dans le règlement européen. Le champ d’application du texte est plus clair juridiquement, d’autant plus que seuls les contenus manifestement illicites sont visés.

En cas de non-respect des obligations administratives à la charge des hébergeurs, la proposition de loi ne prévoit pas de sanction immédiate, mais d’abord une mise en demeure. L’Arcom pourra même émettre des recommandations avant l’envoi de ces injonctions, qui ne sont pas obligatoires. En outre, s’agissant des obligations de retrait de contenus, la première notification est soumise à une information préalable de l’hébergeur au moins douze heures avant l’injonction. L’ensemble de ces éléments contribue à sécuriser ce texte et garantit à mon sens sa constitutionnalité.

Monsieur Bernalicis, s’agissant de la remarque que vous avez faite sur les députés du groupe La République en marche, j’ai envie de citer les mots de Talleyrand : « Tout ce qui est excessif est insignifiant. » N’oubliez pas que nous travaillons ensemble !

Vous vous inquiétez du recours aux algorithmes. L’article 5 du règlement encadre leur usage. Il prévoit l’introduction de garanties efficaces et appropriées, une surveillance et des vérifications humaines. Je vous renvoie à cet article, qui ne nécessite pas d’adaptation, qui est donc d’application directe et qui prévoit des garanties de proportionnalité et de non-discrimination dans les moyens mobilisés par les plateformes.

Monsieur Peu, s’agissant des injonctions de retrait transfrontalières, le principe du pays d’origine est imposé par le règlement. Toutes les autorités nationales sont soumises à ces dispositions, qui sont claires et directement applicables. Elles seront donc bien contraintes de retirer les contenus manifestement illicites, n’importe où dans l’Union.

M. Stéphane Peu. C’est précisément ce qui m’inquiète : tout État membre de l’Union pourra intervenir sur des contenus, alors que nous n’avons pas tous le même rapport à ceux-ci. Il ne faudrait pas que des choses auxquelles nous sommes très attachés, comme le blasphème ou la caricature, puissent être censurées au nom même des principes de certains États membres. Il serait paradoxal de vouloir lutter contre le terrorisme ou l’incitation au terrorisme en ligne et que cela se traduise par des sanctions contre ceux qui en sont victimes – par exemple Charlie Hebdo.

Mme Aude Bono-Vandorme, rapporteure. Le pays qui reçoit un signalement dispose d’un délai pour analyser si le contenu a effectivement un caractère terroriste chez lui. Ce délai est bien prévu dans le règlement, car nous y tenions tous.

Monsieur Latombe, madame Untermaier, vous m’avez interrogée au sujet de la CNIL, que nous avons longuement auditionnée. Elle ne voit pas d’inconvénient à ce que l’Arcom devienne l’autorité compétente.

M. Philippe Latombe. Je ne comprends pas pourquoi la personnalité qualifiée issue de la CNIL disparaît du dispositif, alors qu’elle avait un intérêt évident. Elle pouvait, le cas échéant, s’opposer à la qualification d’actes terroristes retenue par l’OCLCTIC. L’Arcom aura désormais une double casquette, puisqu’elle sera chargée à la fois de contrôler et d’appliquer les injonctions. Or le législateur avait expressément introduit la personnalité qualifiée issue de la CNIL pour contrôler les qualifications de l’OCLCTIC.

Mme Aude Bono-Vandorme, rapporteure. Je vous ferai la même réponse que précédemment : la CNIL a été auditionnée et ne voit aucun inconvénient à ce que l’Arcom prenne cette responsabilité.

Article unique : Dispositions visant à lutter contre la diffusion de contenus à caractère terroriste en ligne

Amendement CL7 de M. Ugo Bernalicis.

M. Ugo Bernalicis. Nous demandons la suppression de l’article unique, car nous sommes opposés à ce texte.

Permettez-moi de vous lire un extrait de la décision du Conseil constitutionnel du 18 juin 2020, relative à la loi visant à lutter contre les contenus haineux sur internet :

« La diffusion d’images pornographiques représentant des mineurs, d’une part, et la provocation à des actes de terrorisme ou l’apologie de tels actes, d’autre part, constituent des abus de la liberté d’expression et de communication qui portent gravement atteinte à l’ordre public et aux droits des tiers. En imposant aux éditeurs et hébergeurs de retirer, à la demande de l’administration, les contenus que cette dernière estime contraires aux articles 227-23 et 421-2-5 du code pénal, le législateur a entendu faire cesser de tels abus.

Toutefois, d’une part, la détermination du caractère illicite des contenus en cause ne repose pas sur leur caractère manifeste. Elle est soumise à la seule appréciation de l’administration. D’autre part, l’engagement d’un recours contre la demande de retrait n’est pas suspensif et le délai d’une heure laissé à l’éditeur ou l’hébergeur pour retirer ou rendre inaccessible le contenu visé ne lui permet pas d’obtenir une décision du juge avant d’être contraint de le retirer. Enfin, l’hébergeur ou l’éditeur qui ne défère pas à cette demande dans ce délai peut être condamné à une peine d’emprisonnement d’un an et à 250 000 euros d’amende. »

Or le dispositif que vous proposez est exactement le même que celui qui a fait l’objet de cette décision, si ce n’est qu’il ne porte pas sur la pédopornographique et que le règlement précise maintenant que le caractère illicite des contenus doit avoir un caractère manifeste – mais je ne suis pas sûr que cela change radicalement l’appréciation du Conseil constitutionnel.

Par ailleurs, comme cela a été dit, il est regrettable que vous ayez choisi de passer par une proposition, et non par un projet de loi, puisque cela nous prive d’une étude d’impact, ainsi que d’un avis du Conseil d’État.

Enfin, ce dispositif dédouane les pouvoirs publics de leurs responsabilités, qu’il s’agisse de la personnalité qualifiée issue de la CNIL ou des magistrats, qui ne sont pas assez nombreux. Dans certains cas, des décisions s’imposent, mais il faut qu’elles soient respectueuses des droits fondamentaux, notamment de la liberté d’expression. On ne peut pas laisser des algorithmes faire ce travail. Certes, un contrôle humain s’exerce lorsque quelqu’un se plaint d’avoir été censuré, mais quel crédit accorder à ce contrôle, s’il s’exerce au sein des plateformes et après les algorithmes ?

Mme Aude Bono-Vandorme, rapporteure. Je vous ai déjà répondu au sujet de la proportionnalité du dispositif et de la constitutionnalité du texte.

Je rappelle que, pour les hébergeurs considérés comme exposés aux contenus à caractère terroriste, le texte prévoit des mesures spécifiques établies par l’hébergeur, sous le contrôle de l’Arcom, afin de prévenir les difficultés liées à la circulation de ces contenus tout en garantissant leur proportionnalité. Ces garanties figurent à l’article 5 du règlement européen.

Celui-ci dispose qu’un hébergeur exposé à des contenus à caractère terroriste doit inscrire dans ses conditions générales des dispositions visant à lutter contre l’utilisation abusive de ses services pour diffuser au public des contenus à caractère terroriste. Il se doit de les appliquer de manière diligente, proportionnée et non discriminatoire, en tenant dûment compte en toutes circonstances des droits fondamentaux des utilisateurs et en prenant en considération, en particulier, l’importance fondamentale de la liberté d’expression et d’information dans une société ouverte et démocratique, en vue d’éviter le retrait de matériel ne constituant pas un contenu à caractère terroriste.

J’émettrai donc un avis défavorable sur votre amendement.

M. Ugo Bernalicis. Imaginons que vous ayez raison et que ce texte soit, en effet, parfaitement rédigé – ce que je ne pense pas. La question de son effectivité et de son application concrète se pose tout de même.

En l’état du droit, il n’est pas permis de mettre en scène le meurtre d’un député ou d’appeler à le tuer avec une arme à la main. Pourtant, un tel contenu n’est pas censuré par les plateformes. En l’état du droit, rien n’incite à censurer l’intervention d’un député à la tribune de l’Assemblée, et pourtant, c’est ce que fait l’algorithme.

Ce que Frances Haugen nous a expliqué, c’est que même si ceux qui les créent sont animés des meilleures intentions, ces algorithmes ont un effet pervers que nous n’arrivons pas à contrôler. La massification des données fait que, même avec un texte génial, nous retomberons dans les mêmes travers si nous ne nous en remettons pas à une autorité judiciaire indépendante. La liberté d’expression ne sera pas respectée, dans bien des cas, et des contenus seront supprimés sans raison : je suis certain que nous le constaterons ensemble.

La philosophie du texte pousse les plateformes à utiliser le filet dérivant le plus large possible. En effet, elles risquent davantage d’être sanctionnées si elles n’ont pas supprimé un contenu à caractère terroriste, que si elles ont censuré un contenu qui n’aurait pas dû l’être. Voilà pourquoi, sur le fond, sur la forme et en droit, nous avons la conviction que ce texte ne doit pas être appliqué. Notre droit nous permet déjà, pour peu qu’on y mette les moyens – notamment humains – de retirer les contenus à caractère terroriste, tout en garantissant la liberté d’expression.

M. Philippe Latombe. Madame la rapporteure, je ne suis toujours pas convaincu de la constitutionnalité de cette proposition de loi, et ce, pour deux raisons.

Premièrement, dans sa décision du 18 juin 2020, le Conseil constitutionnel indiquait expressément que la détermination du caractère illicite des contenus à caractère terroriste ne devait pas être soumise à la seule appréciation de l’administration. Deuxièmement, il déplorait qu’il n’y ait pas de recours au juge.

La seule différence entre la proposition de loi que vous nous soumettez et celle qui a fait l’objet de la censure du Conseil constitutionnel, c’est le caractère manifeste.

Or, dans la décision de justice du 31 janvier 2019, c’est précisément le caractère manifeste des contenus qualifiés de terroristes par l’OCLCTIC qui a été contesté par le tribunal administratif. Le mot « manifeste » doit donc être discuté. Et le Conseil constitutionnel notait justement que ce caractère manifeste devait faire l’objet d’une discussion devant un juge.

Je ne vois pas en quoi l’article unique de cette proposition de loi est conforme aux prescriptions du Conseil constitutionnel. J’entends vos explications, mais je ne suis pas convaincu et je ne voterai donc pas cet article – mais je ne m’y opposerai pas non plus. Nous aurions gagné, sur ces questions qui concernent nos libertés individuelles et publiques, à connaître l’avis du Conseil d’État.

Mme Laetitia Avia. Je souhaite répondre à nos collègues en quatre points.

Premièrement, cette proposition de loi vise à adapter notre droit à un règlement européen qui s’impose à nous. L’étude d’impact n’a donc pas lieu d’être.

J’en viens, deuxièmement, à la constitutionnalité du texte. Je connais par cœur la décision du Conseil constitutionnel du 18 juin 2020. Il dit, d’abord, que les contenus ne sont pas définis. Or le règlement TCO définit les contenus à caractère terroriste, en se référant, non pas aux lois nationales, mais à la directive européenne du 15 mars 2017 relative à la lutte contre le terrorisme. Les choses sont définies dans le TCO : le champ de la loi n’est donc plus le même. Le Conseil constitutionnel indique ensuite qu’il faut un recours au juge, et que ce recours doit être suspensif. Je vous engage à lire les alinéas 25 et suivants de l’article unique, qui prévoient l’ensemble des recours juridictionnels. Le caractère suspensif de ces recours est prévu par l’article 3, alinéa 9, du TCO. Voilà un autre changement fondamental par rapport à ce que nous avions voté dans ma proposition de loi.

Troisièmement, il a beaucoup été question des algorithmes, mais il ne faut pas se tromper de sujet. Le retrait d’un contenu dans un délai d’une heure n’est pas le fait d’un algorithme. Le retrait algorithmique est un retrait préventif, qui a lieu avant tout signalement. Lorsqu’un contenu est retiré à la suite d’un signalement, ce n’est pas le fait d’un algorithme.

Quatrièmement, sur tous les textes relatifs au numérique que nous avons examinés depuis le début de la législature, la CNIL nous a dit que la personnalité qualifiée n’est pas opérationnelle, que ce dispositif ne fonctionne pas. L’Arcom n’aura pas de double casquette, puisqu’elle interviendra sur les contenus transfrontaliers, et l’OCLCTIC, sur les contenus nationaux.

Enfin, ne faisons pas dire à Frances Haugen ce qu’elle n’a pas dit. Elle est intervenue ici et au sein de l’Union européenne pour renforcer le DSA. C’est grâce à son intervention, à son action en faveur du DSA, que ce texte pourra être adopté dans le cadre de la présidence française de l’Union européenne.

Mme Cécile Untermaier. Notre groupe estime que la représentation nationale est insuffisamment informée sur ce texte. Cette proposition de loi est sans doute nécessaire, puisque le règlement européen doit s’appliquer dès le mois de juin.  Mais ne pourrait-on pas, d’ici à l’examen du texte en séance publique, consulter le Conseil d’État ? Admettez qu’il est difficile de se faire un avis, alors que nous n’avons qu’un exposé des motifs de deux pages. Au sujet d’un texte qui concerne nos libertés fondamentales, il paraît important de recueillir l’avis du Conseil d’État. Nous l’avons toujours fait sous la précédente législature.

Mme Aude Bono-Vandorme, rapporteure. Il est vrai que l’exposé des motifs ne fait que deux pages, mais un projet de rapport de vingt pages vous a également été remis.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CL8 de Mme Aude Bono-Vandorme.

Amendement CL9 de Mme Aude Bono-Vandorme. 

Mme Aude Bono-Vandorme, rapporteure. Le nouvel article 6-1-1 que la proposition de loi introduit dans la LCEN prévoit que la procédure d’examen approfondi d’une injonction de retrait transfrontalière est réalisée par une personnalité qualifiée désignée au sein de l’Arcom. Les délais dans lesquels cette personnalité qualifiée doit exercer ses compétences sont très courts et nécessitent une grande capacité de réaction. Or, dans certains cas, celle-ci peut ne pas être disponible immédiatement, ce qui compromet l’efficacité de la procédure.

Cet amendement vise ainsi à prévoir la désignation d’un suppléant dans les mêmes conditions que la personnalité qualifiée titulaire afin de garantir une réponse rapide en cas de sollicitation. Il répond à une demande formulée à la fois par la CNIL, qui est actuellement informée des procédures de blocage administratif sous l’empire de l’article 6-1 de la LCEN, et par l’Arcom.

La commission adopte l’amendement.

La commission adopte successivement les amendements CL10 et CL11, rédactionnels, CL12, de précision et CL13, rédactionnel, de Mme Aude Bono-Vandorme.

Amendement CL14 de Mme Aude Bono-Vandorme.

Mme Aude Bono-Vandorme, rapporteure. Dans la rédaction actuelle, l’Arcom ne pourrait mettre en demeure un hébergeur qu’en cas de manquement systématique ou persistant à des obligations administratives. Elle peut ensuite, en cas de réitération du même manquement, le sanctionner. Cet agencement me paraît trop restrictif, sachant que : d'une part, préalablement à une mise en demeure, l’Arcom est susceptible d’adresser des actes de droit souple aux hébergeurs en situation de manquement, comme des mises en garde, l’adoption d’une mise en demeure n’étant qu’une faculté ; d’autre part, avant une éventuelle sanction, les hébergeurs auront déjà été mis en demeure de se conformer à leurs obligations.

Il semble donc préférable de permettre à l’Arcom de mettre en demeure les hébergeurs pour tout manquement aux obligations administratives concernées, y compris en cas de manquements ponctuels auxdites obligations, étant entendu que cette évolution du texte n’est pas contraire aux dispositions du règlement.

La commission adopte l’amendement.

La commission adopte successivement les amendements rédactionnels CL15, CL17, CL16, CL18, CL19, CL21, CL22 de Mme Aude Bono-Vandorme.

 

Amendement CL23 de Mme Aude Bono-Vandorme.

Mme Aude Bono-Vandorme, rapporteure. Il s’agit d’habiliter l’Arcom à recueillir les informations nécessaires pour faire appliquer le règlement TCO.

L’Arcom est chargée d’une mission de veille générale et de suivi des obligations administratives découlant du règlement. Mais, en l’état de la rédaction du texte, cette autorité ne serait pas habilitée à recueillir, auprès des hébergeurs, les informations nécessaires au suivi des obligations qui s’imposent à eux, ce qui est susceptible de rendre plus difficile l’exercice de sa mission de contrôle.

Il me semble donc opportun de doter l’Arcom des pouvoirs nécessaires pour recueillir les informations pertinentes auprès des hébergeurs. Tel est l’objet de cet amendement.

La commission adopte l’amendement.

La commission adopte successivement les amendements rédactionnels CL24, CL25, CL26 et CL28 de Mme Aude Bono-Vandorme.

Amendement CL33 de Mme Aude Bono-Vandorme.

Mme Aude Bono-Vandorme, rapporteure. L’article R. 311-1 du code de justice administrative prévoit que les décisions adoptées par l’Arcom en tant qu’organisme collégial sont en principe susceptibles de recours devant le Conseil d’État. Or la rédaction actuelle de la proposition de loi retient la compétence du tribunal administratif.

Je propose de remplacer le tribunal administratif par le Conseil d’État comme autorité compétente pour se prononcer sur la réformation des décisions prises par l’Arcom à l’encontre des hébergeurs considérés comme exposés ou leur enjoignant de prendre des mesures spécifiques.

La commission adopte l’amendement.

La commission adopte l’article unique modifié.

L’ensemble de la proposition de loi est ainsi adopté.

*

*     *

La Commission examine ensuite les pétitions (M. Christophe Euzet, rapporteur).

Après que M. Christophe Euzet, rapporteur, a présenté les six pétitions renvoyées à la Commission ayant reçu plus de 5 000 signatures (nos 63, 92, 280, 444, 496, 507), la Commission décide leur classement, en application de l’article 148 du Règlement.

Cet examen ne fait pas l’objet d’un compte rendu écrit. Les débats sont accessibles sur le portail vidéo du site de l’Assemblée nationale à l’adresse suivante : https://assnat.fr/pVzHbv.

 

La séance est levée à 11 h 20.

————


Membres présents ou excusés

Présents. - Mme Caroline Abadie, Mme Laetitia Avia, M. Ugo Bernalicis, M. Philippe Berta, Mme Aude Bono-Vandorme, M. Florent Boudié, Mme Blandine Brocard, Mme Nicole Dubré-Chirat, M. Christophe Euzet, M. Philippe Gosselin, M. Victor Habert-Dassault, M. Dimitri Houbron, M. Sacha Houlié, Mme Élodie Jacquier-Laforge, Mme Catherine Kamowski, Mme Marietta Karamanli, M. Guillaume Larrivé, M. Philippe Latombe, Mme Marie-France Lorho, M. Olivier Marleix, M. Fabien Matras, M. Stéphane Mazars, Mme Emmanuelle Ménard, M. Jean-Michel Mis, M. Paul Molac, Mme Naïma Moutchou, M. Matthieu Orphelin, M. Didier Paris, M. Pierre Person, M. Stéphane Peu, M. Jean-Pierre Pont, M. Rémy Rebeyrotte, M. Thomas Rudigoz, M. Pacôme Rupin, M. Raphaël Schellenberger, M. Jean Terlier, M. Alain Tourret, Mme Cécile Untermaier

Excusés. - M. Ian Boucard, Mme Yaël Braun-Pivet, M. Vincent Bru, Mme Marie-George Buffet, M. Éric Ciotti, M. Philippe Dunoyer, Mme Isabelle Florennes, Mme Paula Forteza, Mme Camille Galliard-Minier, M. Guillaume Gouffier-Cha, M. Mansour Kamardine, M. Pierre Morel-À-L'Huissier, Mme Valérie Oppelt

Assistaient également à la réunion. - M. Pieyre-Alexandre Anglade, M. Erwan Balanant