—  1  —

N° 5024

______

ASSEMBLÉE   NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

 

Enregistré à la Présidence de l'Assemblée nationale le 9 février 2022.

RAPPORT

FAIT

AU NOM DE LA COMMISSION DES LOIS CONSTITUTIONNELLES,
DE LA LÉGISLATION ET DE L’ADMINISTRATION GÉNÉRALE
DE LA RÉPUBLIQUE, SUR LA PROPOSITION DE LOI
 

portant diverses dispositions d’adaptation au droit de l’Union européenne
en matière de prévention de la diffusion de contenus
à caractère terroriste en ligne,

 

PAR Mme Aude BONO-VANDORME

Députée

——

 

 

 

 

 

 

 

 

 

 

 


 

Voir le numéro : 4883 rect.

 


—  1  —

 

SOMMAIRE

___

Pages

avant-propos............................................... 5

Examen DE la proposition de loi

Article unique (Art. 6-1-1 à 6-1-4 [nouveaux] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique) Dispositions visant à lutter contre la diffusion de contenus à caractère terroriste en ligne

compte rendu des débats

PERSONNES ENTENDUES PAR LA RAPPPORTEURE


—  1  —

 

 

Mesdames, Messieurs,

La lutte contre la propagation des contenus à caractère terroriste et, plus largement, contre l’ensemble des contenus haineux, nécessite une adaptation constante de notre droit.

Bien que la circulation de contenus néfastes en ligne soit une préoccupation de longue date des pouvoirs publics, cette législature a été l’occasion de grandes avancées pour mieux les armer et les aider à faire face à ce phénomène particulièrement destructeur. Les lois du 24 juin 2020 visant à lutter contre les contenus haineux sur internet et du 24 août 2021 confortant le respect des principes de la République s’inscrivent chacune pleinement dans cette démarche et constituent d’importantes avancées dans ce combat qui doit tous nous mobiliser.

Sous l’influence d’un droit européen de plus en plus protecteur, car conscient des enjeux de société et des défis auxquels nous soumet collectivement la haine en ligne, le cadre applicable aux contenus à caractère terroriste est voué à changer très prochainement afin de mieux prendre en compte ce phénomène évolutif, sa viralité et la fascination morbide qu’il peut exercer. 

Le règlement (UE) 2021/784 du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne, qui entrera en vigueur le 7 juin 2022, prévoit notamment le retrait ou le blocage de tels contenus dans un délai d’une heure, tout en assortissant cette disposition de garanties fortes visant à protéger les libertés fondamentales consacrées par les droits européen et national.

Enregistrée à la Présidence de l’Assemblée nationale le 11 janvier 2022, la proposition de loi portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne a pour ambition de permettre l’application pleine et entière du règlement européen. Elle décline ainsi certaines de ses dispositions afin de garantir l’adéquation entre le droit européen et la législation française.

La commission des Lois a choisi d’amender à la marge cette proposition de loi, dans le respect des obligations des pouvoirs publics de se conformer au règlement.

Le texte résultant de cet examen, et élaboré en association avec l’ensemble des acteurs chargés, de près ou de loin, de la lutte contre la propagation des contenus à caractère terroriste, met en conformité le droit français et les dispositions du règlement européen. Surtout, il présente un équilibre satisfaisant entre l’efficacité et l’opérationnalité des obligations qu’il met en place, d’une part, et le respect des droits et des libertés des citoyens qu’il garantit, d’autre part.


—  1  —

Examen DE la proposition de loi

Article unique
(Art. 6-1-1 à 6-1-4 [nouveaux] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique)
Dispositions visant à lutter contre la diffusion de contenus à caractère terroriste en ligne

Adopté par la Commission avec modifications

       Résumé du dispositif et effets principaux

La proposition de loi comprend un article unique insérant des articles 6-1-1 à 6-1-4 dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN) :

– l’article 6‑1‑1 habilite l’autorité administrative ([1]) à émettre des injonctions de retrait ou de blocage des contenus à caractère terroriste. Il prévoit la compétence de la personnalité qualifiée désignée au sein de l’autorité de régulation de la communication audiovisuelle et numérique (Arcom) ([2]) pour connaître des demandes d’examen approfondi des injonctions de retrait et pour l’application des mesures spécifiques prévues à l’encontre des hébergeurs « exposés » ([3]) par le règlement européen du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne ;

– l’article 6‑1‑2 prévoit de nouvelles sanctions pénales à l’encontre des fournisseurs de services d’hébergement qui ne respecteraient pas les obligations de retrait des contenus à caractère terroriste et de coopération avec les autorités ;

– l’article 6‑1‑3 permet à l’Arcom de mettre en demeure l’hébergeur de se conformer aux principales obligations prévues par le règlement européen et prévoit, en cas de non-conformité, la possibilité de prononcer une sanction pécuniaire à l’encontre de l’hébergeur ;

– enfin, l’article 6‑1‑4 prévoit les différentes voies de recours à la disposition des fournisseurs de services d’hébergement et des fournisseurs de contenus.

       Modifications apportées par la Commission

Outre plusieurs amendements rédactionnels, la Commission a adopté cinq amendements de votre rapporteure permettant la nomination d’un suppléant de la personnalité qualifiée de l’Arcom, précisant l’étendue des compétences et des prérogatives de cette autorité et prévoyant la compétence du Conseil d’État pour connaître des recours formés contre les décisions de l’Arcom par les hébergeurs « exposés ».

I.   la construction progressive, sous l’impulsion du législateur européen, d’un régime juridique efficace de retrait ou de blocage de certains contenus en ligne

Tout en affirmant l’absence de responsabilité générale des fournisseurs d’accès à internet et des hébergeurs pour les contenus qu’ils transmettent ou qu’ils stockent, le droit de l’Union européenne prévoit l’instauration, à partir du 7 juin 2022, de nouvelles obligations à l’égard des hébergeurs afin de mieux lutter contre la diffusion en ligne de contenus à caractère terroriste (A). Bien que le règlement soit par nature d’application directe, certaines de ses dispositions nécessitent d’adapter le régime juridique français relatif au retrait ou au blocage de ces contenus, qui a récemment fait l’objet d’évolutions importantes (B).

A.   Le règlement du 29 avril 2021 relatif aux contenus terroristes en ligne : un texte ambitieux qui ne remet pas en cause le régime de responsabilité des hébergeurs

1.   Le principe de responsabilité limitée des hébergeurs

La directive dite « e-commerce » ([4]), dont l’objectif est de contribuer à l’unification du marché en ligne européen, prévoit notamment que « les prestataires de services de la société de l’information », c’est-à-dire les fournisseurs d’accès à internet et les hébergeurs ([5]) dont l’activité revêt un caractère purement technique, automatique et passif, ne peuvent pas être tenus responsables à raison du contenu, édité par leurs utilisateurs, qu’ils se bornent à transmettre ou stocker.

Leur responsabilité peut cependant être engagée dès lors que ces prestataires acquièrent une connaissance effective du caractère illicite de ce contenu et n’ont pas agi promptement pour le retirer ([6]).

La directive interdit aux États membres d’imposer aux hébergeurs une obligation générale de surveiller les informations transmises ou stockées par ces mêmes prestataires, ni de rechercher activement les faits ou les circonstances révélant les activités illicites ([7]).

2.   De nouveaux dispositifs prévus par le règlement européen relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne

Adopté le 29 avril 2021 pour une application à compter du 7 juin 2022, le règlement européen relatif à la lutte contre la diffusion de contenus à caractère terroriste en ligne, dit « règlement TCO » réaffirme le principe de non‑responsabilité générale des hébergeurs ([8]).

Il prévoit cependant une série de nouvelles obligations à leur encontre, dont l’objet est d’établir « des règles uniformes pour lutter contre l’utilisation abusive de services d’hébergement pour diffuser au public » ce type de contenus ([9]).

Les contenus à caractère terroriste ciblés par le règlement

Le règlement énumère sept catégories de contenus à caractère terroriste pouvant faire l’objet d’une injonction. Il peut s’agir du matériel :

– incitant à commettre certaines infractions à des fins terroristes ([10]) ;

– sollicitant une personne ou un groupe de personnes pour commettre l’une de ces mêmes infractions ;

– invitant à participer à une association de malfaiteurs en vue d’une entreprise terroriste ([11]) ;

– fournissant des instructions concernant la fabrication ou l’utilisation d’explosifs, d’armes ou de substances nocives ou dangereuses, ou concernant d’autres méthodes ou techniques spécifiques aux fins de commettre ou contribuer à commettre une infraction de nature terroriste ;

– constituant une menace quant à la commission d’une de ces infractions.

Le règlement exclut en revanche tout matériel « diffusé au public à des fins éducatives, journalistiques, artistiques ou de recherche, ou à des fins de prévention de la lutte contre le terrorisme, y compris le matériel qui représente l’expression d’opinions polémiques ou controversées dans le cadre du débat public » ([12]).

a.   De nouvelles obligations de retrait et de blocage

Définis par le règlement comme des « prestataires de services (…) qui consistent à stocker des informations fournies par un fournisseur de contenus à la demande de celui-ci », les hébergeurs proposant leurs services sur le territoire de l’Union européenne sont assujettis à deux nouvelles obligations de blocage ou de retrait sur injonction, simple ou transfrontalière.

Ces injonctions consistent, dans les deux cas, à enjoindre l’hébergeur de retirer les contenus à caractère terroriste qui lui sont notifiés par l’autorité administrative, ou de bloquer l’accès à ces contenus dans tous les États membres.

● L’injonction simple (article 3)

Dans le cas d’une injonction simple, l’autorité compétente au sein d’un État membre peut émettre une injonction de retrait ou de blocage à tout hébergeur dont l’établissement principal est situé sur le territoire de cet État membre ([13]). Ainsi, l’autorité administrative française est habilitée à adresser une injonction à tous les hébergeurs dont l’établissement principal se trouve en France.

La procédure varie légèrement en situation d’urgence, où l’obligation d’information préalable de l’hébergeur n’est pas applicable mais, dans tous les cas, l’hébergeur doit se plier à l’injonction dès que possible et au plus tard dans un délai d’une heure après réception de cette injonction.


—  1  —

La procédure d’injonction simple

Hors urgence

Au moins 12 heures avant la première injonction adressée à l’hébergeur

L’autorité informe l’hébergeur sur les procédures et délais applicables

Lors de l’injonction

L’autorité adresse l’injonction au point de contact identifié par l’hébergeur (voir infra)

Dans un délai d’une heure après réception de l’injonction

L’hébergeur se plie à l’injonction et informe l’autorité de son exécution

Procédure d’urgence ([14])

L’autorité administrative n’est pas tenue par l’obligation d’information douze heures avant l’envoi de la première injonction

En cas de force majeure ou d’impossibilité de fait qui ne lui sont pas imputables, l’hébergeur peut ne pas se conformer à l’injonction. Il doit alors en informer l’autorité administrative. Il en est de même lorsque la demande de retrait ou de blocage contient des erreurs manifestes ou ne comprend pas assez d’informations pour en permettre l’exécution.

Le règlement prévoit, parmi ses annexes, un formulaire type que l’autorité administrative doit remplir pour formaliser son injonction. Il existe également deux autres formulaires annexés, à remplir par l’hébergeur : l’un afin d’indiquer à l’autorité administrative les mesures prises à la suite d’une injonction, l’autre lorsque l’hébergeur n’est pas en capacité d’y répondre.

● L’injonction transfrontalière (article 4)

Le règlement instaure une procédure d’injonction transfrontalière, qui a vocation à s’appliquer lorsque l’autorité administrative souhaite le retrait ou le blocage de contenus hébergés par un prestataire dont l’établissement principal est situé dans un autre État membre.

Dans un tel cas de figure, la procédure simple prévue à l’article 3 du règlement s’applique, mais l’autorité souhaitant le retrait ou le blocage des contenus doit transmettre une copie de l’injonction à son homologue situé dans l’État où est localisé le fournisseur de services d’hébergement.

Cette procédure est plus protectrice pour l’hébergeur puisque l’autorité compétente de l’État où il se situe peut procéder, dans un délai de 72 heures à compter de la réception de la copie de l’injonction, à un examen approfondi de cette injonction « afin de déterminer si elle viole gravement ou manifestement le règlement ou les libertés et droits fondamentaux garantis par la Charte [des droits fondamentaux de l’Union européenne]. » L’examen approfondi est de droit à la demande des fournisseurs de services d’hébergement et de contenus dans les 48 heures à compter de la réception de l’injonction.

● L’information du fournisseur de contenus en cas de retrait ou de blocage

Lorsque l’hébergeur retire un contenu ou bloque l’accès permettant de le consulter, l’article 11 du règlement dispose qu’il en informe le fournisseur de contenus. Si ce dernier le souhaite, l’hébergeur l’informe également des motifs ayant conduit à prendre cette décision ou lui transmet une copie de l’injonction de retrait.

Ces obligations peuvent cependant être suspendues pour six semaines, voire douze, par une décision de l’autorité compétente, lorsqu’elles emportent des conséquences en matière de sécurité publique.

b.   L’instauration de mesures spécifiques pour les hébergeurs « exposés »

L’article 5 prévoit plusieurs mesures s’imposant aux seuls fournisseurs de services d’hébergement « exposés », c’est-à-dire « lorsque l’autorité compétente de l’État membre (…) a pris une décision, fondée sur des facteurs objectifs, tels que la réception par le fournisseur de services d’hébergement de deux injonctions de retrait définitives ou plus au cours des 12 derniers mois, constatant que le fournisseur de services d’hébergement est exposé à des contenus à caractère terroriste » et lui a notifié cette décision.

Ces hébergeurs sont contraints de mettre en œuvre des dispositions spécifiques afin de protéger leurs services contre la diffusion de contenus terroristes. Tout en laissant à l’hébergeur le choix des mesures qu’il pourrait adopter, le règlement donne plusieurs exemples de dispositions : il peut ainsi s’agir d’une dotation en personnel et de moyens techniques consacrés à cet objectif et de mécanismes de signalement, de marquage et de sensibilisation des utilisateurs.

Dans tous les cas, les mesures prises doivent être « efficaces pour réduire le degré d’exposition des services » aux contenus à caractère terroriste, « ciblées et proportionnées », respecter « [les] droits et l’intérêt légitime des utilisateurs » et être « appliquées avec diligence et de façon non discriminatoire » ([15]).    

Une fois notifié de la décision de le considérer comme « exposé », l’hébergeur dispose d’un délai de trois mois pour indiquer à l’autorité compétente les mesures qu’il compte adopter. Celle-ci peut lui enjoindre d’en prendre d’autres si elle estime que les dispositions mises en place sont insuffisantes. Cet exercice est ensuite renouvelé annuellement jusqu’à la levée du statut par l’autorité.

Par ailleurs, l’article 5 prévoit la possibilité de l’hébergeur de solliciter la révision de son statut d’hébergeur « exposé ». L’autorité compétente dispose alors de trois mois pour statuer sur cette demande.

c.   La coopération entre les fournisseurs de services d’hébergement, les autorités compétentes et Europol

Afin d’assurer le respect de ses obligations, l’hébergeur est soumis à une obligation de coopération avec les autorités compétentes et Europol.

En particulier, le paragraphe 5 de l’article 14 du règlement dispose que les hébergeurs doivent informer immédiatement les autorités chargées des enquêtes et poursuites pénales, dès qu’ils prennent connaissance d’un contenu à caractère terroriste présentant une menace imminente pour la vie.

d.   La conservation des contenus et des données connexes

L’article 6 du règlement oblige les hébergeurs à conserver pendant six mois les contenus à caractère terroriste retirés ou auxquels l’accès a été bloqué, ainsi que les données connexes ([16]), afin de permettre leur utilisation dans le cadre des procédures de réexamen administratif, de contrôle judiciaire ou de traitement des réclamations, et aux fins de prévention et détection d’infractions terroristes.

La durée de conservation de six mois peut être prolongée, à la demande de l’autorité ou de la juridiction compétente, « en cas de nécessité et aussi longtemps que nécessaire, aux fins de procédures de réexamen administratif ou de contrôle juridictionnel en cours ».

e.   De nouvelles exigences en matière de transparence

Le règlement impose aux hébergeurs :

– d’une part, d’exposer clairement, dans leurs conditions générales, leur politique de lutte contre la diffusion des contenus à caractère terroriste et, s’ils sont considérés comme hébergeur « exposé », une explication du fonctionnement des mesures spécifiques et des outils automatisés de traitement qu’ils peuvent mettre en place dans ce cadre ;

– d’autre part, lorsqu’ils font l’objet d’une injonction ou de mesures spécifiques au cours de l’année civile, les hébergeurs doivent publier un rapport de transparence sur ces mesures avant le 1er mars de l’année suivante ([17]).

f.   L’identification de l’hébergeur

Afin de garantir l’application du règlement, ses articles 15 et 17 détaillent les modalités d’identification des fournisseurs de services d’hébergement concernés par l’ensemble de ces obligations.

Si l’hébergeur est situé dans un État membre de l’Union européenne, il doit désigner un point de contact pour la réception et le traitement des injonctions de retrait.

Si l’hébergeur n’a pas son établissement principal dans l’Union européenne, il doit désigner un représentant légal dans un État membre où il propose ses services. Habilité à se conformer aux injonctions, le représentant légal peut être tenu pour responsable des violations du règlement.

B.   Le régime juridique français relatif au retrait et au blocage de certains contenus en ligne

Les dispositifs visant à lutter contre la prolifération de contenus à caractère terroriste et, plus largement, aux contenus relatifs à la haine en ligne, figurent essentiellement dans la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l'économie numérique (LCEN), transposant la directive « e-commerce ».

Cette loi instaure un régime général de responsabilité allégée pour les hébergeurs, dont la responsabilité civile et pénale ne peut être engagée que si, après avoir été informés de leur caractère illicite, ils n’ont pas agi promptement pour retirer le contenu ou en interdire l’accès ([18]).

Elle crée néanmoins un régime de responsabilité renforcée pour certaines infractions portant gravement atteinte à l’ordre public, constitutives de la haine en ligne, en posant un principe de coopération de ces prestataires à la lutte contre les contenus les plus gravement réprimés ([19]). Les hébergeurs doivent ainsi disposer d’un mécanisme de signalement de ces contenus, informer les autorités publiques de leurs signalements et rendre publics les moyens consacrés à la prévention de leur diffusion.

Ces obligations ont été récemment renforcées. Ainsi, depuis 2014, l’article 6-1 de la LCEN prévoit de nouvelles obligations à l’égard des hébergeurs pour les contenus liés au terrorisme ou à la pédopornographie (1) et, depuis 2021, de nouvelles obligations visant à mieux réprimer la propagation des contenus haineux en ligne sont entrées en vigueur (2).

1.   Une procédure de blocage des contenus à caractère terroriste ou pédopornographique

a.   Des dispositifs de blocage judiciaire et administratif prévus dès l’entrée en vigueur de la LCEN

La LCEN comportait dès sa promulgation une disposition, toujours en vigueur, relative au blocage judiciaire de certains sites, permettant à l’autorité judiciaire de prescrire, en référé ou sur requête, toute mesure propre à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne.

Le juge judiciaire peut ainsi enjoindre au fournisseur d’accès à internet ou à l’hébergeur de retirer le contenu litigieux, voire de bloquer l’accès au site internet sur lequel ce contenu est diffusé.

S’agissant du blocage administratif de ces sites, l’article 18 de la LCEN prévoyait initialement la possibilité pour l’autorité administrative de prendre, dans des conditions prévues par décret en Conseil d’État, « des mesures restreignant, au cas par cas, le libre exercice de leur activité » par les prestataires – donc, le cas échéant, le blocage d’un site –, dans les cas d’atteinte ou de risque sérieux et grave d’atteinte « au maintien de l’ordre et de la sécurité publics, à la protection des mineurs, à la protection de la santé publique, à la préservation des intérêts de la défense nationale ou à la protection des personnes physiques qui sont des consommateurs ou des investisseurs ».

Cependant, le décret nécessaire à la mise en œuvre de cette disposition n’a jamais été pris. Celle-ci a, pour cette raison, été abrogée par la loi n° 2014-344 du 17 mars 2014 relative à la consommation.

La loi n° 2011-267 du 14 mars 2011 d’orientation et de programmation pour la performance de la sécurité intérieure (LOPPSI) a complété le paragraphe 7 du I de l’article 6 de la LCEN afin de rétablir un dispositif de blocage administratif en matière de contenus à caractère pédopornographique.

Cette réécriture prévoyait que, « lorsque les nécessités de la lutte contre la diffusion des images ou des représentations de mineurs relevant de l’article 227-23 du code pénal le justifient, l’autorité administrative notifie aux personnes mentionnées au 1 du présent I [c’est-à-dire aux fournisseurs d’accès à internet] les adresses électroniques des services de communication au public en ligne contrevenant aux dispositions de cet article, auxquelles ces personnes doivent empêcher l’accès sans délai ». Ce dispositif a été validé par le Conseil constitutionnel ([20]).

b.   Une procédure de blocage administrative unique depuis 2014 s’agissant des contenus à caractère terroriste et pédopornographique

La loi n° 2014-1353 du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme a complété le régime administratif préexistant en instaurant, à l’article 6-1 de la LCEC, une procédure de blocage administrative unique des contenus faisant l’apologie ou appelant à commettre un acte terroriste, ainsi que des contenus à caractère pédopornographique.

L’article 6-1 impose de nouvelles obligations, en premier lieu aux éditeurs et aux hébergeurs puis, si ces derniers ne s’exécutent pas ou ne peuvent être identifiés, aux fournisseurs d’accès à internet, moteurs de recherche et annuaires.

● L’obligation de retrait du contenu

L’autorité administrative – en l’espèce, l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC) ([21]) – peut demander aux éditeurs ou aux hébergeurs le retrait du contenu faisant l’apologie du terrorisme ou provoquant à l’acte terroriste, ou du contenu à caractère pornographique. Elle s’appuie, pour ce faire, sur les signalements effectués via la plateforme PHAROS.

La plateforme PHAROS

La plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS) est un dispositif permettant aux internautes et aux partenaires professionnels de signaler les contenus et comportements illicites en ligne et d’assurer ensuite, le cas échéant, un traitement judiciaire de ces signalements par les policiers et gendarmes affectés à la plateforme.

Outre les contenus relatifs au terrorisme ou à son apologie, PHAROS peut être sollicitée pour des faits de pédophilie et de pornographie, d’expression du racisme, de l'antisémitisme et de la xénophobie, d’incitation à la haine raciale, ethnique et religieuse, ainsi que pour des faits d’escroquerie ou relatifs à des arnaques financières sur internet.

Rattachée à l’OCLCTIC, cette plateforme, qui fonctionne désormais 7 jours sur 7 et 24 heures sur 24, confère à l’autorité administrative une vision large et en temps réel des contenus à caractère terroriste en ligne.

Pour faire face à l’accroissement continu du nombre de signalements reçus et traités par PHAROS – la plateforme en comptait 289 590 en 2020, contre 52 353 en 2009, l’année de sa mise en place – les effectifs ont été augmentés l’an dernier, portant ses ressources humaines à 54 équivalents temps plein.

L’éditeur ou l’hébergeur dispose d’un délai de 24 heures pour se conformer à cette demande.

Si le site internet ne contient pas d’informations permettant d’identifier la personne qui en exerce le contrôle, l’autorité administrative peut saisir sans délai le fournisseur d’accès à internet ou le moteur de recherche.

● Le blocage du site internet ou le déréférencement du contenu

Dans un second temps, si l’injonction de retrait n’est pas respectée – ou immédiatement si la personne contrôlant le site internet n’est pas identifiable –, l’autorité administrative peut demander aux fournisseurs d’accès à internet, aux moteurs de recherche ou aux annuaires de bloquer l’accès au site internet ou de déréférencer le contenu et leur fournit à cette fin la liste des adresses électroniques concernées par sa demande.

En 2020, l’autorité administrative a formulé 50 448 demandes de retrait, 519 demandes de blocage et 4 138 demandes de déréférencement. D’après les chiffres communiqués par Meta (anciennement Facebook), société faisant l’objet du plus grand nombre de signalements, l’entreprise a reçu plus de 13 800 requêtes au premier semestre 2021 provenant à la fois des autorités administratives et judiciaires, en augmentation quasi constante depuis 2013 ([22]).

● Le suivi et le contrôle de ces opérations par une personnalité qualifiée au sein de la Cnil

L’article 6-1 prévoit qu’une personnalité qualifiée désignée en son sein par la Commission nationale de l’informatique et des libertés (Cnil) est destinataire des demandes de blocage et de la liste des adresses électroniques concernées ([23]).

Elle est chargée de contrôler la régularité des demandes de retrait ainsi que les conditions d'établissement, de mise à jour, de communication et d'utilisation de la liste. Lorsqu’elle constate une irrégularité, elle demande à l’autorité administrative d’y mettre fin et peut saisir le juge administratif si cette dernière refuse de s’exécuter.

La procédure de blocage administrative des sites internet

Source : rapport annuel 2021 de la personnalité qualifiée

Le manquement aux obligations prévues à cet article est puni d’un an de prison et de 250 000 euros d’amende, voire 1,25 million d’euros pour les personnes morales, qui peuvent également être condamnées à une interdiction d’exercer une activité professionnelle ou sociale et à une interdiction de percevoir des aides financières publiques.

2.   L’introduction d’un régime plus sévère de blocage des contenus haineux

a.   Une première tentative dans la loi visant à lutter contre les contenus haineux sur internet

● Le retrait des contenus haineux sous 24 heures par les opérateurs de plateforme en ligne

L’article 1er de la loi du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, dite « loi Avia », mettait à la charge des opérateurs de plateforme en ligne une obligation de retrait des contenus dits « haineux » dans un délai de 24 heures après leur notification – y compris les contenus faisant l’apologie ou la provocation du terrorisme.

La notion d’opérateur de plateforme en ligne

Le régime allégé de responsabilité des hébergeurs, même assorti d’obligations récentes plus strictes, ne correspond plus au fonctionnement de certains acteurs du numérique, dont le modèle économique les rapproche du statut d’éditeur. Ainsi que l’observait le Conseil d’État dans son avis sur la proposition de loi Avia, « [l’apparition de nouveaux acteurs (réseaux sociaux et moteurs de recherche) qui, en tant qu’intermédiaires actifs permettant le partage de contenus et en accélérant l’accès par leurs processus algorithmiques de hiérarchisation et d’optimisation, ne se bornent pas à un rôle purement technique, sans pour autant pouvoir être qualifiés d’éditeurs de contenus, rend le régime actuel, fondé sur la neutralité des prestataires de services de communication au public en ligne à l’égard des contenus, en partie dépassé. » ([24])

Afin de mieux prendre en compte cette évolution des pratiques des acteurs du numérique, la loi n° 2016-1321 du 7 octobre 2016 pour une République numérique a créé un nouvel article L. 111-7 dans le code de la consommation comprenant des obligations renforcées de clarté, de transparence et de loyauté de l’information à l’égard des « opérateurs de plateforme en ligne », définis comme des services de communication au public en ligne reposant sur un service de classement, de référencement ou de mise en relation en vue de la fourniture de biens, de services ou la diffusion de contenus.

Le législateur a en effet considéré que ces opérateurs se distinguent, d’une part, des hébergeurs – lesquels se contentent de mettre à disposition un serveur et une bande passante – et, d’autre part, des éditeurs, qui choisissent et/ou produisent les contenus diffusés sur internet.

Saisi de ces dispositions, le Conseil constitutionnel les a jugées contraires à la Constitution, du fait du caractère excessif de l’obligation de retrait, non subordonnée à l'intervention préalable d'un juge et soumise à diverses sanctions pénales, alors que certaines infractions pouvaient « présenter une technicité juridique ou, s’agissant notamment de délits de presse, appeler une appréciation au regard du contexte d’énonciation ou de diffusion des contenus en cause ».

Le délai de 24 heures laissé à ces opérateurs a également été estimé insuffisant par le Conseil constitutionnel, au regard de la complexité de l’obligation.

● Le retrait des contenus à caractère terroriste ou pédopornographique dans l’heure

L’article 1er de la « loi Avia » prévoyait également une obligation, à la charge des éditeurs et hébergeurs, de retirer ou rendre inaccessibles dans un délai d’une heure les contenus à caractère pédopornographique ou terroriste notifiés par l’OCLCTIC.

Si le Conseil constitutionnel a approuvé l’intention du législateur ([25]), il a néanmoins rappelé l’importance de la liberté de communication, y compris en ligne ([26]) et estimé qu’en l’espèce le blocage administratif des contenus notifiés par l’administration n’était pas conforme à la Constitution pour quatre raisons :

– la détermination du caractère illicite des contenus en cause ne reposait pas sur leur caractère « manifeste » et était soumise à la seule appréciation de l’administration ;

– l’engagement d’un recours contre la demande de retrait n’était pas suspensif ;

– le délai d’une heure laissé à l’administration pour retirer le contenu ne lui permettait pas d’obtenir une décision du juge avant d’être contraint de s’exécuter ;

– en cas de non-retrait du contenu, la plateforme s’exposait à un an d’emprisonnement et 250 000 € d’amende.

b.   Une nouvelle obligation de lutte contre la propagation de contenus haineux depuis 2021

L’article 42 de la loi n° 2021-1109 du 24 août 2021 confortant le respect des principes de la République instaure un nouvel article 6-4 dans la LCEN reprenant largement les dispositions relatives à l’obligation de retrait de certains contenus par les opérateurs de plateforme en ligne, tout en tirant les leçons de la censure du Conseil constitutionnel.

L’article 6-4 pose d’abord pour principe la participation de ces opérateurs à la lutte contre la diffusion publique des contenus « haineux », dont la provocation et l’apologie du terrorisme.

Ces opérateurs sont enjoints de coopérer avec les autorités publiques, en mettant en place des moyens humains et technologiques proportionnés et en désignant en leur sein un interlocuteur, « point de contact » avec ces mêmes autorités.

Ils sont également soumis à des obligations de transparence renforcées, à travers notamment la publication des moyens mis en œuvre en matière de lutte contre les contenus illicites, d’indicateurs chiffrés et de critères de sélection des tiers de confiance, personnes dont les notifications sont traitées en priorité.

Les opérateurs doivent mettre en place des dispositifs aisément accessibles permettant à toute personne de signaler des contenus considérés comme illicites en prévoyant l’information des auteurs des signalements sur les suites données à leurs notifications, ainsi que l’information des personnes à l’origine de la publication en cas de retrait ou blocage. Ils prévoient les modalités de recours interne contre les décisions qu’ils ont prises.

En outre, des obligations renforcées d’information et d’évaluation globale des risques sont prévues à l’encontre des opérateurs des plateformes les plus importantes ([27]).

Enfin, l’article 62 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication permet à l’Arcom, en cas de manquement par l’opérateur à ces obligations, de lui adresser une mise en demeure. Si l’opérateur ne s’y conforme pas, l’Arcom peut prononcer une sanction pécuniaire dont le montant peut aller jusqu’à 20 millions d’euros ou 6 % du chiffre d’affaires annuel mondial.

L’ensemble de ces dispositions cesse d’être applicable, s’agissant de la diffusion publique de contenus à caractère terroriste, à compter du 7 juin 2022, date d’entrée en vigueur du règlement TCO.

II.   L’objet de la proposition de loi : l’adaptation du droit français aux dispositions du règlement TCO

Bien que le règlement soit, par nature, d’application directe, certaines de ses dispositions nécessitent de compléter le régime juridique français de blocage administratif. À cette fin, l’article unique de la présente proposition de loi créé quatre nouvelles dispositions dans la LCEN.

A.   De nouvelles prérogatives dévolues à l’autorité administrative et l’Arcom pour le respect des injonctions et des mesures spécifiques

Afin de garantir l’application des articles 3 et 4 du règlement relatifs aux injonctions, l’article 6-1-1 (alinéas 2 à 7) que la proposition de loi instaure dans la LCEN permet, d’une part, à l’autorité administrative compétente d’émettre une injonction de retrait ou de blocage du contenu au titre des dispositions de l’article 3 du règlement ([28]).

D’autre part, il habilite une personne qualifiée désignée par l’Arcom à procéder à l’examen approfondi de l’injonction de retrait au titre de l’article 4 du règlement.

L’article 6-1-1 rend l’Arcom compétente pour appliquer le régime des mesures spécifiques pouvant être demandées aux hébergeurs « exposés » et recevoir notification de l’identité du représentant légal des fournisseurs de service d’hébergement.

Enfin, le IV renvoie les modalités d’application des dispositions de cet article à un décret d’application. Ce décret devra notamment préciser « les modalités d’échanges d’informations entre l’autorité administrative et l’Arcom d’une part, et entre ces autorités et les autres autorités étrangères [compétentes pour la mise en œuvre du règlement] d’autre part ».

Votre rapporteure observe que ce dispositif a vocation à cohabiter avec le régime de blocage administratif prévu par l’article 6-1 de la LCEN. Ainsi, si l’hébergeur refuse de se conformer à l’injonction de retrait du contenu dans l’heure, conformément à l’article 3 du règlement TCO et à l’article 6-1-1 de la LCEN dont la création est prévue par la présente proposition de loi, une demande de blocage pourra être adressée par l’autorité administrative au fournisseur d’accès à internet, à l’issue du délai de 24 heures prévu par l’article 6-1.

B.   Des sanctions pénales en cas de non-respect des dispositions du règlement

L’article 6-1-2 que la proposition de loi insère dans la LCEN (alinéas 8 à 12) instaure de nouvelles sanctions pénales en cas de violation du règlement.

1.   Le non-respect des injonctions de retrait

Le I de l’article 6-1-2 punit d’un an d’emprisonnement et de 250 000 € d’amende le refus de l’hébergeur de se conformer à une injonction, simple ou transfrontalière, transmise par l’autorité administrative.

Lorsque la violation de cette obligation est commise de manière habituelle par une personne morale, le montant de l’amende encourue peut être porté à 4 % de son chiffre d’affaires mondial du précédent exercice.

2.   Le refus de coopérer avec les autorités compétentes

L’article 14 du règlement impose aux hébergeurs une obligation de coopération avec l’autorité judiciaire et avec Europol.

Le II de l’article 6-1-2 punit de trois ans d’emprisonnement et de 250 000  la violation de cette obligation.

3.   L’engagement de la responsabilité pénale des entreprises

Le III du même article prévoit, pour l’ensemble de ces infractions, l’engagement de la responsabilité pénale des entreprises. Elles encourent à ce titre une peine d’amende cinq fois plus élevée que celles prévues pour les personnes physiques, soit une amende de 1,25 million d’euros.

C.   Un pouvoir de sanction administrative dévolu à l’Arcom

L’article 6-1-3 (alinéas 12 à 24) que la présente proposition de loi instaure dans la LCEN désigne l’Arcom comme autorité compétente pour faire respecter les dispositions du règlement TCO auprès de tous les hébergeurs dont l’établissement ou le représentant légal est installé en France.

L’autorité peut ainsi, d’une part, mettre en demeure l’hébergeur de respecter certaines obligations et, d’autre part, prononcer une sanction pécuniaire en cas de non-conformité à la mise en demeure.

1.   La mise en demeure de se conformer aux dispositions du règlement

L’Arcom peut mettre en demeure le fournisseur de se conformer, dans les délais qu’elle fixe, à plusieurs obligations énumérées à l’article par un renvoi aux dispositions du règlement.

Obligations dont le non-respect peut entraîner la notification d’une mise en demeure par l’Arcom

Obligation imposée à l’hébergeur

Correspondance dans le règlement européen

Informer l’autorité administrative du retrait du contenu ou du blocage de l’accès à celui-ci lorsqu’une injonction de retrait a été notifiée à l’hébergeur

Paragraphe 6 de l’article 3

Rétablir le contenu retiré ou dont l’accès a été bloqué lorsque, dans le cadre d’une injonction transfrontalière, l’autorité compétente de l’État membre où l’hébergeur est établi constate que l’injonction prononcée viole le règlement

Paragraphe 7 de l’article 4

Respecter les dispositions relatives aux mesures spécifiques pouvant être imposées aux hébergeurs exposés

Paragraphes 1, 2, 3, 5 et 6 de l’article 5.

Conserver les contenus et les données connexes retirés du fait d’une injonction

Article 6

Respecter l’obligation de transparence

Article 7

Mettre en œuvre des mécanismes de réclamation

Article 10

Informer le fournisseur de contenus en cas de retrait du contenu à caractère terroriste

Article 11

Mettre en place un point de contact pour la réception des injonctions de retrait

Paragraphe 1 de l’article 15

Désigner un représentant légal dans le territoire de l’Union européenne lorsque l’hébergeur n’y a pas son établissement principal

Article 17

2.   Le prononcé de sanctions pécuniaires

Si l’hébergeur ne se conforme pas à la mise en demeure que l’Arcom lui a adressée dans le délai imparti, l’autorité peut prononcer une sanction pécuniaire.

L’article 6-1-3 précise que le montant de cette sanction, qui ne peut excéder 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent ([29]), doit être calculé en fonction de plusieurs indicateurs :

– la nature, la gravité et la durée des manquements ;

– le fait que le manquement ait été commis de manière intentionnelle ou par négligence ;

– les manquements commis précédemment par la personne concernée ;

– la solidité financière de la personne concernée ;

– le degré de coopération de la personne concernée avec les autorités compétentes ;

– la nature et la taille de la personne concernée, en particulier s’il s’agit d’une micro, petite ou moyenne entreprise ;

– le degré de responsabilité de la personne concernée.

Les mises en demeure et sanctions pécuniaires prononcées peuvent être rendues publiques, cette publication devant être proportionnée à la gravité du manquement.

D.   Des voies de recours auprès du tribunal administratif

Le nouvel article 6-1-4 (alinéas 25 à 32) inséré dans la LCEN prévoit plusieurs voies de recours auprès du tribunal administratif pour les fournisseurs de contenus et les hébergeurs.

Hébergeurs et fournisseurs de contenus peuvent saisir le tribunal administratif pour solliciter l’annulation de l’injonction de retrait prononcée par l’autorité administrative. Cette demande doit être formulée dans un délai de 48 heures à compter de la réception de l’injonction. Le tribunal administratif statue sous 72 heures après la saisine.

Fournisseurs de contenus et hébergeurs peuvent, sous 48 heures, solliciter auprès du tribunal administratif la réformation de la décision motivée de la personnalité qualifiée de l’Arcom prise dans le cadre d’un examen approfondi de l’injonction de retrait. Le tribunal administratif statue sous 72 heures.

Enfin, les hébergeurs exposés au sens de l’article 5 du règlement TCO peuvent demander, dans un délai de quinze jours à compter de la notification de la décision prise par l’Arcom, la réformation de cette décision. Dans un tel cas de figure, le tribunal administratif statue dans un délai d’un mois à compter de la saisine du tribunal.

III.   Des dispositions modifiées par la Commission

La commission des Lois a, au cours de son examen, adopté vingt amendements proposés par votre rapporteure, dont quinze de nature rédactionnelle.

Elle a complété les dispositions du troisième alinéa de l’article unique, relatives à l’examen des injonctions transfrontalières par une personnalité qualifiée de l’Arcom, afin de prévoir la nomination d’un suppléant désigné dans les mêmes conditions.

Elle a apporté une précision selon laquelle l’Arcom n’est compétente qu’auprès des fournisseurs de services d’hébergement dont l’établissement principal est situé en France, se conformant ainsi à la lettre du règlement européen et aux usages.

La Commission a souhaité renforcer les prérogatives de l’Arcom pour faire respecter le règlement TCO. Elle a ainsi supprimé le caractère « systématique ou persistant » des manquements aux obligations administratives pouvant justifier l’envoi d’une mise en demeure aux hébergeurs et a précisé, par un nouvel alinéa, que l’Autorité est habilitée à recueillir auprès d’eux les informations nécessaires au suivi de ces mêmes obligations.

Enfin, la Commission a donné compétence au Conseil d’État, au lieu du tribunal administratif, pour connaître des recours en réformation des décisions de l’Arcom prises à l’encontre des hébergeurs « exposés ».


—  1  —

   compte rendu des débats

Lors de sa réunion du mercredi 9 février 2022, la Commission examine la proposition de loi portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne (n° 4883 rect.) (Mme Aude Bono-Vandorme, rapporteure).

Lien vidéo : https://assnat.fr/pVzHbv

M. Stéphane Mazars, président. Nous examinons aujourd’hui la proposition de loi portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne, de Mme Aude Bono-Vandorme et des membres du groupe La République en marche. Déposée le 11 janvier 2022, elle sera examinée le 16 février en séance publique.

Mme Aude Bono-Vandorme, rapporteure. La lutte contre la propagation des contenus à caractère terroriste et, plus largement, contre l’ensemble des contenus haineux, nécessite une adaptation constante de notre législation. Depuis bientôt cinq ans, nous avons pris pleinement nos responsabilités en ce sens. Bien que la circulation de contenus néfastes en ligne soit une préoccupation de longue date des pouvoirs publics, cette législature a en effet été l’occasion de grandes avancées, pour les armer et les aider à faire face à ce phénomène particulièrement destructeur. Je remercie en particulier ma collègue, Laetitia Avia, qui s’est engagée dans cette bataille depuis le début de la législature.

Sous l’influence d’un droit européen de plus en plus protecteur, car conscient des enjeux de société et des défis auxquels nous soumet collectivement la haine en ligne, le législateur français a instauré, dès 2004, des dispositifs de retrait de ces contenus, voire de blocage des sites internet à partir desquels ils sont accessibles.

L’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC) peut ainsi demander aux éditeurs ou aux hébergeurs de retirer le matériel faisant l’apologie du terrorisme ou provoquant à l’acte terroriste, ou du contenu à caractère pédopornographique. Cette autorité administrative s’appuie, pour ce faire, sur les signalements effectués par le biais de la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS). Plus de 289 000 signalements ont ainsi été enregistrés en 2020.

Si l’injonction de retrait n’est pas respectée, l’Office peut demander aux fournisseurs d’accès à internet, aux moteurs de recherche ou aux annuaires de bloquer l’accès au site internet et de déréférencer les contenus. En 2020, il a formulé plus de 50 000 demandes de retrait, 500 demandes de blocage et plus de 4 100 demandes de déréférencement.

La loi pour la confiance dans l’économie numérique (LCEN) prévoit également une disposition de blocage de nature judiciaire. Dans ce cadre, le juge peut enjoindre le fournisseur d’accès à internet ou l’hébergeur de retirer le contenu litigieux voire de bloquer l’accès au site sur lequel ce contenu est diffusé. Le régime s’est récemment étoffé, pour accompagner le développement des nouveaux usages et des pratiques des acteurs du numérique.

La loi du 24 août 2021 confortant le respect des principes de la République instaure un nouvel article 6-4 dans la LCEN, qui comporte plusieurs dispositions, inspirées de la loi visant à lutter contre les contenus haineux sur internet, dite loi Avia, s’imposant aux opérateurs de plateforme en ligne.

Le qualificatif même d’opérateurs de plateforme en ligne est novateur : il a été créé par la loi du 7 octobre 2016 pour une République numérique afin de désigner les services de communication en ligne qui se distinguent à la fois des éditeurs et des hébergeurs par le recours à un service de classement, de référencement ou de mise en relation et qui, de ce fait, doivent être assujettis à des obligations plus importantes.

L’article 6-4 pose d’abord pour principe la participation de ces opérateurs à la lutte contre la diffusion publique des contenus haineux, dont ceux faisant l’apologie des actes de terrorisme ou appelant à les commettre. Il les enjoint à coopérer avec les autorités publiques, en mettant à disposition des moyens humains et technologiques proportionnés, et en désignant un point de contact avec ces autorités. Il soumet les acteurs à des obligations de transparence renforcées et leur demande d’instaurer des dispositifs de signalement des contenus haineux ainsi que des modalités de recours interne contre les décisions qu’ils ont prises. Il prévoit enfin des obligations renforcées d’information et d’évaluation globale des risques à l’encontre des opérateurs des plateformes les plus importantes.

En cas de manquement à ces obligations, la nouvelle Autorité de régulation de la communication audiovisuelle et numérique (Arcom) peut adresser une mise en demeure à l’opérateur. S’il ne s’y conforme pas, elle peut prononcer une sanction pécuniaire dont le montant peut aller jusqu’à 20 millions d’euros ou 6 % du chiffre d’affaires annuel mondial.

Le régime juridique du blocage administratif des contenus à caractère terroriste évoluera prochainement sous l’influence du règlement du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne, dit règlement TCO, dont l’entrée en vigueur est prévue le 7 juin 2022.

Ce texte crée des règles uniformes pour lutter contre l’utilisation abusive des contenus à caractère terroriste et prévoit une série de nouvelles obligations à l’encontre des hébergeurs. La plus importante, sans doute, consiste à enjoindre l’hébergeur de retirer ou de bloquer l’accès, dans tous les États membres, aux contenus à caractère terroriste qui lui sont notifiés, dans un délai ne pouvant excéder une heure après réception de l’injonction.

Le texte instaure des dispositions particulières pour les hébergeurs « exposés », c’est-à-dire ceux qui sont particulièrement soumis à la circulation de contenus à caractère terroriste. Ils sont contraints d’instaurer des mesures spécifiques afin de protéger leurs services contre la diffusion de ces contenus, tout en ayant le choix, sous réserve de leur efficacité et de leur proportionnalité, des mesures qu’ils souhaitent adopter.

D’autres obligations administratives sont également prévues par le règlement, notamment la désignation d’un point de contact unique au sein de l’hébergeur, afin de fluidifier les échanges avec les pouvoirs publics ; la conservation à des fins administratives et judiciaires des contenus litigieux bloqués ou retirés ; ainsi que de nouvelles exigences, à l’égard des utilisateurs, en matière de transparence.

Anticipant l’entrée en vigueur de ce règlement, le législateur a déjà inscrit dans la loi confortant le respect des principes de la République que le régime juridique actuel cesse d’être applicable, s’agissant des contenus à caractère terroriste, à partir du 7 juin 2022.

Les auditions que j’ai menées m’ont convaincue de la pertinence du texte et de sa nécessité, pour faire face à ces ennemis invisibles et mouvants, que sont le terrorisme et sa propagande. Jean-François Ricard, procureur national antiterroriste a ainsi expliqué, lors de son audition, que le phénomène de recrutement de mineurs, notamment d’enfants de moins de 15 ans, à partir de la diffusion en ligne des contenus à caractère terroriste, a été très marqué en 2021. Ces contenus contribuent d’abord à la radicalisation de ces jeunes, puis permettent la transition entre le stade de la fascination morbide et celui de la préparation d’une action.

Si leur prompt retrait ne saurait à lui seul suffire à remédier à ce phénomène, il est néanmoins absolument nécessaire d’y parvenir tant la circulation de ces contenus et la facilité avec laquelle ils sont accessibles sont préoccupantes.

C’est dans ce cadre que la présente proposition de loi est soumise à nos débats. Les règlements européens sont, par essence, d’application directe. Cependant, les dispositions du règlement TCO nécessitent d’adapter à la marge notre législation nationale afin de garantir, comme le droit européen nous y oblige, l’application pleine et entière de ses dispositions.

Ainsi, la proposition de loi comprend un article unique insérant quatre nouveaux articles dans la LCEN. Le premier habilite l’autorité administrative, désignée par décret, à émettre des injonctions de retrait ou de blocage des contenus à caractère terroriste. Il désigne l’Arcom comme autorité compétente en matière d’examen approfondi de ces injonctions et pour l’application des mesures spécifiques prévues à l’encontre des hébergeurs exposés.

Le deuxième prévoit de nouvelles sanctions pénales à l’encontre des fournisseurs de services d’hébergement qui ne respecteraient pas les obligations de retrait des contenus.

Le troisième permet à l’Arcom de mettre en demeure l’hébergeur de se conformer aux principales obligations prévues par le règlement européen et, en cas de non-conformité, prévoit la possibilité de prononcer une sanction pécuniaire à l’encontre de l’hébergeur.

Le dernier article instaure plusieurs voies de recours à la disposition des fournisseurs de services d’hébergement et des fournisseurs de contenus.

Mes échanges avec les acteurs concernés par le texte ont permis de soulever plusieurs points pouvant faire l’objet d’une réécriture, dans les limites liées à la nécessité de ne pas aboutir à un texte contredisant le règlement européen. Outre plusieurs amendements de nature rédactionnelle, je présenterai quelques suggestions de modification du dispositif, qui amélioreront concrètement le texte soumis à vos débats.

Je défendrai en particulier la nomination d’un suppléant de la personnalité qualifiée de l’Arcom, afin de garantir le traitement de l’examen approfondi des injonctions de retrait dans des délais raisonnables. J’ajouterai une précision selon laquelle l’Arcom n’est compétente que pour les hébergeurs dont l’établissement principal se situe en France, conformément à la lettre du texte européen. Je demanderai également le renforcement des prérogatives de l’Autorité en matière de collecte de l’information et de prononcé des mises en demeure ainsi que la saisine du Conseil d’État au lieu du tribunal administratif pour les hébergeurs souhaitant obtenir la réformation des décisions de l’Arcom s’agissant des mesures spécifiques imposées aux prestataires exposés.

C’est ce texte, ainsi amendé, travaillé avec l’ensemble des acteurs chargés, de près ou de loin, de la lutte contre la propagation des contenus à caractère terroriste, que je vous encourage à voter largement.

Mme Laetitia Avia (LaREM). Je remercie la rapporteure pour cette contribution à la lutte contre les contenus dangereux sur internet. Le sujet est important eu égard à la réalité de la menace terroriste par les outils et les usages numériques.

On le sait, en matière de contenus à caractère terroriste, internet est un lieu à la fois d’endoctrinement, d’exhibition, de revendication et de propagande. Rappelons-nous la tuerie de Christchurch, l’assassinat de Samuel Paty et toutes les affaires qui sont traitées quotidiennement par les cellules de lutte contre le terrorisme et par Viginum, le service de vigilance et de protection contre les ingérences numériques étrangères.

Ce texte important nous donne les armes nécessaires pour lutter contre des contenus qui se répandent avec viralité sur les réseaux et internet, comme sur des sites plus secrets, réservés, mais tout aussi dangereux. Dans le cadre de l’examen de ma proposition de loi, le Gouvernement avait proposé d’intégrer ce que l’on appelle communément la golden hour, c’est-à-dire le retrait en une heure des contenus à caractère terroriste. À l’époque, les discussions étaient en cours à l’échelle européenne sur ce sujet. La disposition, que nous avions intégrée, a malheureusement été censurée par le Conseil constitutionnel car le texte ne proposait pas assez de garde-fous.

Depuis, le contexte a radicalement évolué : il y a eu une prise de conscience au sein de la société. Le texte a une assise européenne puisqu’il fait l’objet d’un règlement, que l’ensemble des États membres a adopté. Nous avons créé l’Arcom, le régulateur du numérique. Le Parlement européen et la Commission européenne ont voté le digital services act (DSA), un des textes fondateurs de la régulation du numérique. Nous l’avions anticipé dans le cadre de la loi du 24 août 2021 confortant les principes de la République. C’est donc dans un contexte bien différent que nous examinons ces dispositions d’adaptation nécessaires au règlement TCO.

Il reste quelques points d’ajustement et d’interrogation : outre ceux que la rapporteure a évoqués, l’articulation entre les régimes de sanction pose problème tant à l’échelle nationale qu’européenne. Le TCO prévoit que des sanctions, pouvant aller jusqu’à 4 % du chiffre d’affaires, s’appliquent au moindre manquement. La loi française mentionne des sanctions plus systémiques, pouvant aller jusqu’à 6 % du chiffre d’affaires. Nous parviendrons sans aucun doute à clarifier ce point lors de nos débats.

Le groupe La République en marche apporte son entier soutien à cette proposition de loi de grande importance.

M. Raphaël Schellenberger (LR). Nous n’avons pas fini de mesurer les effets d’internet sur certains phénomènes liés aux réseaux criminels. En 2015 et 2018, nous avons pu constater le rôle qu’a joué internet dans la diffusion et le recrutement des agents de ces entreprises terroristes, et comment il a permis de préparer et de faciliter les activités terroristes, puis d’en faire l’apologie. Ces contenus à caractère terroriste, partagés en ligne, ont largement contribué à la radicalisation des « loups solitaires ».

En réponse à cela, les autorités publiques ont d’abord appelé les fournisseurs de services d’hébergement à prendre certaines mesures. De tels efforts ont contribué à améliorer les réactions des entreprises aux signalements effectués par les autorités nationales ainsi que l’unité européenne chargée du signalement des contenus sur internet, et à renforcer la coopération au niveau européen. Dès mars 2018, la Commission européenne a adopté une recommandation sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne. Elle comprenait un chapitre spécifique recensant les mesures visant à endiguer efficacement le téléchargement et le partage de propagande terroriste en ligne. On peut citer par exemple l’amélioration de la procédure de signalement, un délai de réponse au signalement d’une heure, une détection plus proactive, une suppression effective et des mesures de sauvegarde suffisantes pour évaluer avec précision les contenus à caractère terroriste.

En imposant un ensemble minimal d’obligations de vigilance aux fournisseurs de services d’hébergement, des règles et des contraintes spécifiques ainsi que des obligations aux États membres, la proposition de règlement, présentée par la Commission européenne les 19 et 20 septembre 2018, pour concrétiser ces engagements, visait à accroître l’efficacité des mesures pour détecter, identifier et supprimer les contenus à caractère terroriste en ligne, sans pour autant empiéter sur les droits fondamentaux, tels la liberté d’expression et d’information. En matière de lutte contre le terrorisme, l’équilibre est parfois difficile à trouver : il est néanmoins important de chercher à le préserver. Ce n’est pas en piétinant nos valeurs que nous les ferons triompher.

La présidence allemande du Conseil de l’Union européenne a mené à bien les négociations entre la présidence, le Parlement européen et la Commission européenne sur le règlement relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne. Grâce à lui, les entreprises de l’internet peuvent se voir contraintes de supprimer des contenus à caractère terroriste en ligne en l’espace d’une heure, à la suite d’une injonction des autorités administratives.

La présente proposition de loi a pour objectif de procéder aux adaptations de la législation nationale que nécessite le règlement, en créant de nouveaux articles dans notre code. Le groupe Les Républicains la soutiendra.

Mme Marietta Karamanli (SOC). La proposition de loi que nous examinons décline le règlement européen du 29 avril 2021 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne, qui vise à lutter contre les propos illicites de nature terroriste, appelant à recourir à la violence, notamment physique, et au meurtre.

En décembre 2020, le Parlement européen et le Conseil sont parvenus à un accord final sur un règlement imposant dans un délai d’une heure, de retirer les contenus à caractère terroriste signalés. Étant donné l’ampleur du problème et la rapidité nécessaire pour identifier et retirer efficacement ces contenus, il est précisé que l’adoption de mesures spécifiques, efficaces et proportionnées constitue un élément essentiel de la lutte contre les contenus à caractère terroriste en ligne.

Le projet, qui remontait à 2018, considère internet comme un outil privilégié de propagande et de recrutement des réseaux terroristes. Le règlement garantit que ce qui est illégal hors ligne l’est aussi en ligne. Il est demandé aux plateformes d’agir à temps et de faire preuve d’assez de transparence sur les mesures appliquées. À défaut, elles s’exposent à des sanctions décidées par les États membres demandant le retrait de contenus terroristes. S’agissant de l’internationalisation de la lutte, des ordres transfrontaliers de retrait des contenus doivent pouvoir être effectués.

Le règlement ne prévoit pas d’obligation de surveillance générale à la charge des plateformes, ni de recours à des filtres automatisés. Les contenus à caractère éducatif, journalistique et artistique sont exclus du texte. Celui-ci précise que l’autorité administrative – en l’espèce, l’Arcom – pourra émettre des injonctions, ainsi que les sanctions administratives et pénales possibles.

Si nous n’avons pas déposé d’amendement à la présente proposition de loi, nous comptons nous prononcer au regard des réponses que recueilleront nos trois observations.

D’abord, nous ne disposons d’aucune évaluation comparative des dispositions prises par les autres pays de l’Union européenne : elle aurait pu contribuer à notre réflexion sur une possible harmonisation de la réglementation applicable, au moins par les grands États.

Nous regrettons ensuite que la proposition de loi soit examinée selon la procédure accélérée. La procédure ordinaire reste la norme dans notre Constitution.

Enfin, si le règlement, d’application générale et immédiate dans l’ordre juridique de chaque État, a prévu une évaluation au bout de trois ans, la proposition de loi n’y fait pas référence, de même qu’à des travaux à venir.

Sur le fond, nous sommes d’accord : il faut faire tout ce qui est possible pour lutter contre les messages terroristes. Mais les trois éléments que j’ai soulevés au nom du groupe Socialistes et apparentés méritent examen. La discussion est ouverte pour déterminer si des amendements devront être déposés en ce sens.

M. Dimitri Houbron (Agir ens). Depuis plusieurs années, notre société est confrontée à la propagande terroriste en ligne, qui incite des individus à commettre des attentats, notamment en leur donnant des instructions détaillées sur la manière d’infliger un préjudice maximal. Après la commission de ces atrocités, les organisations terroristes revendiquent l’attentat et opèrent une propagande supplémentaire, en ligne, pour faire l’apologie de leurs actes et inciter d’autres personnes à les rejoindre.

Pour endiguer cette spirale, la présente proposition de loi s’attache à établir une protection de la sécurité publique, en réduisant l’accessibilité des contenus à caractère terroriste, qui promeuvent et encouragent la violation des droits fondamentaux. Cette lutte contre la diffusion des contenus à caractère terroriste en ligne est la composante d’une problématique globale des contenus illicites en ligne. Son traitement a nécessité un arsenal combiné de mesures législatives et réglementaires, fondées sur une collaboration entre les autorités et les fournisseurs de services d’hébergement. Cette combinaison de dispositifs doit être établie dans le strict respect des droits fondamentaux – le groupe Agir ensemble y a toujours veillé.

Le Gouvernement a pris différentes mesures et initiatives, et réalisé des efforts dans ce domaine.

D’abord, grâce à l’action du garde des sceaux, un pôle national de lutte contre la haine en ligne a été créé au sein du parquet de Paris, pour centraliser le traitement des affaires les plus significatives et complexes. Depuis sa création, le 4 janvier 2021, il s’est saisi de plus de 140 dossiers. La nouvelle entité est appuyée par le parquet de Paris, qui apporte son expertise à l’ensemble des juridictions, et peut se saisir de toute affaire relevant de la lutte contre la haine en ligne.

Ensuite, grâce à l’adoption de la loi confortant le respect des principes de la République, dite de lutte contre les séparatismes, le pôle national de lutte contre la haine en ligne est doté d’outils supplémentaires, avec la création du délit de mise en danger de la vie d’autrui par la diffusion d’informations personnelles et surtout, avec la possibilité, en cas de flagrant délit, de procéder à des comparutions immédiates, jusqu’alors impossibles en droit de la presse.

Le Gouvernement a aussi contribué à renforcer les capacités humaines de la plateforme PHAROS, un outil qui a répertorié 263 825 signalements en 2021, dont 7 894 liés au terrorisme.

La collaboration européenne est nécessaire pour éradiquer cette propagande terroriste. J’ai eu le plaisir d’accueillir le garde des sceaux, avec plusieurs de ses homologues européens à Lille, pour renforcer la lutte contre la haine en ligne et le harcèlement. Il s’agissait de définir un cadre clair et européen, pour contraindre les plateformes comme Google, Twitter et Facebook à collaborer avec les services de la justice. Cette batterie de mesures et d’initiatives doit être complétée par une législation qui renforce la loi pour la confiance dans l’économie numérique, afin d’être en conformité avec la réglementation européenne.

La présente proposition de loi vise ainsi à établir un cadre juridique clair et harmonisé, pour prévenir l’utilisation abusive des services d’hébergement pour la diffusion de contenus à caractère terroriste en ligne, afin d’assurer le bon fonctionnement du marché unique numérique, tout en garantissant la confiance et la sécurité.

Elle vise aussi à préciser la responsabilité que doivent assurer les fournisseurs de services d’hébergement pour prendre toutes les mesures appropriées, raisonnables et proportionnées, nécessaires pour garantir la sécurité de leurs services ainsi que pour détecter et supprimer rapidement et efficacement les contenus à caractère terroriste en ligne, en tenant compte de l’importance fondamentale de la liberté d’expression et d’information dans une société ouverte et démocratique.

Dans la mesure où la proposition de loi entend déployer les dispositifs européens sur notre sol, pour améliorer la lutte contre la diffusion de ces contenus et s’attache à prendre en compte le respect des droits fondamentaux, le groupe Agir ensemble la soutiendra.

Mme Blandine Brocard (Dem). Depuis 2015, les attentats terroristes qui ont frappé l’Europe, en particulier la France, ont démontré une utilisation croissante d’internet, surtout des réseaux sociaux, par les groupes terroristes, afin d’enrôler de nouvelles recrues, de faire de la propagande, de préparer et faciliter leurs activités terroristes, puis d’en faire l’apologie. Outre l’engagement volontaire des plateformes, la législation française a, dès 2014 par la loi renforçant les dispositions relatives à la lutte contre le terrorisme, établi un dispositif administratif unique de blocage et de déréférencement des contenus à caractère terroriste et pédophile, qui a été étoffé au cours des années.

L’Union européenne s’est par la suite emparée du sujet. En mars 2018, la Commission européenne a adopté une série de recommandations pour lutter efficacement contre le contenu illégal en ligne, avant de présenter, en septembre 2018, un projet de règlement qui, après plusieurs années de négociations, a abouti au règlement du 29 avril 2021 relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne, dit règlement TCO.

Le groupe Démocrate croit résolument en la nécessité d’envisager la régulation du numérique à l’échelle européenne, en particulier sur la question du terrorisme, où il nous faut encore approfondir et renforcer la mutualisation des moyens entre États. Seule l’Europe dispose aujourd’hui du poids nécessaire pour faire plier les grandes plateformes et assurer le respect de nos règles. C’est avec nos partenaires qu’il faut avancer sur ce sujet. La présidence française de l’Union européenne en donnera l’occasion.

Le règlement TCO, qui entrera en vigueur le 7 juin 2022, est une pierre supplémentaire de l’édifice. Il permettra une harmonisation dans l’Union européenne des moyens de lutte contre la radicalisation, tout en préservant la liberté d’expression et d’information ainsi que le pluralisme des médias. Si la plupart de ses dispositions figurent déjà dans notre législation, notamment grâce aux mesures que nous avons adoptées dans les dernières années, et bien que le règlement soit par principe d’application directe, il convient encore d’en adapter certaines dispositions afin d’assurer sa pleine effectivité. Tel est le cas pour la possibilité ouverte par le règlement d’enjoindre les plateformes de retirer dans l’heure des contenus à caractère terroriste.

Nous avons tous à l’esprit la proposition de loi de Laetitia Avia visant à lutter contre les contenus haineux sur internet qui prévoyait une disposition similaire imposant le retrait dans l’heure des contenus à caractère terroriste ou pédophile. Celle-ci a malheureusement été vidée de l’essentiel de son contenu par le Conseil constitutionnel au motif que ses dispositions portaient atteinte de manière disproportionnée à la liberté d’expression. Le Conseil a néanmoins validé le principe de l’injonction de retrait. Il considère ainsi que la diffusion de contenus incitant à la commission d’actes terroristes ou en faisant l’apologie constitue des abus de la liberté d’expression et de communication portant gravement atteinte à l’ordre public et aux droits des tiers.

Chacun en convient ici, nous ne pouvons pas laisser la moindre place à de tels abus et nous devons renforcer la lutte contre la violence en ligne qui ne cesse de se répandre.

La proposition de loi vise à rendre effectif le règlement TCO en désignant une autorité administrative compétente pour ordonner des injonctions de retrait et en attribuant à l’Arcom de nouvelles compétences pour veiller au respect du droit européen. Elle introduit également des sanctions pénales et administratives en cas de manquement, essentielles pour assurer le respect de nos engagements européens ainsi que le maintien de l’ordre public numérique.

J’insiste toutefois sur la nécessaire cohérence de notre législation avec le futur digital services act (DSA) que le Parlement européen a adopté il y a quelques jours et qui doit apporter de nouvelles solutions de régulation des plateformes. J’espère que la présidence française mènera à bien les négociations pour aboutir à une législation ambitieuse.

Le groupe du Mouvement démocrate soutient le présent texte qui, dans la lignée de la loi confortant le respect des principes de la République, permet de limiter les abus en ligne, de renforcer la protection de nos concitoyens et d’éviter qu’internet ne devienne une zone de non-droit.

M. Paul Molac (LT). Comme le disait le philosophe cuisinier grec Ésope de la langue, internet est capable du meilleur – il donne facilement accès à d’innombrables informations – comme du pire.

Parmi les difficultés que soulève le présent texte, je mentionnerai d’abord le choix d’une proposition de loi et non d’un projet de loi. La première est dispensée de l’avis du Conseil d’État et d’étude d’impact. Étant l’auteur de plusieurs propositions de loi, je suis bien placé pour savoir que, de ce fait, leur objet et le temps que nous consacrons à leur étude sont souvent limités.

Ensuite, il faut veiller à la proportionnalité des limites qui sont posées à des libertés essentielles – je suis toujours inquiet de telles restrictions. Nous ne sommes pas en Chine mais ce qui s’y passe doit nous alerter : la facilité avec laquelle internet est instrumentalisé pour fliquer les citoyens est affreuse.

Les plateformes expliquent qu’elles devront recourir à des algorithmes pour se conformer à l’obligation de retrait en une heure. C’est donc soit une machine soit l’autorité administrative qui décidera des contenus autorisés ou non. J’aurais préféré que ce soit le juge. C’est certes plus long et plus compliqué mais aussi plus respectueux de la séparation des pouvoirs. Nous avons déjà vu des préfets prendre des décisions d’interdiction de manifestation ou de stade dans le seul but de limiter d’éventuels désagréments pour eux.

Certains estiment que le règlement européen serait contraire à la Constitution. Comment surmonter un tel obstacle ? La révision de la Constitution n’est pas envisageable dans les quinze jours qu’il nous reste… Quelle sera donc la pérennité de la proposition de loi ?

Il est bien difficile de concilier notre droit, les libertés essentielles et la nécessaire protection contre des contenus inacceptables.

M. Ugo Bernalicis (FI). Dans la continuité de notre position sur la loi visant à lutter contre les contenus haineux sur internet, nous sommes opposés au présent texte non pas parce que nous contestons son objet – j’anticipe la caricature du groupe de La République en marche – mais pour les raisons suivantes.

La loi censurée par le Conseil constitutionnel contenait des mesures similaires à celles qui sont proposées là. L’association la Quadrature du net, dont l’avis est souvent précis, détaillé et fondé, nous l’a rappelé, le Conseil avait alors estimé que le délai très court dans lequel l’autorité administrative se prononce empêchait de saisir un juge pour garantir la liberté fondamentale qu’est la liberté d’expression. Dans son rapport d’activité de 2020, la CNIL considère, elle aussi, qu’il y a un problème de constitutionnalité dans la mesure où le règlement est d’application immédiate.

Certes, il n’y a pas pour les plateformes d’obligation de recourir à des algorithmes ou des filtres mais il n’y a pas d’interdits non plus. Ces dernières ont déjà annoncé qu’elles mettraient en place des algorithmes sans lesquels il leur serait impossible, disent-elles, de s’acquitter de leur tâche. Or lors de son audition à l’Assemblée, Frances Haugen nous a fait la démonstration de la perversité de tels algorithmes : alors qu’ils sont censés nous protéger, ils laissent passer certains contenus haineux et en censurent d’autres qui ne le sont pas. Bastien Lachaud a subi les foudres d’un algorithme pour une vidéo de son intervention à la tribune dans laquelle il indiquait son opposition au passe sanitaire. Nous avons fait intervenir le ministre pour que la vidéo soit de nouveau accessible, mais tout le monde n’a pas cette chance. Pendant ce temps, pour ceux qui nous menacent sur les réseaux sociaux, arme à la main, l’algorithme n’existe pas. Finalement, qui peut trancher ? La justice, avec ses lenteurs, certes. Ce sont peut-être elles qui vous gênent ; pourtant, j’avais cru comprendre que la justice était réparée, qu’elle avait reçu des « sucres rapides ». Ce n’est évidemment pas le cas. Nous y remédierons le moment venu en augmentant les effectifs dédiés.

L’enquête sur l’assassinat de Samuel Paty a montré que des signalements avaient été transmis à la plateforme PHAROS – plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements. Mais nous manquons de moyens humains pour surveiller ce qui se passe sur internet, analyser et prendre des décisions. Vous avez d’ailleurs fini par renforcer PHAROS puisque c’est la seule chose à faire en la circonstance. Il faudrait également recruter des magistrats spécialisés.

Les terroristes utilisent les plateformes pour accroître l’audience de leur message mais c’est loin d’être le seul outil auquel ils ont recours : les actes qu’ils commettent et le traitement médiatique qu’ils reçoivent sont un amplificateur tout aussi puissant. Les plateformes les aident-elles à s’organiser ? Les services de renseignement le savent bien, les terroristes ne sont pas assez idiots pour passer par les plateformes pour communiquer entre eux.

Avec ce texte, vous manquez la cible que vous affirmez viser.

M. Stéphane Peu (GDR). Je reprends à mon compte plusieurs des propos de mes collègues, à commencer par l’incompréhension face au choix de la proposition de loi comme véhicule législatif d’autant plus après les déconvenues de la loi dite Avia. Le projet de loi aurait été utilement précédé d’une étude d’impact et d’un avis du Conseil d’État. Quelles sont les raisons de ce choix qui nous laisse perplexe ?

Il faut y ajouter le fait que le règlement n’a pas donné lieu à un vote en séance plénière au Parlement européen et a fait l’objet d’un avis très réservé des trois rapporteurs spéciaux des Nations unies allant jusqu’à demander son retrait ainsi que de réserves de la part de plus d’une soixantaine d’ONG. Ce contexte politique et juridique aurait justifié une autre manière de procéder que celle qui nous est proposée.

Je vous soumets nos réserves sous forme de questions et nous ferons connaître notre position sur le texte en séance.

En premier lieu, le recours à des procédures automatisées, incontournable compte tenu des délais imposés, est préoccupant. L’exemple donné par Ugo Bernalicis est parlant : un même algorithme censure un député à la tribune de l’Assemblée nationale mais tolère des appels au meurtre de députés. Les filtres automatisés sont sujet à caution.

Deuxième faiblesse, il est indiqué que tout État membre de l’Union européenne pourra intervenir auprès d’hébergeurs dans n’importe quel autre État de l’Union. Or, il ne vous a pas échappé que tous les États membres n’ont pas la même conception de l’État de droit et de la liberté d’expression. En vertu du règlement, ne pourrait-on pas voir les caricatures de Charlie Hebdo, qui ont abouti au drame que l’on sait, censurées au nom d’une conception restrictive de la liberté d’expression dans certains pays selon laquelle le blasphème est assimilé à du terrorisme ? Ce serait un paradoxe fâcheux. Nous sommes inquiets de la possibilité donnée à certains États de prendre des décisions en contradiction avec nos valeurs.

Dans un texte qui affecte les libertés, l’État de droit, la séparation des pouvoirs ou le rôle du juge sont des sujets qui méritent toute notre attention. En l’espèce, alors qu’il est bien question d’une liberté, le juge est complètement évincé, ce qui dénote la fragilité du dispositif.

Je ne nie pas l’urgence à agir pour défendre de manière efficace nos valeurs sans pour autant les piétiner.

M. Philippe Latombe. L’article 1er prévoit un dispositif identique à celui que le Conseil constitutionnel avait censuré dans sa décision du 18 juin 2020. Dès lors comment pourrait-il être conforme à la Constitution alors que celle-ci n’a pas été modifiée ?

Actuellement, une personnalité qualifiée est chargée au nom de la CNIL de contrôler les signalements et les demandes de retrait. Dans une affaire récente, l'Office central contre la criminalité liée aux technologies de l'information et de la communication (OCLCTIC) avait retenu la qualification terroriste avant d’être contredit par la personnalité qualifiée de la CNIL. La décision judiciaire rendue le 31 janvier 2019 a donné raison à cette dernière. Or le texte confie désormais à l’Arcom la mission de contrôler mais aussi d’appliquer des sanctions. Pourquoi supprimer le contrôle exercé par la personnalité qualifiée que le législateur avait jugé pertinent en son temps ? Je doute que le texte puisse apporter une solution dans l’affaire que je viens d’évoquer mais peut-être me démentirez-vous.

M. Philippe Gosselin. Le texte va évidemment dans le bon sens. Qui peut refuser de lutter contre le terrorisme, contre la propagation de ce fiel sur internet et contre ces atteintes à l’État de droit ainsi qu’à l’intégrité de nos concitoyens ?

Néanmoins, on peut s’interroger sur la proportionnalité des dispositions qui sont prévues. Je regrette également l’absence d’avis du Conseil d’État et d’étude d’impact. Loin de moi toutefois l’impression que le texte est bâclé.

Stéphane Peu a pointé la diversité des conceptions au sein de l’Union européenne sur des sujets qui pourtant nous réunissent. L’Union rassemble des États aux cultures, aux sensibilités et aux histoires différentes. On peut regretter que la vision française ne domine pas mais les visions allemande ou hongroise sont tout aussi légitimes et méritent d’être respectées. On peut néanmoins craindre des ingérences fâcheuses.

À l’instar de Philippe Latombe, je m’interroge sur la conformité de l’article 1er à la décision du Conseil constitutionnel du 18 juin 2020. Je pensais que la vieille règle non bis in idem pouvait s’appliquer ici.

Sans me faire le porte-parole de la CNIL au sein de laquelle je représente l’Assemblée nationale, je m’interroge sur la disparition de la personnalité qualifiée. Qu’apporte le texte dans ce domaine ?

Mme Cécile Untermaier. Le choix de recourir à une proposition de loi qui nous prive de l’avis du Conseil d’État et d’étude d’impact suscite des interrogations. Bien sûr, nous pouvons décider seuls mais sur des sujets qui seront examinés par le Conseil constitutionnel, la prudence est de mise et l’éclairage d’autres institutions n’est pas inutile.

Nous redoutons la sanction du Conseil constitutionnel. Quelle est votre analyse ? Quelle est la position de la CNIL ?

Face à la difficulté de sanctionner les contenus sur un site hébergé en dehors de la France, le règlement est bienvenu. En revanche, l’utilité des dispositions qu’ajoute la proposition de loi ne nous paraît pas démontrée surtout en l’absence d’étude d’impact sur un sujet qui touche aux libertés fondamentales et au code pénal.

Mme Aude Bono-Vandorme, rapporteure. Madame Avia, s’agissant de l'harmonisation avec les sanctions prévues dans la loi confortant le respect des principes de la République, les obligations visées par ladite loi et par la présente proposition de loi peuvent concerner des types différents d'hébergeurs. La loi prévoit ainsi une sanction pouvant aller jusqu’à 6 % du chiffre d'affaires et 20 millions d'euros pour les contenus haineux. Cette disposition permet de sanctionner les manquements des opérateurs de plateformes en ligne mentionnés à l'article 6-4 de la loi pour la confiance dans l’économie numérique (LCEN) dont l'activité sur le territoire français dépasse un seuil de nombre de connexions déterminé par décret. Le dispositif créé par la loi ne concerne donc que les grandes plateformes. En revanche, les sanctions prévues dans la proposition de loi, qui sont plafonnées à 4 % du chiffre d'affaires en matière pénale et administrative, concernent l'ensemble des hébergeurs, y compris les plus petits. Le critère de la taille est pris en considération uniquement pour déterminer le quantum de la sanction. Le nouvel article 6-1-2 de la LCEN est donc susceptible de s’appliquer aux petits hébergeurs qui ne sont pas soumis aux obligations de diligence prévues par l'article 6-1-4.

En outre, le règlement TCO prévoit dans son article 18 un plafond pour les sanctions en cas de refus de se conformer aux injonctions de retrait. Il n'est donc pas possible d’infliger une sanction pour ce motif excédant 4 % du chiffre d'affaires. En revanche, pour les obligations administratives afférentes – transparence, instauration d'un point de contact, coopération avec les autorités, etc. –, il pourrait être envisagé d'aggraver les sanctions pour les aligner sur celles de la loi confortant le respect des principes de la République. Cependant, outre les difficultés posées par la taille des hébergeurs, il semble cohérent de ne pas sanctionner plus durement les manquements aux obligations administratives que les manquements aux obligations de retrait, ces dernières étant vraiment au cœur de notre dispositif. C’est pour cette même raison que je m’opposerai à tous les amendements visant à aggraver les sanctions.

Monsieur Schellenberger, je vous remercie pour votre soutien.

Madame Karamanli, le recours à la procédure accélérée me semble légitime puisque le règlement doit s’appliquer à compter du 7 juin 2022.

L’article 23 du règlement prévoit une évaluation, qui sera diligentée par la Commission européenne, au plus tard le 7 juin 2024. Il n’est donc pas nécessaire d’adopter une disposition en ce sens. Toutefois, rien n'empêche notre assemblée d'évaluer l'application de la présente proposition de loi comme elle le fait régulièrement.

Madame Brocard, la proposition de loi transpose le règlement TCO qui concerne les contenus à caractère terroriste en ligne tandis que le DSA vise à encadrer les plateformes et les réseaux sociaux afin de mieux lutter contre la haine en ligne et la désinformation. Il s'agit de responsabiliser les hébergeurs tels que Facebook, Twitter, YouTube quant aux contenus qu'ils diffusent. Le DSA prévoit aussi de nouvelles obligations visant à faciliter les signalements. En cela, le dispositif du DSA se rapproche de celui existant en droit français depuis 2021 dans l'article 6-4 de la LCEN. Les deux règlements ne sont pas incompatibles. Néanmoins, les dispositions du TCO priment sur celles du DSA, comme l’affirme d’ailleurs le considérant n° 9 du DSA.

Monsieur Molac, vous vous interrogez, comme plusieurs de nos collègues, sur la constitutionnalité de cette proposition de loi.

Le dispositif prévoit des garanties qui en assurent sa conformité à la Constitution. D’abord, la proposition de loi traduit simplement le droit européen : sa transposition est une obligation pour la France et le Conseil constitutionnel prévoit, à ce titre, un examen de constitutionnalité restreint. Ensuite, le périmètre matériel de l’infraction n’est pas le même que celui qui avait été retenu dans la loi Avia. La nature des contenus à caractère terroriste est précisément définie, tant dans notre code pénal que dans le règlement européen. Le champ d’application du texte est plus clair juridiquement, d’autant plus que seuls les contenus manifestement illicites sont visés.

En cas de non-respect des obligations administratives à la charge des hébergeurs, la proposition de loi ne prévoit pas de sanction immédiate, mais d’abord une mise en demeure. L’Arcom pourra même émettre des recommandations avant l’envoi de ces injonctions, qui ne sont pas obligatoires. En outre, s’agissant des obligations de retrait de contenus, la première notification est soumise à une information préalable de l’hébergeur au moins douze heures avant l’injonction. L’ensemble de ces éléments contribue à sécuriser ce texte et garantit à mon sens sa constitutionnalité.

Monsieur Bernalicis, s’agissant de la remarque que vous avez faite sur les députés du groupe La République en marche, j’ai envie de citer les mots de Talleyrand : « Tout ce qui est excessif est insignifiant. » N’oubliez pas que nous travaillons ensemble !

Vous vous inquiétez du recours aux algorithmes. L’article 5 du règlement encadre leur usage. Il prévoit l’introduction de garanties efficaces et appropriées, une surveillance et des vérifications humaines. Je vous renvoie à cet article, qui ne nécessite pas d’adaptation, qui est donc d’application directe et qui prévoit des garanties de proportionnalité et de non-discrimination dans les moyens mobilisés par les plateformes.

Monsieur Peu, s’agissant des injonctions de retrait transfrontalières, le principe du pays d’origine est imposé par le règlement. Toutes les autorités nationales sont soumises à ces dispositions, qui sont claires et directement applicables. Elles seront donc bien contraintes de retirer les contenus manifestement illicites, n’importe où dans l’Union.

M. Stéphane Peu. C’est précisément ce qui m’inquiète : tout État membre de l’Union pourra intervenir sur des contenus, alors que nous n’avons pas tous le même rapport à ceux-ci. Il ne faudrait pas que des choses auxquelles nous sommes très attachés, comme le blasphème ou la caricature, puissent être censurées au nom même des principes de certains États membres. Il serait paradoxal de vouloir lutter contre le terrorisme ou l’incitation au terrorisme en ligne et que cela se traduise par des sanctions contre ceux qui en sont victimes – par exemple Charlie Hebdo.

Mme Aude Bono-Vandorme, rapporteure. Le pays qui reçoit un signalement dispose d’un délai pour analyser si le contenu a effectivement un caractère terroriste chez lui. Ce délai est bien prévu dans le règlement, car nous y tenions tous.

Monsieur Latombe, madame Untermaier, vous m’avez interrogée au sujet de la CNIL, que nous avons longuement auditionnée. Elle ne voit pas d’inconvénient à ce que l’Arcom devienne l’autorité compétente.

M. Philippe Latombe. Je ne comprends pas pourquoi la personnalité qualifiée issue de la CNIL disparaît du dispositif, alors qu’elle avait un intérêt évident. Elle pouvait, le cas échéant, s’opposer à la qualification d’actes terroristes retenue par l’OCLCTIC. L’Arcom aura désormais une double casquette, puisqu’elle sera chargée à la fois de contrôler et d’appliquer les injonctions. Or le législateur avait expressément introduit la personnalité qualifiée issue de la CNIL pour contrôler les qualifications de l’OCLCTIC.

Mme Aude Bono-Vandorme, rapporteure. Je vous ferai la même réponse que précédemment : la CNIL a été auditionnée et ne voit aucun inconvénient à ce que l’Arcom prenne cette responsabilité.

Article unique : Dispositions visant à lutter contre la diffusion de contenus à caractère terroriste en ligne

Amendement CL7 de M. Ugo Bernalicis.

M. Ugo Bernalicis. Nous demandons la suppression de l’article unique, car nous sommes opposés à ce texte.

Permettez-moi de vous lire un extrait de la décision du Conseil constitutionnel du 18 juin 2020, relative à la loi visant à lutter contre les contenus haineux sur internet :

« La diffusion d’images pornographiques représentant des mineurs, d’une part, et la provocation à des actes de terrorisme ou l’apologie de tels actes, d’autre part, constituent des abus de la liberté d’expression et de communication qui portent gravement atteinte à l’ordre public et aux droits des tiers. En imposant aux éditeurs et hébergeurs de retirer, à la demande de l’administration, les contenus que cette dernière estime contraires aux articles 227-23 et 421-2-5 du code pénal, le législateur a entendu faire cesser de tels abus.

Toutefois, d’une part, la détermination du caractère illicite des contenus en cause ne repose pas sur leur caractère manifeste. Elle est soumise à la seule appréciation de l’administration. D’autre part, l’engagement d’un recours contre la demande de retrait n’est pas suspensif et le délai d’une heure laissé à l’éditeur ou l’hébergeur pour retirer ou rendre inaccessible le contenu visé ne lui permet pas d’obtenir une décision du juge avant d’être contraint de le retirer. Enfin, l’hébergeur ou l’éditeur qui ne défère pas à cette demande dans ce délai peut être condamné à une peine d’emprisonnement d’un an et à 250 000 euros d’amende. »

Or le dispositif que vous proposez est exactement le même que celui qui a fait l’objet de cette décision, si ce n’est qu’il ne porte pas sur la pédopornographique et que le règlement précise maintenant que le caractère illicite des contenus doit avoir un caractère manifeste – mais je ne suis pas sûr que cela change radicalement l’appréciation du Conseil constitutionnel.

Par ailleurs, comme cela a été dit, il est regrettable que vous ayez choisi de passer par une proposition, et non par un projet de loi, puisque cela nous prive d’une étude d’impact, ainsi que d’un avis du Conseil d’État.

Enfin, ce dispositif dédouane les pouvoirs publics de leurs responsabilités, qu’il s’agisse de la personnalité qualifiée issue de la CNIL ou des magistrats, qui ne sont pas assez nombreux. Dans certains cas, des décisions s’imposent, mais il faut qu’elles soient respectueuses des droits fondamentaux, notamment de la liberté d’expression. On ne peut pas laisser des algorithmes faire ce travail. Certes, un contrôle humain s’exerce lorsque quelqu’un se plaint d’avoir été censuré, mais quel crédit accorder à ce contrôle, s’il s’exerce au sein des plateformes et après les algorithmes ?

Mme Aude Bono-Vandorme, rapporteure. Je vous ai déjà répondu au sujet de la proportionnalité du dispositif et de la constitutionnalité du texte.

Je rappelle que, pour les hébergeurs considérés comme exposés aux contenus à caractère terroriste, le texte prévoit des mesures spécifiques établies par l’hébergeur, sous le contrôle de l’Arcom, afin de prévenir les difficultés liées à la circulation de ces contenus tout en garantissant leur proportionnalité. Ces garanties figurent à l’article 5 du règlement européen.

Celui-ci dispose qu’un hébergeur exposé à des contenus à caractère terroriste doit inscrire dans ses conditions générales des dispositions visant à lutter contre l’utilisation abusive de ses services pour diffuser au public des contenus à caractère terroriste. Il se doit de les appliquer de manière diligente, proportionnée et non discriminatoire, en tenant dûment compte en toutes circonstances des droits fondamentaux des utilisateurs et en prenant en considération, en particulier, l’importance fondamentale de la liberté d’expression et d’information dans une société ouverte et démocratique, en vue d’éviter le retrait de matériel ne constituant pas un contenu à caractère terroriste.

J’émettrai donc un avis défavorable sur votre amendement.

M. Ugo Bernalicis. Imaginons que vous ayez raison et que ce texte soit, en effet, parfaitement rédigé – ce que je ne pense pas. La question de son effectivité et de son application concrète se pose tout de même.

En l’état du droit, il n’est pas permis de mettre en scène le meurtre d’un député ou d’appeler à le tuer avec une arme à la main. Pourtant, un tel contenu n’est pas censuré par les plateformes. En l’état du droit, rien n’incite à censurer l’intervention d’un député à la tribune de l’Assemblée, et pourtant, c’est ce que fait l’algorithme.

Ce que Frances Haugen nous a expliqué, c’est que même si ceux qui les créent sont animés des meilleures intentions, ces algorithmes ont un effet pervers que nous n’arrivons pas à contrôler. La massification des données fait que, même avec un texte génial, nous retomberons dans les mêmes travers si nous ne nous en remettons pas à une autorité judiciaire indépendante. La liberté d’expression ne sera pas respectée, dans bien des cas, et des contenus seront supprimés sans raison : je suis certain que nous le constaterons ensemble.

La philosophie du texte pousse les plateformes à utiliser le filet dérivant le plus large possible. En effet, elles risquent davantage d’être sanctionnées si elles n’ont pas supprimé un contenu à caractère terroriste, que si elles ont censuré un contenu qui n’aurait pas dû l’être. Voilà pourquoi, sur le fond, sur la forme et en droit, nous avons la conviction que ce texte ne doit pas être appliqué. Notre droit nous permet déjà, pour peu qu’on y mette les moyens – notamment humains – de retirer les contenus à caractère terroriste, tout en garantissant la liberté d’expression.

M. Philippe Latombe. Madame la rapporteure, je ne suis toujours pas convaincu de la constitutionnalité de cette proposition de loi, et ce, pour deux raisons.

Premièrement, dans sa décision du 18 juin 2020, le Conseil constitutionnel indiquait expressément que la détermination du caractère illicite des contenus à caractère terroriste ne devait pas être soumise à la seule appréciation de l’administration. Deuxièmement, il déplorait qu’il n’y ait pas de recours au juge.

La seule différence entre la proposition de loi que vous nous soumettez et celle qui a fait l’objet de la censure du Conseil constitutionnel, c’est le caractère manifeste.

Or, dans la décision de justice du 31 janvier 2019, c’est précisément le caractère manifeste des contenus qualifiés de terroristes par l’OCLCTIC qui a été contesté par le tribunal administratif. Le mot « manifeste » doit donc être discuté. Et le Conseil constitutionnel notait justement que ce caractère manifeste devait faire l’objet d’une discussion devant un juge.

Je ne vois pas en quoi l’article unique de cette proposition de loi est conforme aux prescriptions du Conseil constitutionnel. J’entends vos explications, mais je ne suis pas convaincu et je ne voterai donc pas cet article – mais je ne m’y opposerai pas non plus. Nous aurions gagné, sur ces questions qui concernent nos libertés individuelles et publiques, à connaître l’avis du Conseil d’État.

Mme Laetitia Avia. Je souhaite répondre à nos collègues en quatre points.

Premièrement, cette proposition de loi vise à adapter notre droit à un règlement européen qui s’impose à nous. L’étude d’impact n’a donc pas lieu d’être.

J’en viens, deuxièmement, à la constitutionnalité du texte. Je connais par cœur la décision du Conseil constitutionnel du 18 juin 2020. Il dit, d’abord, que les contenus ne sont pas définis. Or le règlement TCO définit les contenus à caractère terroriste, en se référant, non pas aux lois nationales, mais à la directive européenne du 15 mars 2017 relative à la lutte contre le terrorisme. Les choses sont définies dans le TCO : le champ de la loi n’est donc plus le même. Le Conseil constitutionnel indique ensuite qu’il faut un recours au juge, et que ce recours doit être suspensif. Je vous engage à lire les alinéas 25 et suivants de l’article unique, qui prévoient l’ensemble des recours juridictionnels. Le caractère suspensif de ces recours est prévu par l’article 3, alinéa 9, du TCO. Voilà un autre changement fondamental par rapport à ce que nous avions voté dans ma proposition de loi.

Troisièmement, il a beaucoup été question des algorithmes, mais il ne faut pas se tromper de sujet. Le retrait d’un contenu dans un délai d’une heure n’est pas le fait d’un algorithme. Le retrait algorithmique est un retrait préventif, qui a lieu avant tout signalement. Lorsqu’un contenu est retiré à la suite d’un signalement, ce n’est pas le fait d’un algorithme.

Quatrièmement, sur tous les textes relatifs au numérique que nous avons examinés depuis le début de la législature, la CNIL nous a dit que la personnalité qualifiée n’est pas opérationnelle, que ce dispositif ne fonctionne pas. L’Arcom n’aura pas de double casquette, puisqu’elle interviendra sur les contenus transfrontaliers, et l’OCLCTIC, sur les contenus nationaux.

Enfin, ne faisons pas dire à Frances Haugen ce qu’elle n’a pas dit. Elle est intervenue ici et au sein de l’Union européenne pour renforcer le DSA. C’est grâce à son intervention, à son action en faveur du DSA, que ce texte pourra être adopté dans le cadre de la présidence française de l’Union européenne.

Mme Cécile Untermaier. Notre groupe estime que la représentation nationale est insuffisamment informée sur ce texte. Cette proposition de loi est sans doute nécessaire, puisque le règlement européen doit s’appliquer dès le mois de juin. Mais ne pourrait-on pas, d’ici à l’examen du texte en séance publique, consulter le Conseil d’État ? Admettez qu’il est difficile de se faire un avis, alors que nous n’avons qu’un exposé des motifs de deux pages. Au sujet d’un texte qui concerne nos libertés fondamentales, il paraît important de recueillir l’avis du Conseil d’État. Nous l’avons toujours fait sous la précédente législature.

Mme Aude Bono-Vandorme, rapporteure. Il est vrai que l’exposé des motifs ne fait que deux pages, mais un projet de rapport de vingt pages vous a également été remis.

La commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CL8 de Mme Aude Bono-Vandorme.

Amendement CL9 de Mme Aude Bono-Vandorme. 

Mme Aude Bono-Vandorme, rapporteure. Le nouvel article 6-1-1 que la proposition de loi introduit dans la LCEN prévoit que la procédure d’examen approfondi d’une injonction de retrait transfrontalière est réalisée par une personnalité qualifiée désignée au sein de l’Arcom. Les délais dans lesquels cette personnalité qualifiée doit exercer ses compétences sont très courts et nécessitent une grande capacité de réaction. Or, dans certains cas, celle-ci peut ne pas être disponible immédiatement, ce qui compromet l’efficacité de la procédure.

Cet amendement vise ainsi à prévoir la désignation d’un suppléant dans les mêmes conditions que la personnalité qualifiée titulaire afin de garantir une réponse rapide en cas de sollicitation. Il répond à une demande formulée à la fois par la CNIL, qui est actuellement informée des procédures de blocage administratif sous l’empire de l’article 6-1 de la LCEN, et par l’Arcom.

La commission adopte l’amendement.

La commission adopte successivement les amendements CL10 et CL11, rédactionnels, CL12, de précision et CL13, rédactionnel, de Mme Aude Bono-Vandorme.

Amendement CL14 de Mme Aude Bono-Vandorme.

Mme Aude Bono-Vandorme, rapporteure. Dans la rédaction actuelle, l’Arcom ne pourrait mettre en demeure un hébergeur qu’en cas de manquement systématique ou persistant à des obligations administratives. Elle peut ensuite, en cas de réitération du même manquement, le sanctionner. Cet agencement me paraît trop restrictif, sachant que : d'une part, préalablement à une mise en demeure, l’Arcom est susceptible d’adresser des actes de droit souple aux hébergeurs en situation de manquement, comme des mises en garde, l’adoption d’une mise en demeure n’étant qu’une faculté ; d’autre part, avant une éventuelle sanction, les hébergeurs auront déjà été mis en demeure de se conformer à leurs obligations.

Il semble donc préférable de permettre à l’Arcom de mettre en demeure les hébergeurs pour tout manquement aux obligations administratives concernées, y compris en cas de manquements ponctuels auxdites obligations, étant entendu que cette évolution du texte n’est pas contraire aux dispositions du règlement.

La commission adopte l’amendement.

La commission adopte successivement les amendements rédactionnels CL15, CL17, CL16, CL18, CL19, CL21, CL22 de Mme Aude Bono-Vandorme.

Amendement CL23 de Mme Aude Bono-Vandorme.

Mme Aude Bono-Vandorme, rapporteure. Il s’agit d’habiliter l’Arcom à recueillir les informations nécessaires pour faire appliquer le règlement TCO.

L’Arcom est chargée d’une mission de veille générale et de suivi des obligations administratives découlant du règlement. Mais, en l’état de la rédaction du texte, cette autorité ne serait pas habilitée à recueillir, auprès des hébergeurs, les informations nécessaires au suivi des obligations qui s’imposent à eux, ce qui est susceptible de rendre plus difficile l’exercice de sa mission de contrôle.

Il me semble donc opportun de doter l’Arcom des pouvoirs nécessaires pour recueillir les informations pertinentes auprès des hébergeurs. Tel est l’objet de cet amendement.

La commission adopte l’amendement.

La commission adopte successivement les amendements rédactionnels CL24, CL25, CL26 et CL28 de Mme Aude Bono-Vandorme.

Amendement CL33 de Mme Aude Bono-Vandorme.

Mme Aude Bono-Vandorme, rapporteure. L’article R. 311-1 du code de justice administrative prévoit que les décisions adoptées par l’Arcom en tant qu’organisme collégial sont en principe susceptibles de recours devant le Conseil d’État. Or la rédaction actuelle de la proposition de loi retient la compétence du tribunal administratif.

Je propose de remplacer le tribunal administratif par le Conseil d’État comme autorité compétente pour se prononcer sur la réformation des décisions prises par l’Arcom à l’encontre des hébergeurs considérés comme exposés ou leur enjoignant de prendre des mesures spécifiques.

La commission adopte l’amendement.

La commission adopte l’article unique modifié.

L’ensemble de la proposition de loi est ainsi adopté.

 

En conséquence, la commission des Lois constitutionnelles, de la législation et de l’administration générale de la République vous demande d’adopter la proposition de loi portant diverses dispositions d’adaptation au droit de l’Union européenne en matière de prévention de la diffusion de contenus à caractère terroriste en ligne (n° 4883 rect.) dans le texte figurant dans le document annexé au présent rapport.

 


—  1  —

   PERSONNES ENTENDUES PAR LA RAPPPORTEURE

   M. Charles-Pierre Astolfi, conseiller au cabinet de M. Cédric O

   M. Manuel Rubio-Gullon, sous-directeur de la négociation et de la législation pénales

   M. Nicolas Guidoux, sous-directeur de la lutte contre la cybercriminalité, commissaire divisionnaire

   M. Pierre-Yves Lebeau, commandant divisionnaire, chef d’état-major

   M. Jean-Francois Ricard, procureur de la République antiterroriste près le tribunal judiciaire de Paris

   Mme Laurence Pecaut-Rivolier et M. Benoît Loutrel, membres du collège

   Mme Lucile Petit, directrice des plateformes en ligne

   M. César Boyer, chargé de mission à la direction juridique

   Mme Florence Fourets, directrice chargée des projets régaliens auprès du Secrétaire général

   M. Loïc Duflot, directeur Internet, presse, postes et utilisateurs

   M. Thibault Guiroy, responsable des relations institutionnelles

   M. Arnaud Vergnes, conseiller juridique

   M. Stéphane Harrouch, responsable des relations institutionnelles

   Mme Béatrice Oeuvrard, responsable des affaires publiques

   M. Marc Vinckevleugel, manager

   M. Pierre-Yves Beaudouin, président

   Mme Naphsica Papanicolaou, chargée de plaidoyer

   Mme Gabrielle Maubon, secrétaire générale

   Mme Clotilde Bailleul, secrétaire générale adjointe

   M. Emmanuel Laforêt, président

   M. Aurélien Martini, trésorier national adjoint

   Mme Isabelle Grenier, membre de la commission numérique

   Mme Émilie Guillet, chargée de mission affaires publiques

   Me Jérôme Dirou, membre du Bureau

 

(*) Ces représentants d’intérêts ont procédé à leur inscription sur le registre de la
Haute Autorité pour la transparence de la vie publique, s’engageant ainsi dans
une démarche de transparence et de respect du code de conduite établi par le
Bureau de l’Assemblée nationale.


([1]) Cette autorité, qui sera désignée par le pouvoir réglementaire, devrait être l’office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), déjà compétent pour les demandes de retrait, blocage ou déréférencement prévues à l’article 6-1 de la LCEN.

([2]) L’Arcom est une nouvelle autorité administrative indépendante résultant, depuis le 1er janvier 2022, de la fusion du Conseil supérieur de l’audiovisuel (CSA) et de la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (HADOPI).

([3]) Le statut d’hébergeur « exposé » peut être décidé par l’Arcom pour qualifier certains fournisseurs de services d’hébergement considérés comme très exposés aux contenus à caractère terroriste. Le règlement précise que ce statut peut par exemple être déterminé après la notification de deux injonctions de retrait définitives dans les douze derniers mois.

([4]) Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur.

([5]) Les fournisseurs d’accès à internet sont les prestataires auprès desquels les internautes souscrivent un abonnement pour pouvoir accéder à internet, tandis que les hébergeurs sont les prestataires qui, pour le compte des éditeurs de sites internet, stockent des données dont ils ne sont pas à l’origine de la publication.

([6]) Articles 12 à 14 de la directive.

([7]) Article 15 de la directive.

([8]) 7ème considérant du règlement : « Le présent règlement ne devrait pas avoir d’incidence sur l’application de la directive 2000/31/CE. En particulier, aucune des mesures prises par un fournisseur de services d’hébergement dans le respect du présent règlement, y compris les mesures spécifiques, ne devrait en soi entraîner la perte par ce fournisseur de services d’hébergement du bénéfice de l’exemption de responsabilité prévue dans ladite directive (…) » 

([9]) Article 1er du règlement.

([10]) Il s’agit des actes – ou de l’intention de commettre les actes – d’atteintes à la vie d’une personne, pouvant entraîner la mort, à l’intégrité physique d’une personne, de l’enlèvement ou de la prise d’otage, le fait de causer des destructions massives à une installation gouvernementale ou publique, à un système de transport, à une infrastructure, y compris un système informatique, à une plateforme fixe située sur le plateau continental, à un lieu public ou une propriété privée, susceptible de mettre en danger des vies humaines ou de produire des pertes économiques considérables ; de la capture d’aéronefs et de navires ou d’autres moyens de transport collectifs ou de marchandises ; de la fabrication, la possession, l’acquisition, le transport, la fourniture ou l’utilisation d’explosifs ou d’armes, y compris d’armes chimiques, biologiques, radiologiques ou nucléaires, ainsi que la recherche et le développement pour ce qui est des armes chimiques, biologiques, radiologiques ou nucléaires ; de la libération de substances dangereuses, ou la provocation d’incendies, d’inondations ou d’explosions, ayant pour effet de mettre en danger des vies humaines, de la perturbation ou l’interruption de l’approvisionnement en eau, en électricité ou toute autre ressource naturelle fondamentale ayant pour effet de mettre en danger des vies humaines, ainsi que l’atteinte illégale à l’intégrité d’un système ou des données.

([11]) Cette notion est précisée par le 11ème considérant du règlement. Il s’agit du matériel « qui incite ou invite quelqu’un à commettre des infractions terroristes ou à contribuer à la commission de telles infractions, invite quelqu’un à participer aux activités d’un groupe terroriste ou glorifie les activités terroristes y compris en diffusant du matériel représentant une attaque terroriste. »

([12]) Paragraphe 3 de l’article 1er du règlement.

([13]) Si l’hébergeur n’a pas son établissement principal dans un pays de l’Union européenne, mais exerce ses activités dans le territoire de l’Union, il doit désigner un représentant légal dans un pays où il propose ses services (voir infra). L’autorité administrative d’un État membre peut ainsi, au titre de l’article 3, adresser l’injonction à tout représentant légal situé sur le territoire de cet État.

([14]) La notion d’« urgence » est définie au 17ème considérant du règlement. Elle concerne les cas où le retrait des contenus plus d’une heure après la réception de l’injonction « entraînerait un grave préjudice, par exemple dans des situations de menace imminente pour la vie ou l’intégrité physique d’une personne, ou lorsque ces contenus représentent des événements en cours entraînant une atteinte à la vie ou à l’intégrité physique d’une personne. L’autorité compétente devrait déterminer si les cas concernés constituent des cas d’urgence et dûment motiver sa décision dans l’injonction de retrait. »

([15]) Le considérant 10 du règlement dispose à cet égard que « les mesures qui ont une incidence sur la liberté d’expression et d’information devraient être strictement ciblées de façon à lutter contre la diffusion des contenus à caractère terroriste en ligne tout en respectant le droit de recevoir et de communiquer des informations de manière licite, en tenant compte du rôle central que jouent les fournisseurs de services d’hébergement pour faciliter le débat public ainsi que la diffusion et la réception d’informations factuelles, d’opinions et d’idées, conformément au droit. »

([16]) Le 26ème considérant du règlement en donne plusieurs exemples de ce que sont les données connexes. Elles « peuvent comprendre les données relatives aux abonnés, notamment les données relatives à l’identité du fournisseur de contenus, ainsi que les données d’accès, y compris les données concernant la date et l’heure de l’utilisation par le fournisseur de contenus et la connexion et la déconnexion du service, de même que l’adresse IP attribuée par le fournisseur d’accès à l’internet au fournisseur de contenus. » 

([17]) Le règlement précise le contenu de ce rapport, qui doit présenter les mesures adoptées pour identifier et retirer le contenu à caractère terroriste ou en bloquer l’accès, les mesures prises pour éviter la réapparition de ces contenus, ainsi que le nombre d’éléments retirés ou bloqués, d’injonctions n’ayant pas donné suite et de réclamations traitées, en précisant leur issue. Le rapport doit également présenter le nombre et l’issue des procédures de réexamen administratif ou de contrôle juridictionnel engagés par l’hébergeur, ainsi que le nombre de cas dans lesquels il a été contraint de rétablir les contenus ou l’accès à ces contenus.

([18]) 2° à 5° du I de l’article 6.

([19]) Il s’agit des contenus, visés au 7° du I de l’article 6, relatifs à l'apologie, la négation ou la banalisation des crimes contre l'humanité, la provocation à la commission d'actes de terrorisme et leur apologie, l'incitation à la haine raciale, à la haine à l'égard de personnes à raison de leur sexe, de leur orientation sexuelle, de leur identité de genre ou de leur handicap ainsi que la pornographie enfantine, l'incitation à la violence, notamment l'incitation aux violences sexuelles et sexistes, ainsi que les atteintes à la dignité humaine.

([20]) Conseil constitutionnel, décision n° 2011-625 DC du 10 mars 2011, considérant n° 8.

([21]) La désignation de l’autorité compétente relève du pouvoir réglementaire. Celle de l’OCLCTIC figure à l’article 1er du décret n° 2015-125 du 5 février 2015.

([22]) Jusqu’en 2016, l’entreprise traitait moins de 3 000 requêtes par semestre.

([23]) La loi n° 2021-1382 du 25 octobre 2021 relative à la régulation et à la protection de l'accès aux œuvres culturelles à l'ère numérique prévoit cependant qu’à partir du 7 juin 2022, la personnalité qualifiée soit désignée au sein de l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

([24]) Conseil d’État, avis sur la proposition de loi visant à lutter contre la haine sur Internet, n° 397368, 16 mai 2019.

([25]) Conseil constitutionnel, décision n° 2020-801 DC du 18 juin 2020, paragraphe 6 : « La diffusion d'images pornographiques représentant des mineurs, d'une part, et la provocation à des actes de terrorisme ou l'apologie de tels actes, d'autre part, constituent des abus de la liberté d'expression et de communication qui portent gravement atteinte à l'ordre public et aux droits des tiers. En imposant aux éditeurs et hébergeurs de retirer, à la demande de l'administration, les contenus que cette dernière estime contraires aux articles 227-23 et 42125 du code pénal, le législateur a entendu faire cesser de tels abus. »

([26]) Ibid., paragraphe 4 : « Aux termes de l'article 11 de la Déclaration des droits de l'homme et du citoyen de 1789 : "La libre communication des pensées et des opinions est un des droits les plus précieux de l'homme : tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l'abus de cette liberté dans les cas déterminés par la loi." En l'état actuel des moyens de communication et eu égard au développement généralisé des services de communication au public en ligne ainsi qu'à l'importance prise par ces services pour la participation à la vie démocratique et l'expression des idées et des opinions, ce droit implique la liberté d'accéder à ces services et de s'y exprimer. »

([27])  Celles-ci doivent ainsi procéder chaque année à une évaluation des risques systémiques liés au fonctionnement et à l'utilisation de leurs services en matière de diffusion des contenus haineux et d'atteinte aux droits fondamentaux, notamment à la liberté d'expression ; mettre en œuvre des mesures raisonnables, efficaces et proportionnées afin d’atténuer les risques de diffusion de ces contenus ; rendre compte au public, selon des modalités et une périodicité fixées par l’Arcom, de l'évaluation de ces risques systémiques et des mesures d'atténuation des risques mises en œuvre.

([28]) Cette prérogative devrait échoir à l’OCLCTIC.

([29]) Si une sanction pécuniaire a été prise sur le même fondement par une autorité dans un autre État européen, le montant en question est dégrevé du plafond maximal de la sanction.