Accueil > Documents parlementaires > Les rapports législatifs
Version PDF
Retour vers le dossier législatif
Amendements  sur le projet ou la proposition


N° 2062

______

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

Enregistré à la Présidence de l'Assemblée nationale le 19 juin 2019

RAPPORT

FAIT

AU NOM DE LA COMMISSION DES LOIS CONSTITUTIONNELLES, DE LA LÉGISLATION
ET DE L’ADMINISTRATION GÉNÉRALE DE LA RÉPUBLIQUE SUR LA PROPOSITION DE LOI,
APRÈS ENGAGEMENT DE LA PROCÉDURE ACCÉLÉRÉE,

visant à lutter contre la haine sur internet (n° 1785)

PAR MME Laetitia AVIA

Députée

——

Voir les numéros :

Assemblée nationale : 1785 et 1989.

SOMMAIRE

___

Pages

AVANT-PROPOS 7

SYNTHÈSE 11

I. UNE PROLIFÉRATION INACCEPTABLE DE CONTENUS HAINEUX SUR INTERNET 11

A. UN NIVEAU PRÉOCCUPANT DE RACISME, D’ANTISÉMITISME ET DE XÉNOPHOBIE DANS LA SOCIÉTÉ 11

1. Des comportements encore prégnants et dont les motifs évoluent… 11

a. Un racisme important malgré une progression de la tolérance 11

b. Un renouvellement des argumentaires du racisme ? 12

2. … qui se retrouvent dans la délinquance constatée 13

a. L’état de la délinquance raciste 13

b. Une réalité sous-estimée 13

B. UNE HAINE QUI PROLIFÈRE SUR INTERNET 15

1. Un nombre élevé de contenus haineux en ligne 15

a. Les signalements aux plateformes en ligne 15

b. Les signalements à PHAROS 17

2. Des progrès insuffisants dans le retrait de ces contenus et la répression de leurs auteurs 18

a. La marge de progression des plateformes 18

b. La montée en puissance des pouvoirs publics 20

C. LA NÉCESSITÉ DE LÉGIFERER 22

1. L’inefficacité du dispositif de la loi pour la confiance dans l’économie numérique 22

a. L’état du droit 22

b. Les insuffisances du dispositif actuel 22

2. Des initiatives en Europe pour améliorer la régulation d’internet 25

a. Une approche par le droit souple de plus en plus contestée 25

b. Une régulation renforcée soutenue par les plateformes et la société civile 26

II. PRÉSENTATION SYNTHÉTIQUE DE LA PROPOSITION DE LOI INITIALE 27

A. LES PRINCIPALES ORIENTATIONS DE LA PROPOSITION DE LOI 27

1. Renforcer l’obligation de retrait des contenus haineux par les grandes plateformes en ligne 27

2. Instaurer une régulation administrative des grandes plateformes en ligne en matière de lutte contre les contenus haineux 28

3. Renforcer le devoir de coopération des grandes plateformes en ligne avec l’autorité judiciaire 29

4. Combattre efficacement la duplication des contenus jugés haineux 29

B. DES DISPOSITIONS COMPLÉMENTAIRES D’UN VASTE PLAN DE LUTTE CONTRE LA HAINE ET LES PRÉJUGÉS 30

1. Le plan national de lutte contre le racisme et l’antisémitisme 30

2. L’amélioration des moyens d’enquête et de jugement 30

3. La nécessaire révision du cadre européen applicable à la régulation des contenus en ligne 31

III. LA POSITION DE VOTRE COMMISSION DES LOIS 32

A. LE RENFORCEMENT DES OBLIGATIONS DES GRANDES PLATEFORMES EN LIGNE 32

1. Une obligation renforcée de retrait des contenus manifestement haineux 33

2. Un devoir de coopération dans la lutte contre la haine en ligne 34

a. L’obligation de se conformer aux recommandations du CSA 34

b. Les obligations de traitement des notifications 34

c. Les obligations d’information, de transparence et de coopération 34

B. LA CLARIFICATION DU RÔLE DE SUPERVISION DU CONSEIL SUPÉRIEUR DE L’AUDIOVISUEL 35

C. LA SÉCURISATION DE LA PROCÉDURE DE LUTTE CONTRE LA DUPLICATION DES CONTENUS JUGÉS HAINEUX 36

D. L’INTRODUCTION D’UN VOLET RELATIF À LA PRÉVENTION 36

EXAMEN DES ARTICLES 39

Chapitre Ier – (nouveau) Obligation renforcée de retrait des contenus haineux en ligne 39

Article 1er (art.6 et 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique Obligation de retrait en vingt-quatre heures des contenus manifestement haineux en ligne 39

Article 1er bis (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Formalisme de la notification d’un contenu manifestement haineux 57

Article 1er ter (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Sanction des notifications abusives ou malveillantes 58

Chapitre II – (nouveau) Devoir de coopération des opérateurs de plateforme dans la lutte contre les contenus haineux en ligne 59

Article 2 (art. 6 et 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Obligations de moyens en matière de traitement des notifications de contenu haineux en ligne 59

Article 3 (art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Obligations de moyens en matière d’information, de transparence et de coopération avec les autorités publiques compétentes 66

Article 3 bis (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Triplement du montant de la peine d’amende encourue en cas de non-coopération avec l’autorité judiciaire 71

Chapitre III – (nouveau) Rôle du Conseil supérieur de l’audiovisuel dans la lutte contre les contenus haineux en ligne 71

Article 4 (art. 17-3 [nouveau] et 42-7 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication et 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Rôle du Conseil supérieur de l’audiovisuel dans la lutte contre la haine sur internet 71

Article 5 (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Renforcement de l’obligation de coopération des opérateurs numériques avec l’autorité judiciaire en matière de lutte contre les contenus illicites 78

Chapitre IV – (nouveau) Amélioration de la lutte contre la diffusion de contenus haineux en ligne 81

Article 6 (art. 6 et 6-4 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Simplification de la procédure de blocage et de déréférencement des sites haineux 81

Article 6 bis (art. L. 312-9 du code de l’éducation) : Sensibilisation des élèves à la lutte contre la diffusion de la haine en ligne 86

Article 6 ter (art. L. 721-2 du code de l’éducation) : Formation des enseignants en matière de lutte contre la haine en ligne 87

Chapitre V – (nouveau) Dispositions finales 88

Article 7 : Rapport sur l’exécution de la loi et les moyens consacrés à la lutte contre les contenus illicites 88

Article 8 : Gage financier 88

Article 9 : Modalités d’entrée en vigueur 89

AUDITION DE M. CÉDRIC O, SECRÉTAIRE D’ÉTAT CHARGÉ DU NUMÉRIQUE 91

Réunion du mercredi 5 juin 2019 à 11 heures 15 91

COMPTE RENDU DES DÉBATS 105

Première réunion du mercredi 19 juin 2019 105

Seconde réunion du mercredi 19 juin 2019 159

ANNEXE N° 1 : AVIS DU CONSEIL D’ÉTAT 197

ANNEXE N° 2 : SYNTHÈSE DE LA CONSULTATION 209

PERSONNES ENTENDUES 217

DÉPLACEMENT 222

mesdames, messieurs,

S’« il suffit qu’un seul homme en haïsse un autre pour que la haine gagne de proche en proche l’humanité entière » (1), il y a lieu de s’inquiéter du nombre de messages de haine proliférant sur internet comme du sentiment d’impunité dont semblent profiter leurs auteurs.

Pourtant, ni l’ampleur de la haine en ligne, ni le relatif anonymat de ses auteurs ne sont des fatalités, dans l’espace numérique comme ailleurs. Resterait-on inactif si, dans le monde « physique », une personne était l’objet, de manière répétée ou non, d’insultes ou d’attaques verbales haineuses ? Conditionnerait-on la poursuite des auteurs de ces actes au nombre de personnes qui y ont assisté ? Serait-on indifférent au rôle de ceux qui, sans être à l’origine de ces insultes ou attaques, en auraient facilité la commission ou les auraient aggravées ?

Pour ne pas se résigner face à ce déferlement de contenus haineux sur les espaces de discussion qu’offre internet, il revient au législateur de mieux définir les moyens de combattre toutes les formes d’intolérance et de protéger nos concitoyens contre les effets délétères de cette haine sur la cohésion de la société.

Telle est l’ambition de la présente proposition de loi, que votre rapporteure et les membres du groupe La République en marche ont déposée sur le Bureau de l’Assemblée nationale le 20 mars 2019 au terme d’un long travail, entamé il y a plus d’une année, qui s’est poursuivi jusqu’à l’inscription de ce texte à l’ordre du jour de nos travaux.

Cette proposition est d’abord la concrétisation des engagements pris, dès le mois de mars 2018, par le Président de la République, convaincu de « l’absolue nécessité d’un combat ferme, constant, persévérant » contre toutes les formes de haine (2), et par le Premier ministre, lorsqu’il a présenté le nouveau plan de lutte contre le racisme et l’antisémitisme.

Elle est ensuite la traduction des recommandations formulées par votre rapporteure, avec MM. Karim Amellal, enseignant et écrivain, et Gil Taïeb, vice-président du Conseil représentatif des institutions juives de France, à l’issue d’une mission de réflexion et de propositions sur le renforcement de la lutte contre le racisme et l’antisémitisme sur internet (3). Avant de rendre ses conclusions, cette mission avait lancé une consultation publique sur le sujet et mené une opération de testing sur le signalement de propos racistes ou antisémites aux principaux réseaux sociaux, moteurs de recherche et forums de discussion, qui avaient souligné la nécessité d’agir et de le faire rapidement.

Enfin, ce texte a bénéficié, après son dépôt, d’un travail préparatoire approfondi et participatif.

Faisant usage de la possibilité qui lui est offerte par le dernier alinéa de l’article 39 de la Constitution, le président de l’Assemblée nationale a soumis cette proposition de loi au Conseil d’État, qui a rendu son avis le jeudi 16 mai 2019. Cet avis, précieux pour votre rapporteure et soutenant pleinement les objectifs poursuivis par le texte, formule plusieurs observations et propositions permettant de mieux concilier l’exigence d’efficacité de la lutte contre la haine en ligne et le nécessaire respect des exigences constitutionnelles et conventionnelles applicables en la matière (4).

La commission des Lois, à l’initiative de sa présidente et pour la première fois de la législature, a par ailleurs initié une consultation citoyenne sur le sujet, à laquelle plus de 1 400 personnes ont participé durant près de trois semaines et dont les principaux résultats figurent en annexe de ce rapport (5). Dans le même souci, votre rapporteure a organisé, durant trois semaines, de nombreuses auditions et tables rondes qui lui ont permis de recueillir l’avis d’une soixantaine de personnes, d’institutions, d’associations ou d’entreprises.

Cette proposition de loi s’inscrit en cohérence avec les travaux de la mission sur la régulation des réseaux sociaux, qui préconise, en complément d’une politique répressive à l’égard des meneurs et auteurs de haine, une responsabilisation accrue des grandes plateformes de réseaux sociaux, sous le contrôle d’une autorité administrative indépendante, ainsi que la révision du cadre européen de régulation, fondé sur la directive du 8 juin 2000 relative au commerce électronique (6), dite « e-commerce » (7).

En conformité avec la directive « e-commerce », la présente proposition de loi vise à adapter la loi du 21 juin 2004 pour la confiance dans l’économie numérique, qui en transpose les règles, afin de tirer les conséquences du rôle d’accélérateur de contenus joué par certaines grandes plateformes numériques (réseaux sociaux, moteurs de recherche) dans la propagation de la haine en ligne, à travers leurs fonctions d’ordonnancement ou de référencement des contenus qu’elles hébergent. Elle s’insère dans un mouvement européen plus large, initié par l’Allemagne qui s’est doté, en 2017, avec la loi « NetzDG », d’une régulation spécifique des réseaux sociaux, prélude d’une révision plus vaste du cadre européen de réglementation des activités en ligne.

Le choix qui est fait est le suivant : renforcer les obligations de retrait des contenus haineux ; réguler l’activité des plateformes.

Si la proposition de loi ne comporte pas, au stade de son dépôt, de dispositions relatives à la poursuite et à la condamnation des auteurs de haine, les débats parlementaires seront l’occasion d’enrichir ce volet de la réforme, après les progrès permis dans ce domaine par la loi du 23 mars 2019 de réforme pour la justice (plainte en ligne, ordonnance pénale, enquête sous pseudonyme…). Il conviendra, en particulier, de mettre en place, sans tarder, un parquet spécialisé dans la poursuite de ces auteurs, structure dotée des moyens humains et techniques permettant de maîtriser les spécificités de la sphère numérique.

Votre rapporteure remercie Mme Fabienne Colboc, rapporteure pour avis de la commission des Affaires culturelles et de l’éducation, qui aura permis de compléter utilement certaines dispositions de ce texte, qu’il s’agisse du rôle dévolu au Conseil supérieur de l’audiovisuel dans la lutte contre la haine en ligne ou des actions de prévention et de sensibilisation à mener dans ce domaine.

Pour votre rapporteure, chaque personne susceptible d’être impliquée dans la lutte contre les propos haineux sur internet doit être mise à contribution, responsabilisée, voire sanctionnée à due proportion de son rôle dans l’émission et la diffusion de ces propos. Elle souhaite que cet objectif soit poursuivi dans le respect de l’équilibre entre la sauvegarde des intérêts fondamentaux des personnes et la protection de la liberté d’expression.

Mais si la libre communication des pensées et des opinions, l’« un des droits les plus précieux de l’Homme » (8) et fondement essentiel d’une société démocratique (9), doit évidemment être préservée, elle n’est toutefois pas sans limite. Ne sauraient s’en prévaloir celles et ceux qui tiennent des propos contrevenant aux valeurs fondamentales de notre société, comme c’est le cas des provocations à la discrimination, à la haine ou à la violence pour des raisons racistes ou sexistes.

SYNTHÈSE

I. UNE PROLIFÉRATION INACCEPTABLE DE CONTENUS HAINEUX SUR INTERNET

Le racisme, croyance dans une hiérarchie entre les groupes humains fondés sur des « races » et, par extension, attitude d’hostilité systématique à l’égard d’une catégorie déterminée de personnes, reste à un niveau préoccupant dans notre société, même s’il est de plus en plus condamné. En témoigne la prolifération des expressions de haine sur internet, dont le caractère viral, lorsque celle-ci s’exprime sur les réseaux sociaux, et la relative impunité dont bénéficient ses auteurs, ont de graves conséquences. Contraire aux principes d’égalité et de fraternité ainsi qu’aux droits et libertés de chacun, cette haine, qui nourrit les préjugés et les discriminations, nuit au « vivre ensemble ».

A. UN NIVEAU PRÉOCCUPANT DE RACISME, D’ANTISÉMITISME ET DE XÉNOPHOBIE DANS LA SOCIÉTÉ

1. Des comportements encore prégnants et dont les motifs évoluent…

a. Un racisme important malgré une progression de la tolérance

Dans ses deux derniers rapports sur la lutte contre le racisme, l’antisémitisme et la xénophobie (10), la Commission nationale consultative des droits de l’homme (CNCDH) dresse un constat mitigé de l’état du racisme dans notre pays. Si elle constate que la tolérance à l’égard des immigrés et des minorités n’a jamais été aussi élevée depuis 1990, « en tendance, les noirs (…) et les Roms voient la tolérance à leur égard régresser, à l’inverse des juifs, des musulmans et des Maghrébins où la situation est stable » :

–  « la minorité noire est [celle à l’encontre de laquelle] s’exprime le racisme le plus cru, infériorisant et animalisant », dans le débat public, sur les réseaux sociaux et dans la vie de tous les jours ;

–  les Roms sont l’objet d’un sentiment de rejet encore massif ;

–  l’antisémitisme continue de reposer sur « la persistance de préjugés anciens fondés sur la croyance que les juifs auraient un pouvoir excessif, un rapport particulier à l’argent et une double allégeance (envers Israël et la France) » ;

–  le recul des préjugés envers les musulmans n’empêche pas une partie de la société de développer une aversion à l’islam marquée par la perception d’une religion conquérante et le sentiment que des pratiques musulmanes sont peu compatibles avec le vivre ensemble.

Ces observations sont à mettre en perspective avec celles que la CNCDH formulait pour l’année 2017 (11), lorsqu’elle relevait, sur certaines thématiques, « un retour du raidissement identitaire en France ».

ÉVOLUTION DE LA PERCEPTION À L’ÉGARD DE LA NOTION DE « RACE », DE LA PERCEPTION « COMMUNAUTARISTE » DE MINORITÉS ET DES PRÉJUGÉS ANTISÉMITES
(DE HAUT EN BAS ET DE GAUCHE À DROITE)

Source : CNCDH, La lutte contre le racisme, lantisémitisme et la xénophobie (année 2017), mai 2018, pp. 39, 42 et 47.

b. Un renouvellement des argumentaires du racisme ?

Ces évolutions posent plusieurs questions sur le renouvellement des argumentaires du racisme, thème qui fait l’objet de vives controverses :

–  assiste-t-on au déclin de la croyance en une hiérarchie des « races » au profit de considérations identitaires et culturelles, pour reprendre la distinction de Pierre-André Taguieff entre racisme « biologique », fondé sur la croyance en l’existence de « races » inférieures, et racisme « différentialiste », selon lequel les manières de vivre et de penser de l’autre sont trop différentes (12) ?

–  une « nouvelle judéophobie » émerge-t-elle comme l’a théorisée le même Pierre-André Taguieff (13), s’appuyant moins sur un antijudaïsme, la croyance dans la supériorité d’une prétendue « race » aryenne ou un négationnisme mais davantage sur un antisionisme amalgamant juifs, israéliens et sionistes ?

–  une « nouvelle islamophobie » (14) se développe-t-elle, comme le pense Vincent Geisser qui la conçoit distincte du racisme anti-immigrés, ciblant la religion musulmane et ses fondements au nom de la défense de la laïcité et des valeurs républicaines ?

2. … qui se retrouvent dans la délinquance constatée

a. L’état de la délinquance raciste

En 2018, près de 5 170 infractions en lien avec la « race », l’origine, l’ethnie ou la religion ont été constatées en France par la police et la gendarmerie. Bien qu’en baisse pour la troisième année consécutive, ce chiffre n’en demeure pas moins élevé et stable dans sa structure, 80 % de ces infractions concernant des provocations, des injures ou des diffamations.

Les atteintes à caractère raciste révèlent des traits préoccupants :

–  les auteurs présumés des faits (genre, âge, nationalité…) présentent des caractéristiques démographiques nettement plus proches de la population générale que les mis en cause pour l’ensemble des crimes et délits, ce qui tendrait à accréditer la thèse d’un « racisme ordinaire » bien ancré dans notre société ;

–  la baisse tendancielle du discours raciste pénalement réprimé cache une hausse d’actes violents à caractère antisémite et antimusulman et une augmentation de la violence de ces actes ;

–  l’évolution sur le long terme, au cours des vingt-cinq dernières années, des actes racistes recensés demeure, en tout état de cause, inquiétante.

b. Une réalité sous-estimée

Ces chiffres sous-estiment cependant la réalité du racisme dans notre pays car trop peu de victimes portent plainte. Une comparaison des faits portés à la connaissance des forces de sécurité ou de la justice et des chiffres collectés au travers des enquêtes de victimation met en lumière le « chiffre noir » de la délinquance raciste, ou, selon la CNCDH, « un phénomène massif de sous-déclaration du racisme ».

Les atteintes à caractère raciste, antisémite ou xénophobe s’élèveraient en moyenne, chaque année entre 2012 et 2016, à 700 000 victimes d’injures, 125 000 victimes de menaces et 45 000 victimes de violences, dont une faible partie aurait porté plainte (6 % dans le cas d’injures, 17 % dans le cas de menaces et 26 % dans le cas de violences) (15).

Pour le service central du renseignement territorial, le nombre d’actes racistes serait, en 2018, de nouveau en augmentation – de près de 20 % par rapport à 2017 – alors que les faits de cette nature avaient baissé de plus de moitié entre 2015 et 2017. Si le nombre d’actes antimusulmans diminue, les actes antisémites auraient connu une hausse de plus de 74 % par rapport à l’année dernière – passant de 311 en 2017 à 541 l’année dernière – tandis que celui des actes antichrétiens serait resté stable, avec 1 063 actes recensés.

ÉVOLUTION DU NOMBRE D’ACTES RACISTES COMPTABILISÉS PAR
LE SERVICE CENTRAL DU RENSEIGNEMENT TERRITORIAL (1993 – 2018)

Source : CNCDH, Rapport sur la lutte contre le racisme, lantisémitisme et la xénophobie : les essentiels (année 2018), avril 2019, p. 13.

Ces comportements haineux ou discriminatoires peuvent également être des actes sexistes – près de 4 femmes sur 10 auraient été victimes d’une injustice ou d’une humiliation du fait d’être une femme et 1,2 million auraient été l’objet d’une injure sexiste en 2017 (16) – ou LGBTphobes (lesbophobie, gayphobie, biphobie et transphobie) – SOS homophobie a ainsi recueilli 1 905 témoignages d’actes LGBTphobes en 2018, soit 15 % de plus qu’en 2017, dont 23 % se seraient produits sur internet (17).

Ces chiffres et ces constats sont d’autant plus préoccupants que la réponse pénale ne semble pas être à la hauteur de l’ampleur du phénomène raciste dans notre pays. Si le taux de réponse pénale (18) dans ce domaine, de 85 % en 2017, est en légère hausse par rapport à 2016, il demeure inférieur à celui du contentieux général. Et parmi les 6 122 affaires comportant une ou plusieurs infractions commises en raison de la religion ou de l’origine de la victime qui ont été orientées par les parquets en 2017, un nombre important d’entre elles a fait l’objet d’un classement sans suite pour insuffisante caractérisation des faits et seules 9 % ont donné lieu à des condamnations (19).

Votre rapporteure ne peut que partager le constat formulé par la CNCDH au terme de ses travaux : « le phénomène raciste en France requiert (…) une extrême vigilance : il reste encore largement sous-déclaré et se manifeste souvent à travers des formes de rejet subtiles parfois difficiles à caractériser et à dénoncer pour les personnes qui en sont victimes ».

B. UNE HAINE QUI PROLIFÈRE SUR INTERNET

Reflet de l’état du racisme dans notre pays, la cyber-haine ne cesse de se développer, même si votre rapporteure s’est heurtée à la difficulté de connaître l’ampleur réelle du phénomène, en raison notamment de la faiblesse et de l’éparpillement des statistiques sur le sujet.

1. Un nombre élevé de contenus haineux en ligne

a. Les signalements aux plateformes en ligne

Vecteurs d’expression directe et d’accès à l’information, les réseaux sociaux et plateformes d’échanges de contenus publics en ligne sont aussi le lieu d’abus inacceptables qui sont le fait d’individus isolés ou de groupes organisés.

Les plateformes d’échanges en ligne sont intervenues, ces dernières années, sur un nombre croissant de contenus (publications, photos, vidéos, commentaires…) constitutifs de discours de haine au sens de leurs conditions générales d’utilisation ou de la loi partout dans le monde :

–  Facebook a pris des mesures à l’égard de près de 2,9 millions de contenus de cette nature entre juillet et septembre 2018, contre 2,5 millions aux premier et deuxième trimestres de la même année et 1,8 million au dernier trimestre 2017, sans compter les 2,1 millions de contenus liés au harcèlement ou à l’intimidation supprimés par cette société au troisième trimestre de l’année dernière (20) ;

–  au dernier trimestre 2018, Youtube avait supprimé près de 16 600 chaînes et 49 600 vidéos incitant à la violence ou à l’extrémisme violent et plus de 8 000 chaînes ainsi que 39 450 vidéos pour harcèlement et cyberintimidation, auxquelles il faut ajouter les 253 700 vidéos violentes et les 18 950 vidéos avec des contenus offensants ou haineux retirées (21), ces chiffres étant en nette augmentation par rapport au troisième trimestre de la même année (22) ;

–  au cours de son audition par votre rapporteure, Twitter, dont les rapports de transparence ne sont pas aussi détaillés que celui des plateformes précédentes, a indiqué que près de 1,3 million de contenus haineux lui avaient été signalés dans le monde au cours des six derniers mois.

D’après les derniers chiffres communiqués au niveau européen par les grandes plateformes d’échanges de contenus en ligne, les contenus haineux qui leur sont signalés sont, à titre principal, de la xénophobie, des actes LGBTphobes, de la haine anti-musulmans, des actes anti-roms et de l’antisémitisme.

Source : Commission européenne, Code of Conduct on countering illegal hate speech online : fourth evaluation confirms self-regulation works, février 2019.

b. Les signalements à PHAROS

En France, sur les 163 723 signalements adressés à la plateforme d’harmonisation, d’analyse, de recoupements et d’orientation des signalements (PHAROS) (23) en 2018, près de 14 000 relevaient de la haine en ligne ou de discriminations et concernaient 8 000 contenus.

Les signalements les plus nombreux en 2018 dans ce domaine avaient trait, comme les années précédentes, à de la provocation publique à la haine et à la discrimination raciale, ethnique ou religieuse, en particulier à des discours antisémites, anti-musulmans, anti-arabes, anti-chrétiens et anti-blancs.

RÉPARTITION DES CONTENUS SIGNALÉS À PHAROS (2014 – 2017)

 

Nombre de contenus recoupés / Nombre de signalements

 

2014

2015

2016

2017

Provocation publique à la haine et à la discrimination raciale, ethnique ou religieuse

4 018 / 8 537

11 040 / 18 879

6 938 / 11 955

4 409 / 7 248

Provocation publique à la haine et à la discrimination à raison de l’orientation sexuelle

578 / 1 272

781 / 1 913

633 / 1 227

420 / 664

Injure et diffamation xénophobe ou discriminatoire

1 594 / 2 855

2 497 / 4 517

1 692 / 3 064

3 528 / 4 755

Apologie de crime de guerre et contre l’humanité

154 / 381

377 / 765

363 / 809

285 / 417

Provocation publique à la haine et la discrimination à raison d’un handicap

43 / 92

36 / 156

46 / 92

29 / 45

Contestation de crime contre l’humanité

48 / 104

113 / 203

82 / 169

80 / 121

Vidéos de violences réelles à caractère xénophobe

26 / 54

21 / 44

19 / 23

7 / 7

Source : Contribution complémentaire du ministère de lIntérieur au rapport de la CNCDH sur la lutte contre le racisme, lantisémitisme et la xénophobie en 2017 précité.

2. Des progrès insuffisants dans le retrait de ces contenus et la répression de leurs auteurs

a. La marge de progression des plateformes

Votre rapporteure n’ignore pas les progrès réalisés par les plateformes dans la mise en œuvre des mécanismes permettant le retrait rapide de contenus haineux. Ces progrès résultent notamment de la mise en place, au niveau européen, d’un code de conduite auquel ont adhéré certaines d’entre elles. Il convient cependant d’être prudent avec les résultats des évaluations de l’application de ce code de conduite, en tenant par exemple compte de l’éventuelle information préalable des plateformes sur les périodes de test et la participation de signaleurs de confiance (trusted flaggers) connues d’elles.

Quatrième bilan de la mise en œuvre du code de conduite
sur la lutte contre les discours de haine en ligne

Les plateformes parties prenantes du code de conduite évalueraient 89 % des contenus signalés dans les 24 heures et 72 % des contenus considérés comme des discours de haine illégaux seraient supprimés, contre respectivement 40 % et 28 % lors du lancement du code en 2016.

Évolution du taux d’évaluation dans les 24 heures des signalements de contenus haineux depuis le lancement du code de conduite

Évolution du taux de retrait de contenus haineux
depuis le lancement du code de conduite

Ces opérations de retrait ne s’accompagneraient pas de suppressions excessives de contenus illicites, « le taux de suppression montr[ant] que l’examen effectué par les entreprises leur permet de continuer à assurer le respect de la liberté d’expression ».

Toutefois, les plateformes engagées dans cet exercice devraient améliorer leur retour d’information aux utilisateurs notifiants ainsi que la transparence en ce qui concerne les notifications et les suppressions.

Retour d’information des principales plateformes en fonction de
la qualité du signalant (utilisateur ordinaire / signalant de confiance)

Par ailleurs, des partenariats auraient été conclus entre ces plateformes et des organisations de la société civile ainsi que les autorités nationales pour mener des actions de sensibilisation et d’éducation.

Quatre nouvelles entreprises ont décidé d’adhérer au code en 2018 (Google+, Instagram, Snapchat et Dailymotion), l’entreprise française Webedia, qui détient la plateforme Jeuxvideo.com, ayant également récemment annoncé sa participation.

Source : Commission européenne, Code of Conduct on countering illegal hate speech online : fourth evaluation confirms self-regulation works, février 2019.

Ces progrès sont récents, hétérogènes et encore insuffisants face à la masse de propos haineux présents sur les réseaux sociaux :

–  si Youtube et Facebook retirent près de 80 % des contenus haineux qui leur sont signalés dans les 24 heures par PHAROS, ce n’est le cas que de 50 % de ceux signalés à Twitter ;

–  les plateformes disposent d’équipes de modération de tailles variables et d’outils de détection automatisée de contenus manifestement illicites à un stade de développement plus ou moins perfectionné : alors qu’il a été indiqué que 30 000 personnes travaillent sur les enjeux de sécurité et de modération chez Facebook, sans qu’il soit possible de déterminer le nombre précis de celles dédiées à la lutte contre les contenus haineux, et 10 000 chez Google, votre rapporteure n’a pas été en mesure de déterminer la taille de l’équipe consacrée à ces questions chez Twitter, même si l’effectif total de salariés de cette entreprise dans le monde, au nombre de 4 000, laisse présager un sous-dimensionnement de cette équipe par rapport au nombre de contenus illicites circulant sur ses réseaux ;

–  d’importants progrès demeurent à accomplir s’agissant de la lutte contre les contenus haineux diffusés en direct ;

–  la coopération de ces plateformes avec les pouvoirs publics en matière de lutte contre les discours de haine est variable, certaines, de droit américain, refusant de répondre favorablement aux réquisitions judiciaires aux fins de connaître l’identité des auteurs de contenus illicites et renvoyant de manière aléatoire, selon le type de contenus, à l’exigence d’une commission rogatoire internationale, lourde et coûteuse ;

–  enfin, alors que des plateformes excluent de leurs services des leaders de haine pour violation des conditions générales d’utilisation du service, d’autres ne le font pas.

La mission confiée à MM. Frédéric Potier, Serge Abiteboul et Benoît Loutrel sur la régulation des réseaux sociaux a elle aussi relevé « l’insuffisance et le manque de crédibilité des démarches d’autorégulation développées par les plus grandes plateformes », du fait de l’opacité des informations disponibles sur les démarches entreprises par ces plateformes en matière de modération des contenus haineux, compte tenu du caractère autocentré et disparate de cette autorégulation et en raison de l’absence de supervision générale (24).

b. La montée en puissance des pouvoirs publics

Les pouvoirs publics ne sont pas restés inactifs sur ces sujets, et votre rapporteure tient à saluer leur engagement croissant.

Le travail de la Délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT (DILCRAH), en lien étroit avec le monde associatif, tous deux considérés par certaines grandes plateformes numériques comme des « signaleurs de confiance », permet d’accélérer les décisions de retrait ou de déréférencement. Ce travail a également abouti à la conclusion d’une convention avec la Fondation de la Shoah en faveur du développement des alternatives aux poursuites et des peines « pédagogiques » à destination des auteurs d’infractions à caractère raciste ou antisémite, sous la forme notamment d’un stage de citoyenneté autour de la déconstruction des discours de haine.

Mais d’importants progrès restent à accomplir. Il s’agit, d’une part, de pallier l’insuffisance des moyens donnés aux enquêteurs et à l’autorité judiciaire dans la lutte contre ces contenus, sur le plan humain et matériel, alors que les effectifs de la plateforme PHAROS n’excèdent pas vingt-quatre personnes, dont seulement six dans la cellule dédiée aux discours de haine, et que ceux de la section AC4 du parquet de Paris, spécialisée dans la presse, ne comptent que cinq magistrats, compétents pour traiter non seulement des infractions à la loi sur la liberté de la presse mais aussi des plaintes pour violences illégitimes.

Il s’agit, d’autre part, de mettre un terme à la méconnaissance des textes et dispositifs existants dans ce domaine de la part d’un grand nombre de professionnels de la chaîne pénale. Les auditions conduites par votre rapporteure ont en effet révélé qu’il n’était pas rare que certaines dispositions existantes soient évitées – comme c’est le cas de la loi de 1881 sur la liberté de la presse, jugée compliquée, lourde et piégeuse sur le plan procédural pour des enquêteurs et des magistrats non spécialisés – ou méconnues – à l’instar de celles, récemment introduites dans notre droit, relatives aux « raids numériques » (25).

Cette situation a conduit, en 2018, à ce que 15 % à 20 % des 8 000 contenus haineux signalés à PHAROS ne soient pas susceptibles de recevoir une qualification pénale, tandis que 40 % constituaient des injures ou des diffamations pour lesquelles une plainte de la victime était nécessaire pour mettre en mouvement l’action publique. Sur le plan judiciaire, sur les 400 plaintes à caractère raciste adressées au parquet de Paris l’année dernière, seules 267 étaient orientées, dont 75 % classées sans suite pour auteur inconnu ou insuffisante caractérisation de l’infraction. À cet égard, votre rapporteure considère que la création d’un parquet spécialisé dans la répression des auteurs d’infractions haineuses en ligne serait de nature à remédier à cette situation.

C. LA NÉCESSITÉ DE LÉGIFERER

1. L’inefficacité du dispositif de la loi pour la confiance dans l’économie numérique

a. L’état du droit

Tirées du régime libéral de protection de la liberté d’expression et du droit européen, les règles applicables à la régulation des contenus sur internet reposent sur l’absence de contrôle a priori et la compétence du juge pour apprécier ce qui excède l’exercice de cette liberté, afin d’éviter toute censure privée.

Transposant les articles 12 à 15 de la directive du 8 juin 2000 relative au commerce électronique (26), dite « e-commerce », la loi du 21 juin 2004 pour la confiance dans l’économie numérique a ainsi soumis les éditeurs de services sur internet à un régime très proche de celui de la presse, en les rendant pleinement responsables des contenus qu’ils mettent en ligne, et limité la responsabilité des fournisseurs d’accès à internet (FAI) et des hébergeurs à l’égard des contenus illégaux, compte tenu du rôle passif que ceux-ci exercent :

–  FAI et hébergeurs n’ont pas d’obligation générale de surveillance des informations qu’ils transmettent ou stockent mais doivent mettre en place un dispositif de signalement des contenus odieux et de certaines activités illégales et en informer promptement les autorités publiques ;

–  les hébergeurs ne peuvent être sanctionnés à raison d’un contenu illicite que s’ils ont eu effectivement connaissance du caractère manifestement illicite de celui-ci et n’ont pas agi promptement pour le retirer ou en rendre l’accès impossible, leur connaissance des faits litigieux étant présumée lorsque la notification du contenu illicite comporte certains éléments ;

–  l’autorité judiciaire peut prescrire, en référé ou sur requête, toutes mesures permettant de prévenir un dommage ou de faire cesser un dommage occasionné par le contenu d’un site internet ;

–  depuis 2014, une procédure de blocage administratif, mesure subsidiaire par rapport au retrait du contenu par l’éditeur ou l’hébergeur, est également prévue à l’égard des sites terroristes ou pédopornographiques.

b. Les insuffisances du dispositif actuel

L’ensemble de ce dispositif apparaît, en pratique, à la fois daté, inadapté et inefficace pour lutter contre la prolifération de contenus haineux.

Il est, en premier lieu, daté, reposant sur une distinction binaire entre prestataires techniques et éditeurs de contenus qui ne rend plus compte de la réalité des activités numériques.

Certains acteurs, principalement les réseaux sociaux et les moteurs de recherche, contribuent aux abus inacceptables observés en ligne, à travers leur fonction d’ordonnancement, souvent individualisé, des contenus qu’ils hébergent. Cette fonction, qui a un but commercial ou est destinée à opérer un tri dans le volume considérable de contenus publiés quotidiennement sur ces plateformes, peut avoir pour effet d’accélérer ou de ralentir la diffusion des contenus. Elle confère à ces acteurs un rôle éditorial de fait qui, s’il diffère de l’éditorialisation traditionnelle fondée sur une sélection de contenus préalablement à leur publication comme dans le secteur de la presse, ne peut pas rester sans conséquence sur les obligations pesant sur eux.

Le Conseil d’État, dans son avis sur la proposition de loi, le relève en ces termes : « l’apparition de nouveaux acteurs (réseaux sociaux et moteurs de recherche) qui, en tant qu’intermédiaires actifs permettant le partage de contenus et en accélérant l’accès par leurs processus algorithmiques de hiérarchisation et d’optimisation, ne se bornent pas à un rôle purement technique, sans pour autant pouvoir être qualifiés d’éditeurs de contenus, rend le régime actuel, fondé sur la neutralité des prestataires de services de communication au public en ligne à l’égard des contenus, en partie dépassé » (27).

Ce cadre de régulation est, en second lieu, inadapté à l’activité des plateformes en ligne qui, compte tenu de leur ubiquité, de leurs stratégies d’établissement et des usages qu’elles suscitent, bousculent la primauté de l’organisation territoriale des États. Or le cadre européen de régulation, fondé sur le principe du « pays d’origine » – au terme duquel seul l’État où est établie la plateforme en cause pourrait lui imposer des obligations et en contrôler le respect – freine la capacité d’action des pays de destination comme la France, où, pourtant, sont diffusés les contenus illicites et se produisent les dommages.

Ce dispositif est, en dernier lieu, inefficace.

La mise en œuvre effective de ces dispositions se heurte, tout d’abord, à l’absence de régulateur chargé de contrôler le respect par les acteurs numériques des dispositions de la loi pour la confiance dans l’économie numérique en matière de contenus illicites, alors même que plusieurs autorités administratives indépendantes interviennent, de manière sectorielle, dans le numérique (28).

Par ailleurs, certains éléments des procédures de notification et de retrait des contenus illicites freinent leur mise en œuvre opérationnelle. Les plateformes concernées n’ont par exemple pas mis en place une procédure suffisamment harmonisée, accessible et fluide de notification de ces contenus. À cela s’ajoute l’absence de délai encadrant expressément le retrait de ceux de ces contenus qui sont manifestement illicites. La problématique du signalement est particulièrement vraie s’agissant des mineurs, comme l’ont confirmé à votre rapporteure les associations E-enfance et Génération numérique lors de leur audition : à titre indicatif, une enquête récente menée sur des jeunes de 11 à 18 ans révélait que 42 % de ceux exposés à des propos choquants sur internet ne faisaient rien (29 % les signalaient au site) parce qu’ils ne savaient pas comment répondre, pour 29 % d’entre eux, ou parce qu’ils considéraient que c’était inutile pour 25 % (29).

En outre, la faiblesse du montant des sanctions prévues en cas de manquement des FAI et hébergeurs à leurs obligations – lesquels n’encourent que le quintuple de l’amende encourue par une personne physique, soit 375 000 euros d’amende – n’est pas suffisamment dissuasive au regard de la capacité financière des opérateurs de plateforme en ligne – pour rappel, le chiffre d’affaires mondial de Facebook en 2018 était de 55,8 milliards de dollars et celui de Twitter pour 2017 atteignait 2,4 milliards de dollars.

Enfin, des difficultés structurelles entravent le travail des enquêteurs et de l’autorité judiciaire : défaut d’identification des titulaires de comptes à l’origine de la publication de contenus illicites (hébergements à l’étranger, réquisitions infructueuses, anonymat sur internet…), caractère massif du contentieux, absence d’obligation pour ces opérateurs de disposer d’une représentation légale en France... Il aura ainsi fallu attendre près de neuf mois et la multiplication de signalements pour que la justice ordonne le blocage effectif du site Démocratie participative, qui a été par la suite dupliqué sous des noms de domaine différents dont l’accès a été rendu difficile par leur déréférencement.

En définitive, comme le souligne le Conseil d’État dans son avis sur la présente proposition de loi, alors que la répression de la diffusion des contenus haineux demeure, pour ces raisons, insuffisante et insatisfaisante, « une protection effective des droits fondamentaux suppose que soient mis en place, quel que soit le lieu d’établissement des opérateurs, des mécanismes permettant, de manière urgente et efficace, le retrait de contenus qui portent manifestement atteinte aux valeurs qu’expriment ces droits fondamentaux » (30).

2. Des initiatives en Europe pour améliorer la régulation d’internet

Cette situation est d’autant plus regrettable que le droit européen n’interdit pas aux États de prévoir des obligations renforcées en matière de lutte contre la haine sur internet, sous réserve qu’elles n’entravent pas la liberté d’établissement et la libre prestation de services, et que certains de nos voisins se sont engagés dans cette voie.

a. Une approche par le droit souple de plus en plus contestée

À l’instar de nombre de Constitutions de ses États membres, la Charte des droits fondamentaux de l’Union européenne, qui a la même force juridique obligatoire que les traités, consacre des principes légitimant une action déterminée contre la haine en ligne, comme le respect de la dignité humaine, l’interdiction de toute discrimination ou l’égalité entre les hommes et les femmes (31).

Si l’Union européenne a privilégié, jusqu’à présent, le droit souple pour renforcer la lutte contre la haine en ligne, à travers le lancement, en 2016, d’un code de conduite à destination des entreprises des technologies de l’information, cette approche commence à être remise en cause.

Les 4 et 5 avril, les ministres de l’Intérieur du G7 ont souligné la nécessité de mieux lutter contre l’emploi d’internet à des fins terroristes et d’extrémisme violent, en exigeant le retrait sous une heure des contenus terroristes signalés ou identifiés, leur marquage et le blocage de leur remise en ligne (32). Un projet de législation européenne pour assurer le retrait de contenus terroristes en ligne est d’ailleurs actuellement en préparation (33). Les événements survenus à l’occasion de l’attentat terroriste de Christchurch le 15 mars 2019 – dont la vidéo filmée par l’assaillant avait pu être visionnée, durant 29 minutes, près de 200 fois pendant sa diffusion en direct avant qu’un utilisateur de Facebook ne la signale, et 4 000 fois au total avant sa suppression du réseau, sans compter les 1,5 million de copies supprimées en une journée par le réseau social et Youtube – ont d’ailleurs rappelé la nécessité d’une régulation accrue dans ce domaine.

Par ailleurs, la récente directive modifiant les règles applicables aux services de médias audiovisuels, dite « SMA », que la France n’a pas encore transposée, prévoit que les États doivent veiller à ce que les plateformes de partage de vidéos établies sur leur territoire « protègent le grand public des programmes vidéos créés par l’utilisateur et communications commerciales audiovisuelles comportant des contenus dont la diffusion constitue une infraction pénale au titre du droit de l’Union », notamment le racisme et la xénophobie (34).

En outre, plusieurs pays européens ont pris des initiatives pour faire évoluer le cadre légal applicable à la régulation des contenus haineux en ligne, prélude probable à une révision de la directive « e-commerce » :

–  en Allemagne, une loi visant à renforcer l’application de la loi sur les réseaux sociaux, adoptée en octobre 2017 et entrée en vigueur le 1er janvier 2018, fait peser sur les opérateurs de réseaux sociaux comptant plus de deux millions d’utilisateurs des obligations renforcées (35: s’inscrivant dans une logique de protection des consommateurs, elle exige notamment de ces opérateurs le retrait des contenus illicites qui leur sont signalés dans un délai de sept jours, réduit à 24 heures dans le cas de contenus manifestement illicites, ainsi que la transparence sur les actions mises en œuvre dans ce domaine, et les soumet à des amendes pouvant atteindre cinquante millions d’euros ;

–  au Royaume-Uni, le ministère de l’Intérieur et celui de la Culture, des Médias et des Sports, proposent, dans le livre blanc sur les contenus offensants récemment publié (36), que les entreprises technologiques ne parvenant pas à enrayer « dans un délai déterminé » la propagation de contenus terroristes ou pédopornographiques soient sanctionnées d’une peine d’amende pouvant aller jusqu’à 4 % du chiffre d’affaires mondial de l’entreprise.

Ailleurs dans le monde, d’autres initiatives naissent, à l’instar de l’Australie qui envisage de condamner les entreprises ne respectant pas ses lois sur la modération d’une peine d’amende, pouvant atteindre 10 % de leur chiffre d’affaires mondial, et de sanctionner leurs responsables d’une peine de prison.

b. Une régulation renforcée soutenue par les plateformes et la société civile

Les acteurs du numérique eux-mêmes et la société civile appellent de leurs vœux un renforcement des moyens consacrés à la lutte contre toutes les formes de haine, notamment sur internet.

La lutte contre le racisme et les discriminations est une demande forte de la population, 76 % des Français estimant nécessaire que notre pays mène une lutte vigoureuse contre le racisme et 86 % condamnant les insultes racistes, antisémites, homophobes ou sexistes (37).

Votre rapporteure rappelle à cet égard que l’Assemblée nationale, lors de la discussion inachevée du projet de loi constitutionnelle pour une démocratie plus représentative, responsable et efficace, avait souhaité tirer les conséquences du caractère historiquement daté et scientifiquement invalide de la notion de « race » en adoptant, à l’unanimité, un amendement qui supprimait la mention de ce mot à l’article 1er de la Constitution afin de priver le discours raciste de toute légitimité.

Les grandes entreprises du numérique semblent également prendre la mesure du caractère inadmissible et dangereux des contenus qu’elles hébergent et contribuent à propager, à l’instar de M. Mark Zuckerberg, président-directeur général de Facebook, qui a appelé à repenser la régulation de l’internet dans une tribune publiée le 29 mars 2019 (38).

Lors des auditions qu’elle a conduites, votre rapporteure a pu constater l’adhésion des principales plateformes en ligne de partage de contenus à la nécessité d’une lutte plus efficace contre la haine en ligne et d’un accompagnement renforcé de leur action dans ce domaine, même si les moyens de cette régulation ont pu faire davantage débat.

C’est également la conclusion à laquelle est arrivée la mission confiée à MM. Frédéric Potier, Serge Abiteboul et Benoît Loutrel sur la régulation des réseaux sociaux, lorsqu’elle recommande, en complément d’un renforcement de la politique répressive à l’égard des auteurs de contenus haineux, « une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante » et reposant sur une obligation de transparence et un devoir de diligence des plus grandes plateformes (39).

II. PRÉSENTATION SYNTHÉTIQUE DE LA PROPOSITION DE LOI INITIALE

Dans ce contexte et forte de l’engagement d’un nombre croissant d’acteurs du numérique et de Français dans la lutte contre le racisme et les discriminations, votre rapporteure estime nécessaire d’adapter notre droit aux défis soulevés par la prolifération de contenus haineux sur internet.

A. LES PRINCIPALES ORIENTATIONS DE LA PROPOSITION DE LOI

La proposition de loi poursuit quatre objectifs principaux.

1. Renforcer l’obligation de retrait des contenus haineux par les grandes plateformes en ligne

En premier lieu, elle prévoit une obligation de retrait sous 24 heures après leur notification des contenus manifestement haineux à la charge des grands opérateurs de plateforme en ligne dont l’activité consiste à mettre en relation plusieurs personnes pour le partage de contenus.

Seraient concernés ceux de ces opérateurs « dont l’activité dépasse un seuil, déterminé par décret, de nombre de connexions sur le territoire français », sans considération de leur pays d’établissement, autrement dit les réseaux sociaux et plateformes de partage de contenus publics tels que Facebook, Twitter ou Youtube (I de l’article 1er).

Dans l’intention des auteurs de la proposition de loi, les contenus visés sont les incitations manifestes à la haine ou les injures manifestes à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap.

Afin d’en faciliter le retrait, la proposition de loi améliore le processus de notification de ces contenus (article 2) :

–  en limitant le nombre d’informations aujourd’hui exigées par la loi pour la confiance dans l’économie numérique pour que l’hébergeur des contenus soit réputé avoir eu connaissance de ceux-ci (I) ;

–  en exigeant des grands opérateurs de plateforme en ligne qu’ils accusent réception « sans délai » de la notification, qu’ils « informent le notifiant des suites données à sa demande de retrait » dans un délai de 24 heures et mettent à la disposition de leurs utilisateurs un dispositif de notification « facilement accessible et uniformisé » entre eux, disponible dans la langue de l’utilisateur (II) ;

–  en contraignant ces mêmes opérateurs à mettre en œuvre « les moyens humains ou technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus » (III).

Ces opérateurs devraient également prévoir des voies de recours interne contre une décision de retrait ou de non-retrait de contenus (III de l’article 1er) et informer publiquement et de manière pédagogique les victimes de contenus haineux sur les dispositifs de recours, judiciaires ou internes, à leur disposition ainsi que les modalités de leur accompagnement (article 3).

2. Instaurer une régulation administrative des grandes plateformes en ligne en matière de lutte contre les contenus haineux

En deuxième lieu, la proposition de loi instaure un nouveau régime de régulation administrative des grands opérateurs de plateforme en ligne dont l’activité consiste à mettre en relation plusieurs personnes pour le partage de contenus publics.

Cette mission serait confiée au Conseil supérieur de l’audiovisuel (CSA) :

–  qui pourrait prononcer à l’encontre d’un opérateur une sanction pécuniaire ne pouvant excéder 4 % de son chiffre d’affaires annuel mondial en cas de manquement à l’obligation de retrait dans les 24 heures de contenus manifestement haineux (II de l’article 1er;

–  qui devrait contribuer à la lutte contre la diffusion de tels contenus, par la définition de recommandations à l’attention de ces opérateurs, le suivi des obligations s’imposant à eux dans ce domaine, la publication de bilans périodiques sur l’application et l’effectivité de ces obligations ainsi que le contrôle des informations devant être rendues publiques par les opérateurs sur les actions et moyens mis en œuvre pour cette lutte (article 4).

3. Renforcer le devoir de coopération des grandes plateformes en ligne avec l’autorité judiciaire

En troisième lieu, la proposition de loi comporte deux dispositions destinées à renforcer la coopération des acteurs numériques avec l’autorité judiciaire (article 5).

Elle aggrave le montant des sanctions pénales encourues par les FAI et les hébergeurs lorsqu’ils ne respectent pas leurs obligations (40) (I).

Par ailleurs, elle oblige les grands opérateurs de plateforme en ligne dont l’activité consiste à mettre en relation plusieurs personnes pour le partage de contenus à disposer d’un représentant légal en France (II).

4. Combattre efficacement la duplication des contenus jugés haineux

En dernier lieu, l’article 6 de la proposition de loi entend améliorer la procédure permettant de rendre inaccessibles les « sites miroirs » haineux, reproduisant des contenus déjà jugés illicites en vue de contourner une première décision de retrait :

–  en rendant alternative, et non plus subsidiaire, l’intervention du FAI par rapport à celle de l’hébergeur () ;

–  en habilitant l’autorité administrative (l’office central de lutte contre la criminalité liée aux technologies de l’information et de la communication) à ordonner le blocage et le déréférencement de tout site renvoyant ou donnant accès à des contenus jugés illicites par une décision judiciaire définitive ().

L’ensemble de ces dispositions s’appliquerait sans préjudice du droit commun de la loi pour la confiance dans l’économie numérique, qui demeurerait applicable, et permettrait la mise en cause, devant le juge judiciaire, de la responsabilité civile et pénale des hébergeurs en cas de manquements ainsi que celle des auteurs de contenus haineux s’ils sont identifiés.

B. DES DISPOSITIONS COMPLÉMENTAIRES D’UN VASTE PLAN DE LUTTE CONTRE LA HAINE ET LES PRÉJUGÉS

Au-delà de ces dispositions, la lutte contre la haine sur internet doit s’inscrire dans un cadre plus général, comme s’y sont engagés depuis plusieurs mois les pouvoirs publics.

1. Le plan national de lutte contre le racisme et l’antisémitisme

Le Gouvernement a lancé, depuis mars 2018, sous la coordination de la DILCRAH, un plan national de lutte contre le racisme et l’antisémitisme destiné à :

–  améliorer la détection et la poursuite des actes de haine, avec notamment l’expérimentation d’un réseau d’enquêteurs spécialisés et spécialement formés à Marseille ;

–  mieux former les élèves des écoles de police et de gendarmerie, par la désignation d’un référent « racisme et antisémitisme » dans chaque groupement et direction départementale de la sécurité publique ;

–  renforcer l’action de la plateforme PHAROS, par le doublement des effectifs de la cellule « discours de haine et de discrimination » ;

–  mieux prendre en charge les victimes, en développant le recours à la plainte en ligne conformément à la loi du 23 mars 2019 de réforme pour la justice.

Par ailleurs, un important travail de prévention des atteintes commises par le numérique et d’éducation à ses usages doit se poursuivre, en particulier à destination des plus jeunes, comme le font de nombreuses associations avec le soutien du ministère de l’éducation nationale, de la DILCRAH et du Comité interministériel de prévention de la délinquance et de la radicalisation mais aussi celui de certaines plateformes, comme Google et Facebook (41), ou des opérateurs de communications électroniques.

2. L’amélioration des moyens d’enquête et de jugement

Afin d’améliorer la célérité et l’effectivité de la réponse judiciaire aux comportements haineux en ligne, la loi du 23 mars 2019 de réforme pour la justice a permis que les sanctions susceptibles d’être prononcées à l’encontre d’auteurs d’injures et de diffamations à caractère raciste, sexiste, homophobe ou handiphobe – principalement des peines d’amende et des stages de sensibilisation – le soient par la voie de l’ordonnance pénale (42).

Par ailleurs, alors que l’égalité entre les femmes et les hommes a été déclarée « Grande cause nationale » du quinquennat, la lutte contre le sexisme fait aussi l’objet d’une politique ambitieuse, à travers le cinquième plan de mobilisation et de lutte contre toutes les violences faites aux femmes, qui devrait se traduire par la mise en place d’une procédure de signalement en ligne et le lancement d’une application numérique pour les victimes de cyber-harcèlement. En adoptant la loi du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes, le Parlement a enrichi notre arsenal juridique en modifiant le champ d’application du délit de harcèlement moral ou sexuel afin de mieux réprimer les « raids numériques ».

En outre, la garde des Sceaux a diffusé, le 4 avril 2019, une circulaire sur la lutte contre les discriminations, les propos et les comportements haineux. Elle a rappelé aux procureurs de la République et aux magistrats du siège l’ensemble des dispositifs qu’ils peuvent mettre en œuvre dans ce domaine, en particulier la nécessité pour chaque parquet de désigner un référent sur ces sujets, l’existence du référé civil aux fins de blocage de sites racistes ou antisémites ou encore la possibilité de rendre obligatoire la publicité de la décision sanctionnant un propos raciste ou antisémite (43).

3. La nécessaire révision du cadre européen applicable à la régulation des contenus en ligne

Votre rapporteure a conscience que les dispositions de cette proposition de loi et les initiatives qui les accompagnent n’épuiseront pas les réponses susceptibles d’être apportées en matière de lutte contre la haine sur internet et, de manière générale, de régulation des contenus illicites en ligne. Les autorités européennes et nationales devront, à terme, s’intéresser aux raisons pour lesquelles de tels contenus prolifèrent et sont parfois mis en avant, en réfléchissant à l’organisation centralisée du secteur numérique ainsi qu’au modèle technique et d’affaires des plateformes d’échanges de contenus.

Cette proposition de loi est l’occasion pour la France d’encourager l’ouverture de discussions sur les obligations de sécurité, de transparence et de diligence de ces plateformes en matière de lutte contre la haine en ligne, dans le prolongement des dispositions similaires existant pour la neutralité de l’internet ou la protection des consommateurs.

Elle se veut aussi, à la suite du législateur allemand, un appel à la révision du régime de responsabilité, devenu au fil des ans trop binaire et inadapté aux nouvelles réalités de l’internet, posé par la directive « e-commerce », en particulier par la mise en place d’une régulation fondée sur le principe du « pays de destination ».

À cet égard, votre rapporteure faite siennes les observations formulées, dans son avis sur la proposition de loi, par le Conseil d’État pour qui, sans préjudice des initiatives nationales susceptibles d’être prises, « l’adoption de nouvelles dispositions par l’Union européenne donnerait un fondement commun et une efficacité considérablement accrue à une lutte que les valeurs inscrites dans les Traités imposent de conduire en même temps que le marché se développe » (44).

Ce souhait rejoint celui de votre rapporteure et la volonté exprimée par le Président de la République, le 7 mars 2018, de mener, au niveau européen, « un combat permettant de légiférer pour contraindre les opérateurs à retirer dans les meilleurs délais l’ensemble de ces contenus et construire le cadre juridique d’une responsabilité de ces plateformes et l’ensemble de ces diffuseurs de messages » (45).

III. LA POSITION DE VOTRE COMMISSION DES LOIS

La commission des Lois a approuvé l’ensemble des dispositions de la proposition de loi dans de nouvelles rédactions principalement destinées à tenir compte des observations formulées par le Conseil d’État dans son avis (46) et à préciser ou à compléter certaines des obligations mises à la charge des grands opérateurs de plateforme en ligne.

A. LE RENFORCEMENT DES OBLIGATIONS DES GRANDES PLATEFORMES EN LIGNE

Le texte adopté par votre Commission distingue clairement deux séries d’obligations :

–  l’obligation de retrait en 24 heures des contenus manifestement haineux notifiés aux grandes plateformes en ligne, obligation de résultat sanctionnée par le juge judiciaire ;

–  les autres obligations imposées à ces opérateurs pour respecter cette obligation de retrait et, plus généralement, mieux lutter contre la haine en ligne, obligations de moyens relevant du pouvoir de régulation du CSA.

Pour la cohérence et la lisibilité d’ensemble des dispositifs de lutte contre les contenus illicites sur internet, ces obligations ont été inscrites respectivement au sein de deux nouveaux articles 6-2 et 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, qui comporte déjà des dispositions en la matière.

1. Une obligation renforcée de retrait des contenus manifestement haineux

La Commission a tout d’abord précisé les règles régissant l’obligation renforcée de retrait des contenus manifestement haineux, insérées au nouvel article 6-2 de la loi pour la confiance dans l’économie numérique.

Le champ d’application de cette obligation a été étendu (article 1er) :

–  elle s’imposera non seulement aux réseaux sociaux mais aussi aux moteurs de recherche dont le rôle dans la diffusion et la propagation des contenus publics partagés est comparable ;

–  aux contenus initialement visés (les injures aggravées et les provocations à la discrimination, à la haine ou à la violence) ont été ajoutés ceux qui sont constitutifs d’une atteinte aux droits fondamentaux, en particulier au principe de dignité de la personne humaine (apologie de crimes, harcèlement sexuel, traite des êtres humains, proxénétisme, pédopornographie et provocation au terrorisme), qui fondent déjà le devoir de coopération des acteurs numériques en vertu du 7 du I de l’article 6 de la loi pour la confiance dans l’économie numérique ;

–  la description des motifs justifiant de retirer ces contenus a été en conséquence modifiée pour qu’y figure « l’intérêt général attaché à la lutte contre les contenus publiés sur internet provoquant à la commission d’actes de terrorisme, faisant l’apologie de tels actes ou comportant une atteinte à la dignité de la personne humaine, une incitation à la haine, à la violence, à la discrimination ou une injure envers une personne ou un groupe de personnes à raison de l’origine, d’une prétendue race, de la religion, de l’ethnie, de la nation, du sexe, de l’orientation sexuelle, de l’identité de genre ou du handicap, vrais ou supposés ».

Seul le juge judiciaire pourra sanctionner le non-retrait de ces contenus ou en ordonner le retrait : conformément à une préconisation du Conseil d’État, un délit autonome de refus de retrait de ces contenus a été créé, puni des mêmes peines que celles aujourd’hui prévues par l’article 6 de la loi pour la confiance dans l’économie numérique.

Ces dispositions ont été complétées, respectivement aux articles 1er bis et 1er ter, par la simplification du formalisme de la notification de ces contenus, qui figurait initialement au I de l’article 2, et par une nouvelle disposition sanctionnant les notifications abusives ou malveillantes.

2. Un devoir de coopération dans la lutte contre la haine en ligne

La Commission a rassemblé, au sein du nouvel article 6-3 de la loi pour la confiance dans l’économie numérique, l’ensemble des obligations de moyens mises à la charge des grandes plateformes en ligne afin qu’elles soient en mesure de respecter l’obligation de retrait en 24 heures des contenus manifestement haineux mais aussi de mieux lutter contre la prolifération de la haine en ligne.

Ces obligations de moyens, dont un certain nombre figuraient dans la proposition de loi initiale, ont été précisées et complétées.

a. L’obligation de se conformer aux recommandations du CSA

En tête de ces obligations de moyens a été inscrite l’obligation, nouvelle, pour les opérateurs de se conformer aux recommandations que le CSA établira pour la bonne application de l’obligation de retrait et des obligations de moyens mises à leur charge (article 2(47).

b. Les obligations de traitement des notifications

La Commission a rassemblé, à l’article 2, les obligations relatives au traitement des notifications de contenus haineux et en a précisé la portée :

–  l’information sur les suites données à la notification devra être délivrée au notifiant comme à l’auteur du contenu litigieux, comporter les motifs de la décision prise mais aussi les sanctions encourues par l’auteur pour la publication d’un contenu haineux (48) ;

–  le dispositif de notification des contenus haineux devra être directement accessible depuis ces contenus (49) ;

–  les moyens humains ou technologiques nécessaires et proportionnés pour le traitement dans les meilleurs délais des notifications reçues devront plus généralement contribuer au respect de l’obligation de retrait en 24 heures (50) ;

–  l’obligation d’ouvrir une voie de recours interne contre les décisions que prendra l’opérateur concernera aussi les décisions de déréférencement prises par les moteurs de recherche (51).

c. Les obligations d’information, de transparence et de coopération

À l’article 3 ont été regroupées les autres obligations de moyens imposées aux grandes plateformes en ligne, que la Commission a précisées ou complétées :

–  l’information publique, claire et détaillée, dont le champ a été précisé et complété : les auteurs de contenus litigieux devront, comme les victimes, être informés des voies de recours interne et judiciaire dont ils disposent, cette information devant porter également sur les délais impartis pour former ces recours, les risques encourus en cas de notification abusive ou de publication de contenus haineux ainsi que sur les règles de modération (52) ;

–  la transparence des moyens consacrés à la lutte contre la haine en ligne, qui devra permettre de connaître l’organisation interne adoptée et les actions entreprises pour mettre en œuvre l’obligation de retrait (53) ;

–  la sensibilisation spécifique des mineurs et de leurs parents à l’utilisation d’internet et aux risques encourus en cas de publication de contenus haineux, nouvelle obligation ajoutée par la Commission (54) ;

–  l’information prompte des autorités publiques sur les contenus haineux notifiés, nouvelle obligation également créée par la Commission (55) ;

–  et la désignation d’un représentant légal, interlocuteur référent sur le territoire français, dont les missions consisteront à mettre en œuvre ces obligations et à répondre aux demandes de l’autorité judiciaire (56).

B. LA CLARIFICATION DU RÔLE DE SUPERVISION DU CONSEIL SUPÉRIEUR DE L’AUDIOVISUEL

Tirant les conséquences de la nouvelle architecture des obligations imposées aux grandes plateformes en ligne, la Commission a clarifié, à l’article 4, le rôle dévolu au CSA dans le suivi de ces obligations.

Le CSA sera chargé de veiller au respect du devoir de coopération des opérateurs, en leur adressant, en plus des recommandations prévues par la proposition de loi initiale, des bonnes pratiques et des lignes directrices en vue de l’application de l’obligation de retrait et des obligations de moyens.

En cas de non-respect par un opérateur du devoir de coopération, le CSA pourra engager une procédure de sanction.

Suivant votre rapporteure, la Commission a apporté des précisions importantes sur la caractérisation du manquement au devoir de coopération. Pour ce faire, le CSA devra se fonder :

–  d’une part, sur la façon dont l’opérateur exécute ses obligations de moyens ;

–  d’autre part, sur la manière dont il se conforme aux recommandations que le Conseil émet pour le respect de l’obligation de retrait et des obligations de moyens : à cette occasion, le Conseil appréciera « le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait ».

Enfin, la Commission a davantage encadré le prononcé d’une sanction :

–  en la conditionnant à une mise en demeure préalable ;

–  en prévoyant que son montant devra prendre en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré, sans pouvoir excéder 4 % du chiffre d’affaires annuel mondial de l’opérateur ;

–  en autorisant la publication des mises en demeure et sanctions.

C. LA SÉCURISATION DE LA PROCÉDURE DE LUTTE CONTRE LA DUPLICATION DES CONTENUS JUGÉS HAINEUX

À l’article 6, la Commission a renforcé les garanties applicables à la procédure de blocage ou de déréférencement de « sites miroirs ».

D’une part, elle a limité son champ d’application aux seuls contenus haineux visés par la proposition de loi.

D’autre part, elle a replacé l’autorité judiciaire dans cette procédure :

–  le juge judiciaire pourra, au moment de juger illicite un site haineux, interdire la reprise totale ou partielle des contenus de ce site ;

–  sur la base de cette décision judiciaire, l’autorité administrative pourra demander aux fournisseurs d’accès à internet, aux fournisseurs de noms de domaine et aux moteurs de recherche le blocage ou le déréférencement de toute duplication de ces contenus, le cas échéant saisie par toute personne intéressée ;

–  en cas de difficultés, l’autorité judiciaire pourra être saisie en référé ou sur requête pour ordonner le blocage ou le déréférencement du contenu litigieux.

D. L’INTRODUCTION D’UN VOLET RELATIF À LA PRÉVENTION

À l’initiative de la commission des Affaires culturelles et de l’éducation, votre Commission a complété cette proposition de loi par deux nouveaux articles renforçant les mesures de prévention et d’éducation :

–  l’article 6 bis précise le contenu de la formation à l’utilisation responsable des outils et ressources numériques, afin qu’y figure la lutte contre la diffusion de la haine en ligne ;

–  l’article 6 ter renforce la formation des enseignants dans ce domaine.

Ces deux dispositions s’ajoutent à l’obligation faite aux opérateurs de plateforme en ligne à fort trafic de sensibiliser les mineurs et leurs parents, lors de leur inscription, à l’utilisation responsable de leurs services et de les informer sur les risques qu’ils encourent en cas de diffusion de contenus haineux (article 3).

EXAMEN DES ARTICLES

Chapitre Ier (nouveau)
Obligation renforcée de retrait des contenus haineux en ligne

Article 1er
(art.6 et 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique

Obligation de retrait en vingt-quatre heures
des contenus manifestement haineux en ligne

Adopté par la Commission avec modifications

Ø Résumé du dispositif initial et effets principaux

Afin d’améliorer la régulation des contenus haineux en ligne, le présent article impose aux opérateurs de plateforme en ligne à fort trafic, sous peine de sanction par le Conseil supérieur de l’audiovisuel (CSA), de retirer dans un délai de 24 heures tout contenu comportant manifestement une incitation à la haine ou une injure discriminatoire à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap. Il aménage des voies de recours contre les décisions de retrait ou de non-retrait du contenu prises par ces opérateurs.

Ø Dernières modifications législatives intervenues

Instauré par la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), le devoir de coopération des intermédiaires techniques dans la lutte contre certains contenus odieux a été élargi, par la loi du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes, à la lutte contre le harcèlement sexuel.

Ø Modifications apportées par la Commission

La Commission a procédé à plusieurs modifications :

–  elle a étendu le champ d’application de l’obligation de retrait aux mêmes contenus que ceux pour lesquels les intermédiaires techniques sont déjà soumis à un devoir de coopération (provocation et apologie du terrorisme, harcèlement sexuel, traite des êtres humains, pédopornographie, proxénétisme…) ;

–  elle a élargi le cercle des opérateurs concernés par cette obligation aux moteurs de recherche ;

–  elle a rendu le juge pénal seul compétent pour sanctionner le non-respect de cette obligation, en lieu et place du CSA.

A. LE RÔLE DES INTERMÉDIAIRES TECHNIQUES DANS LA LUTTE CONTRE LA HAINE SUR INTERNET

La régulation des acteurs intervenant dans la mise à disposition de contenus sur internet est marquée par un certain libéralisme, qui la distingue du régime de la communication audiovisuelle, soumise à autorisation préalable et dont les fournisseurs de contenus doivent respecter certaines obligations.

Elle est régie, pour l’essentiel, par la loi du 21 juin 2004 pour la confiance dans l’économie numérique. Transposant la directive du 8 juin 2000 sur le commerce électronique, dite « e-commerce », cette loi a posé le principe d’une irresponsabilité relative des acteurs exerçant une activité d’intermédiaire dans la mise à disposition de contenus en ligne, en contrepartie d’une obligation de collaboration dans la lutte contre les contenus illicites.

1. La définition des catégories d’acteurs

Parmi les acteurs concernés par cette régulation, l’article 6 de la loi du 21 juin 2004 distingue principalement deux catégories, à côté des éditeurs de services sur internet, responsables des contenus qu’ils mettent en ligne et soumis à un régime de responsabilité très proche de celui de la presse (57) (III à V).

a. Les fournisseurs d’accès à internet

Il s’agit, d’une part, des transporteurs d’informations (58), parmi lesquels figurent les fournisseurs d’accès à internet (FAI).

Ces acteurs sont en principe irresponsables des dommages causés par le contenu de ces informations aussi longtemps qu’ils restent neutres à leur égard.

b. Les hébergeurs

Il s’agit, d’autre part, des hébergeurs, intermédiaires techniques définis comme « les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de ces services ».

Ces acteurs bénéficient d’un régime de responsabilité limitée, en raison de leur rôle relativement passif dans la mise à disposition de contenus (2 et 3 du I).

c. Les opérateurs de plateforme en ligne

À ces catégories s’est superposée, en 2016 (59), celle, plus générale et susceptible de recouvrir la qualité d’hébergeur ou d’éditeur, d’« opérateur de plateforme en ligne », destinée à dépasser la distinction, devenue quelque peu binaire, entre prestataires techniques et éditeurs de contenus.

L’article L. 111-7 du code de la consommation définit cet opérateur comme « toute personne (…) proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur (…) le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers (…) ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service ».

En pratique, la qualité de FAI est aisée à définir et recouvre des acteurs clairement identifiés, tels qu’Orange, Numericable-SFR, Free ou Bouygues Télécom à titre principal en France.

Celle d’hébergeur est davantage sujette à débat et exige de s’intéresser à la manière dont l’activité d’hébergement est exercée par le prestataire, en particulier, selon la Cour de justice de l’Union européenne, au « rôle actif de nature à lui confier une connaissance ou un contrôle des données stockées » (60).

Ainsi, selon son rôle à l’égard des contenus stockés, la plateforme de partage de vidéos (Youtube, Dailymotion…), le réseau social (Facebook, Twitter, LinkedIn, Viadeo…), le forum de discussion, la plateforme de mise en relation (eBay, PriceMinister…), le site de streaming, le comparateur de prix (Shopping.com…) ou le moteur de recherche (Google, Qwant…) seront reconnus tantôt comme des hébergeurs, tantôt comme des éditeurs de contenus.

L’INTERPRÉTATION JURISPRUDENTIELLE DE L’ACTIVITÉ D’HÉBERGEMENT

NOM DE L’ENTREPRISE

ACTIVITÉ DE L’ENTREPRISE

QUALITÉ D’HÉBERGEUR
OU D’ÉDITEUR

DÉCISION DE JUSTICE

Sites alimentés par les internautes

DAILYMOTION

Plateforme de stockage et d’échange de vidéos

Hébergeur

Cass. Civ. 1ère, 17 février 2011, n° 09-67.896

FUZZ

Site d’actualités nourri par les internautes partageant leurs liens hypertextes favoris

Hébergeur

Cass. Civ. 1ère, 17 février 2011, n° 09-13.202

FACEBOOK

Réseau social

Hébergeur

TGI de Paris, 13 avril 2010, n° 10/53340

LESARNAQUES.COM (*)

Forum de discussion sur lequel les internautes échangeaient des informations

Hébergeur

TGI de Paris, 22 novembre 2010, n° 10/17057

EBAY

Place de marché en ligne

Hébergeur pour les activités de stockage des offres sur un serveur, de fixation des modalités du service rémunéré et de renseignements d’ordre général aux clients

Éditeur pour les activités d’optimisation de la présentation des offres à la vente ou de promotion de ces offres

CJUE, 12 juillet 2011, n° C-324/09

Cass. Com., 3 mai 2012, n° 11-10.508

VIAGOGO

Site de revente en ligne de billets par les internautes

Hébergeur

TGI de Paris, 27 février 2012, n° 12/51314

WIKIPEDIA

Site de création et de modification collaboratives de pages web

Hébergeur

TGI de Paris, 29 octobre 2007, n° 07/58288

AGORAVOX

Site d’opinion sur l’actualité alimenté par des internautes volontaires et non professionnels

Éditeur

(opérations de sélection des articles après un examen détaillé de leur contenu, dans le respect d’une politique éditoriale)

TGI de Paris, 12 octobre 2012, n° 11/09814

PAPERBLOG

Agrégateur de blogs

Hébergeur

CA de Paris, 8 novembre 2013,

RADIOBLOG (**)

Site proposant des liens vers des enregistrements musicaux alimentés par les internautes pour une écoute gratuite en streaming

Éditeur

(capacité d’action du site sur les contenus accessibles, allant au-delà de la simple structuration ou classification des liens)

Cass. crim., 25 septembre 2012, n° 11-84224

ROJADIRECTA

Site de visionnage de compétitions sportives en simultané et streaming

Éditeur

(sélection, selon un choix éditorial, des compétitions mises en ligne, dans des domaines ciblés mis à jour en permanence)

Cass. Civ. 2ème, 6 décembre 2018, n° 17-20.146

NOM DE L’ENTREPRISE

ACTIVITÉ DE L’ENTREPRISE

QUALITÉ D’HÉBERGEUR
OU D’ÉDITEUR

DÉCISION DE JUSTICE

Sites non alimentés par les internautes

SOTIRIS

Site d’information en ligne reproduisant la version papier d’un journal

Éditeur

(même si le site est l’exacte réplique du journal papier, son éditeur a connaissance des informations publiées et exerce un contrôle dessus)

CJUE, 11 septembre 2014, n° C-291/13

SHOPPING.COM

Comparateur de produits en ligne

Éditeur

(contrôle du caractère purement déclaratif des annonces et tri dans le contenu fourni par les annonceurs)

TGI de Paris, 15 décembre 2011

GOOGLE

Moteur d’indexation de ressources et de recherche à partir de mots clés

Hébergeur

Cass. Civ. 1ère, 12 juillet 2012, nos 11-15.165 et 11-15.188

GOOGLE ADWORDS

Affichage d’annonces publicitaires en réponse à une recherche

Hébergeur

(rôle de classement des annonces ; absence de contrôle sur le choix des mots clés qui est le fait des annonceurs)

CJUE, 23 mars 2010, nos C-236/08 à C-238/08

Cass. Comm., 13 juillet 2010, nos 05-14.331, 06-15.136, 06-20.230 et 08-13.944

(*) Ce site a depuis été rebaptisé Net-Litiges.com.

(**) Ce site a depuis été fermé.

Source : L. Marino, « Responsabilités civile et pénale des fournisseurs d’accès et d’hébergement », JurisClasseur Communication, fasc. 670, août 2015 (mis à jour en décembre 2017).

2. Le régime de responsabilité

a. L’irresponsabilité de principe des intermédiaires techniques

Conformément aux règles du code des postes et des communications électroniques auxquelles ils sont soumis, les prestataires techniques intermédiaires sont, en principe, exonérés de toute responsabilité civile ou pénale.

S’agissant des opérateurs chargés du simple transport des informations sur le réseau ou de la fourniture d’accès à ce réseau, ils doivent ne pas avoir été à l’origine de la transmission, ne pas en avoir sélectionné le destinataire ni sélectionné ou modifié les informations transmises (article L. 32-3-3).

Les opérateurs chargés du stockage automatique, intermédiaire et transitoire des informations transmises visant exclusivement à accélérer leur transmission ultérieure à un autre destinataire ne sont pas responsables sauf s’ils sont intervenus dessus ou n’ont pas agi promptement pour empêcher l’accès à des contenus litigieux (61) (article L. 32-3-4).

b. La responsabilité allégée des hébergeurs

Pour leur part, les hébergeurs ne peuvent voir leur responsabilité civile ou pénale engagée :

–  s’ils n’avaient pas effectivement connaissance du contenu illicite stocké ;

–  si, après avoir été informés du caractère illicite d’un contenu stocké, par un dispositif de notification devant respecter un certain formalisme, ils n’ont pas agi promptement pour le retirer ou en empêcher l’accès (2 et 3 du I de l’article 6 précité).

Compte tenu de la difficile caractérisation d’un contenu illicite et du caractère par nature délicat d’un tel exercice, l’hébergeur ne peut voir sa responsabilité engagée que s’il n’a pas procédé au retrait d’un contenu « manifestement » illicite qui lui a été notifié ou à un retrait ordonné par un juge, comme le Conseil constitutionnel (62) ou la Cour européenne des droits de l’homme (63) l’ont affirmé.

Le groupe de travail interministériel sur la lutte contre la cybercriminalité considérait, en 2014, que « ce dispositif s’avère, en l’état, peu efficace s’agissant des personnes privées » et ne constitue qu’« une simple obligation de moyens, dans la mesure où l’hébergeur peut s’exonérer de toute responsabilité s’il justifie que l’auteur ou l’éditeur de la page concernée a été invité à retirer ou à modérer le contenu faisant grief » (64).

3. Les obligations

En contrepartie de l’irresponsabilité relative dont ils bénéficient, FAI et hébergeurs sont soumis, en vertu du 7 du I du même article 6, à certaines obligations en matière de régulation des contenus illégaux.

a. L’absence d’obligation générale de surveillance

Ils ne sont pas soumis à une obligation générale de surveillance des informations qu’ils transmettent ou stockent ou de recherche des faits ou des circonstances révélant des activités illicites, « sans préjudice de toute activité de surveillance ciblée et temporaire demandée par l’autorité judiciaire ».

L’absence d’obligation générale de surveillance ou de filtrage a priori des informations stockées ou transmises par les FAI et les hébergeurs a été confirmée par la Cour de justice de l’Union européenne (65). La Cour de cassation a déduit de cette règle qu’un hébergeur ne pouvait être enjoint de bloquer la réapparition d’un contenu retiré une première fois en raison de son caractère illicite, sauf à le soumettre à une obligation générale de surveillance sous la forme d’un système de filtrage et de blocage permanent (66).

En revanche, FAI et hébergeurs sont tenus de détenir et conserver les données d’identification de l’auteur d’un contenu et de répondre aux réquisitions de l’autorité judiciaire aux fins de communication de ces données (67).

b. Des obligations particulières de surveillance de certains contenus

Toutefois, les FAI et les hébergeurs doivent concourir à la lutte contre la diffusion de certains contenus ou activités illicites, par la mise en place d’« un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données », en informant « promptement » les autorités publiques compétentes en cas de signalement et en rendant publics les moyens qu’ils consacrent à cette lutte.

Ces obligations s’appliquent à des domaines dont le champ n’a cessé de croître au fil des années pour concerner aujourd’hui, notamment, la lutte contre l’apologie des crimes contre l’humanité, contre la provocation à la commission d’actes de terrorisme et leur apologie, contre l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation sexuelle ou identité sexuelle ou de leur handicap, à la pornographie enfantine ainsi qu’à la violence et contre les atteintes à la dignité humaine.

INFRACTIONS CONCERNÉES PAR L’OBLIGATION D’UN DISPOSITIF DE SIGNALEMENT

Fondement textuel

Description de l’infraction

Cinquième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse

Apologie des crimes d’atteinte volontaire à la vie, d’atteinte volontaire à l’intégrité de la personne, d’agression sexuelle, de vol aggravé, d’extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs

Septième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse

Provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion

Huitième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse

Provocation à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du code pénal.

Article 222-33 du code pénal

Harcèlement sexuel

Article 225-4-1 du code pénal

Traite des êtres humains

Articles 225-5 et 225-6 du code pénal

Proxénétisme

Article 227-23 du code pénal

Captation, enregistrement, transmission, offre, mise à

disposition, diffusion, importation ou exportation, acquisition ou détention d’image pornographique d’un mineur

Consultation habituelle ou en contrepartie d’un paiement d’un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs

Article 227-24 du code pénal

Fabrication, transport, diffusion ou commerce de message violent ou pornographique susceptible d’être vu ou perçu par un mineur

Article 421-2-5 du code pénal

Provocation directe à des actes de terrorisme ou apologie publique de ces actes

Il existe également des dispositions propres à la lutte contre les activités illégales de jeux d’argent et d’achat de tabac en ligne (68).

Les opérateurs de plateforme en ligne ne sont pas soumis, en matière de lutte contre les contenus illicites, à des obligations spécifiques autres que celles prévues pour les hébergeurs.

B. LE DISPOSITIF PROPOSÉ

Le présent article vise à renforcer les obligations des acteurs numériques en matière de lutte contre les contenus haineux en ligne en précisant l’obligation de retrait des contenus manifestement illicites à laquelle ils sont d’ores et déjà soumis.

1. Une obligation de retrait en 24 heures pour les opérateurs de plateforme à fort trafic

Le paragraphe I vient clarifier, pour une catégorie de contenus illicites et d’opérateurs, les dispositions du 2 du I de l’article 6 précité en matière de traitement des contenus illicites.

Il fait obligation aux opérateurs de plateforme en ligne « proposant un service de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics, dont l’activité dépasse un seuil, déterminé par décret, de nombre de connexions sur le territoire français » de retirer ou rendre inaccessible, dans un délai de 24 heures, « tout contenu contrevenant manifestement » :

–  au cinquième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse, qui réprime l’apologie de certains crimes (atteinte volontaire à la vie ou à l’intégrité de la personne, agression sexuelle, vol aggravé, extorsion, destruction, dégradation ou détérioration volontaire dangereuse pour les personnes, crimes de guerre, crimes contre l’humanité, crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage, ou crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs) ;

–  au sixième alinéa du même article, qui sanctionne les cris et chants séditieux proférés dans les lieux ou réunions publics ;

–  aux troisième et quatrième alinéas de l’article 33 de la même loi, qui répriment l’injure publique commise envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion déterminée ou à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap.

L’intention des auteurs de la proposition de loi est toutefois de viser non pas les cris et chants séditieux mais la provocation à la discrimination, à la haine ou à la violence à raison de l’ethnie, de la nation, de la race, de la religion, du sexe, de l’orientation sexuelle, de l’identité de genre ou du handicap, réprimée par les septième et huitième alinéas de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse.

Cette disposition est la traduction de la recommandation n° 1 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.

2. Un pouvoir de sanction du Conseil supérieur de l’audiovisuel

Le II rend le Conseil supérieur de l’audiovisuel (CSA) compétent pour connaître des manquements à cette obligation.

En cas de méconnaissance par l’opérateur de l’obligation de prompt retrait du contenu manifestement illicite, le CSA pourrait prononcer une sanction pécuniaire « dont le montant peut prendre en considération la gravité des manquements commis et leur caractère réitéré », sans pouvoir excéder 4 % de son chiffre d’affaires annuel mondial.

La sanction ne pourrait intervenir qu’après mise en demeure de l’opérateur et la mise en œuvre des garanties prévues, à l’article 42-7 de la loi du 30 septembre 1986 relative à la liberté de communication, pour les autres sanctions susceptibles d’être prononcées par le CSA.

Les garanties applicables au prononcé de sanctions par le CSA

–  l’engagement des poursuites et l’instruction préalable au prononcé de la sanction seraient confiés à un rapporteur indépendant nommé par le vice-président du Conseil d’État après avis du CSA ;

–  le rapporteur indépendant pourrait se saisir de tout fait susceptible de justifier l’engagement d’une procédure de sanction et déciderait si les faits dont il a connaissance justifient l’engagement d’une procédure de sanction ;

–  s’il estime que les faits justifient l’engagement d’une telle procédure, le rapporteur indépendant notifierait les griefs aux personnes mises en cause, qui pourraient consulter le dossier et présenter leurs observations dans un délai d’un mois ou de sept jours en cas d’urgence ;

–  durant l’instruction, le rapporteur indépendant pourrait procéder à toutes les auditions et consultations nécessaires et, au terme de celles-ci, communiquerait son rapport à la personne mise en cause et au CSA ;

–  sauf si elle est nécessaire à l’exercice des droits de la défense de la personne mise en cause, le rapporteur indépendant pourrait lui refuser la communication ou la consultation de pièces ou de certains éléments contenus dans ces pièces mettant en jeu le secret des affaires d’autres personnes, auquel cas une version non confidentielle et un résumé des pièces ou éléments en cause lui seraient accessibles ;

–  le rapporteur indépendant exposerait devant le CSA, en présence de la personne mise en cause, son opinion sur les faits dont il aurait connaissance et les griefs notifiés et pourrait proposer d’adopter une sanction : au cours de cette séance, la personne mise en cause, qui pourrait se faire assister par toute personne de son choix, serait entendue par le CSA, qui pourrait également entendre, en présence de la personne mise en cause, toute personne dont l’audition lui paraîtrait utile ;

–  la décision du CSA, prise hors la présence du rapporteur indépendant, serait motivée et notifiée aux personnes concernées.

La compétence ainsi conférée au CSA reprend en partie la recommandation n° 6 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.

3. La contestation des décisions des opérateurs de plateforme en ligne à fort trafic

Le III oblige les opérateurs de plateforme en ligne à fort trafic à mettre en œuvre une procédure permettant de contester les décisions prises en matière de retrait ou d’inaccessibilité d’un contenu haineux manifestement illicite :

–  au bénéfice de la personne à l’origine de la publication du contenu litigieux en cas de décision de retrait ;

–  au profit de l’auteur de la notification en cas de non-retrait du contenu.

Cette disposition reprend partiellement la recommandation n° 9 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme. Elle n’est pas de nature à déstabiliser les acteurs numériques concernés dans la mesure où, lors de la table ronde consacrée aux principales plateformes en ligne, Facebook a par exemple indiqué à votre rapporteure développer un mécanisme d’appel des décisions de retrait ou de non-retrait de contenus que cette entreprise est amenée à prendre, en réfléchissant à la mise en place d’un comité d’experts indépendants.

C. L’AVIS DU CONSEIL D’ÉTAT

Le Conseil d’État a formulé plusieurs observations sur l’article 1er, dont la principale porte sur le champ d’application – organique, territorial et matériel – de ses dispositions qui sous-tendent le reste de la réforme proposée.

1. Les acteurs numériques visés

Le Conseil d’État a recommandé de modifier le champ des opérateurs concernés par l’obligation de rendre les contenus manifestement haineux inaccessibles dans un délai de 24 heures suivant leur notification.

Pour se conformer au principe constitutionnel d’égalité et au principe conventionnel de non-discrimination, il a suggéré de viser l’ensemble des « opérateurs (…) à raison de leur interaction active avec les contenus, dont ils favorisent la diffusion accélérée » (69) en ajoutant les moteurs de recherche aux opérateurs mentionnés par la proposition de loi initiale.

En outre, la proposition de loi ayant vocation à s’appliquer à l’ensemble des opérateurs de plateforme enregistrant un seuil minimal de connexions mensuelles sur le territoire français, quel que soit leur pays d’établissement, la question de sa conformité au droit européen, au regard du principe fondamental de libre prestation de services et de la « clause du marché intérieur » posée par la directive « e-commerce », se posait. Après avoir examiné cette question, le Conseil d’État a admis la possibilité pour un État membre de soumettre à des règles particulières les services de la société de l’information en provenance d’un prestataire établi dans un autre État membre (principe du pays d’origine (70)).

Les conséquences du principe fondamental de libre prestation de services sur la compétence de la France en matière de régulation des contenus en ligne

D’après le Conseil d’État, plusieurs voies permettraient à la France de déroger aux règles applicables en matière de libre prestation de services dans la société de l’information mais peu seraient susceptibles d’être exploitées par la proposition de loi.

Les dérogations à la « clause de marché intérieur » en vertu de la directive « e-commerce »

La « clause de marché intérieur », fixée par l’article 3 de la directive « e-commerce », prévoit que « chaque État membre veille à ce que les services de la société de l’information fournis par un prestataire établi sur son territoire respectent les dispositions nationales applicables dans cet État membre » et interdit aux États membres de « restreindre la libre circulation des services de la société de l’information en provenance d’un autre État membre ».

Cette clause n’est donc pas sans incidence sur la faculté de la France de renforcer la réglementation pénale et d’instaurer une régulation administrative à l’égard des opérateurs de plateforme en ligne établis dans les autres États membres.

L’article 3 de la directive « e-commerce » prévoit deux dérogations à cette règle :

–  la directive ne s’applique pas dans certains « domaines » (droit de la propriété intellectuelle, liberté des parties de choisir le droit applicable à leur contrat, obligations contractuelles concernant les contrats conclus par les consommateurs…) qui ne sont cependant pas concernés par la proposition de loi ;

–  l’Etat dit « d’accueil » peut prendre certaines mesures sous réserve de poursuivre, de manière proportionnée, certains buts d’ordre public, dont la lutte contre les incitations à la haine pour des raisons de race, de sexe, de religion ou de nationalité ou contre les atteintes à la dignité humaine, et à condition, sauf urgence, d’avoir d’abord sollicité l’Etat d’origine et d’en avoir notifié la Commission qui examinera la compatibilité de ces mesures au droit communautaire, ce qui n’est pas le mécanisme envisagé par la proposition de loi.

L’invocation d’un motif d’ordre public en vertu du Traité sur le fonctionnement de l’Union européenne

L’article 52 du Traité sur le fonctionnement de l’Union européenne permet aux États membres d’adopter des dispositions législatives, réglementaires et administratives prévoyant un régime spécial pour les ressortissants étrangers, par dérogation à la liberté d’établissement, à condition qu’elles soient « justifiées par des raisons d’ordre public, de sécurité publique et de santé publique ».

Pour le Conseil d’État, les motifs de cette dérogation à un principe fondamental du traité sont d’interprétation restrictive (CJCE, 13 décembre 2007, Commission c. Italie, n° C-465/05), y compris en ce qui concerne l’ordre public, « de sorte que sa portée ne saurait être déterminée unilatéralement par chacun des États membres sans contrôle des institutions de la communauté » (CJCE, 4 décembre 1974, Van Duyn, n° 41/74). En particulier, l’exigence d’ordre public suppose « l’existence, en dehors du trouble pour l’ordre social que constitue toute infraction à la loi, d’une menace réelle et suffisamment grave, affectant un intérêt fondamental de la société » (CJCE, 27 octobre 1977, Bouchereau, n° 30/77 et 27 avril 2006, Commission c. Allemagne, n° C-441/02). Par ailleurs, faire référence à l’ordre public serait contraire aux dérogations spécifiquement prévues à cet effet par l’article 3 de la directive « e-commerce ».

Les dérogations admises par la jurisprudence européenne

Les raisons impérieuses d’intérêt général

Dès 1979, la Cour de justice des Communautés européennes a admis que des raisons impérieuses d’intérêt général justifient, de façon autonome, des restrictions aux libertés garanties par les traités dès lors que les directives applicables en la matière ne sont pas d’harmonisation exhaustive (CJCE, 20 février 1979, Rewe-Zentral AG c. Bundesmonopolverwaltung für Branntwein, n° 120/78 : arrêt dit Cassis de Dijon).

Le Conseil d’État a considéré, dans son avis portant sur les lois relatives à la manipulation de l’information, que tel n’était pas le cas de la directive « e-commerce » (avis nos 394641-394642 du 19 avril 2018). De plus, les dispositions de la directive 2010/13/UE du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels, telle que modifiée par la directive 2018/1808/UE du 14 novembre 2018, dite directive « SMA », portant sur les plateformes de partage de vidéo, laissent suffisamment de marge de manœuvre aux États membres pour ne pas être regardées d’harmonisation exhaustive.

Toutefois, le juge européen exige que ces motifs ne soient pas déjà sauvegardés par les règles imposées aux prestataires dans leur État d’origine (CJCE, 21 mars 2002, Cura Anlagen, n° C-451/99). Or il paraît difficile, en l’espèce, d’affirmer qu’il n’existe pas de consensus européen sur la nécessité de lutter contre la diffusion des contenus haineux en ligne, les directives « e-commerce » et « SMA » comportant des obligations minimales dans ce domaine.

L’intérêt légitime tenant à la protection des droits fondamentaux

En 2004, la Cour de justice de l’Union européenne (CJUE) a admis que l’intérêt légitime tenant à la protection des droits fondamentaux, en l’occurrence la dignité humaine, justifie des atteintes aux libertés prévues par les traités, en l’espèce la libre prestation de services (CJCE, 14 octobre 2004, Omega Spielhallen und Automatenaufstellungs-GmbH c. Oberbürgermeisterin der Bundesstadt Bonn, n° C-36/02) :

–  à condition que les mesures prises soient propres à garantir la réalisation des objectifs qu’elles poursuivent ;

–  sous réserve que ces mesures soient nécessaires pour la protection des intérêts qu’elles visent à garantir ;

–  dans la mesure où ces objectifs ne peuvent être atteints par des mesures moins restrictives.

Lors du contrôle qu’elle opère de ces mesures, la CJUE tient en particulier compte des principes de valeur constitutionnelle des États membres pertinents (CJUE, 14 octobre 2004, Omega précité ; 22 octobre 2010, Sayn Wittgenstein, n° C-208/09) et regarde si les droits fondamentaux en question sont également protégés par la Charte des droits fondamentaux de l’Union européenne. Elle considère que la nécessité et la proportionnalité des dispositions prises doivent être appréciées « au regard de l’objectif en cause et du niveau de protection que l’État membre concerné entend assurer » (CJUE, 14 février 2008, Dynamic Medien, n° C-244/08), l’appréciation de la proportionnalité revenant principalement aux juridictions nationales.

Au terme de l’examen des différentes dérogations susceptibles d’être apportées, par le législateur national, au principe de libre prestation de services, le Conseil d’État a considéré possible de se rattacher à l’exception générale de protection des droits fondamentaux. En effet, « le déferlement de contenus particulièrement odieux par le biais de plateformes en ligne mondialisées et ses conséquences graves, autant pour la vie démocratique que par ses impacts sur les comportements ou la vie des utilisateurs, constituent une atteinte à la dignité humaine protégée par l’article premier de la Charte des droits fondamentaux ainsi qu’une méconnaissance du principe de non-discrimination protégé par l’article 21 de cette Charte » (71). Il a rappelé qu’une telle exception pouvait se fonder sur le principe de sauvegarde de la dignité de la personne humaine, protégé par le préambule de la Constitution de 1946 et d’une certaine façon inhérent à notre identité constitutionnelle. Il a estimé satisfaites les autres conditions posées par le juge européen pour admettre une telle dérogation (caractère non exhaustif de l’harmonisation des législations prévues par les directives, mesures propres à garantir la réalisation des objectifs poursuivis et nécessaires à la protection des intérêts visés, absence d’autres mesures moins restrictives permettant d’atteindre ces objectifs).

2. Les contenus concernés par l’obligation de retrait

Dans le prolongement de ses observations sur la conformité de la proposition de loi au droit européen, le Conseil d’État a invité le législateur à rattacher la liste des contenus visés à ceux mentionnés au 7 du I de l’article 6 de la loi pour la confiance dans l’économie numérique, à l’égard desquels les prestataires techniques ont des obligations spécifiques. Ces contenus se rattachent en effet à des infractions relevant des atteintes aux droits fondamentaux des personnes, en particulier à la dignité humaine, dont la préservation justifie des dérogations nationales au principe de libre prestation de services.

Sur la forme, il a suggéré d’intégrer l’obligation de retrait de propos manifestement haineux à cette loi, par souci de clarté, de lisibilité et de cohérence d’ensemble du dispositif.

3. L’articulation de la répression judiciaire et de la régulation administrative

Alors que la rédaction de l’article 1er pouvait laisser entendre que l’obligation de retrait renforcée serait sanctionnée par le CSA, le Conseil d’État a rappelé la jurisprudence constitutionnelle applicable en matière de protection de la liberté d’expression. « Le retrait de contenu ne peut (…) généralement être opéré que par le juge judiciaire ou à tout le moins sous son contrôle : c’est l’équilibre traditionnel que valide le Conseil constitutionnel, qui n’a accepté des injonctions administratives que lorsqu’elles portent sur un bocage d’adresses Internet pour des sujets en relation avec des crimes graves (pédopornographie et terrorisme), et sont prononcées sous le contrôle étroit du juge » (72).

Il a en conséquence invité votre rapporteure à améliorer l’articulation entre la répression judiciaire et la régulation administrative :

–  par la création d’un délit autonome de refus de retrait des contenus manifestement illicites au regard de leur caractère haineux dans les 24 heures, qui ne viendrait que donner une portée effective aux dispositions de la directive « e-commerce » sur la régulation des contenus illicites ;

–  par la clarification du champ de la régulation administrative en définissant précisément la liste des obligations administratives pesant sur les opérateurs visés par la proposition de loi et susceptibles de faire l’objet d’une sanction : le Conseil d’État observe à cet égard que si le pouvoir de sanction du CSA « devra cibler (…) l’attitude systémique non coopérative de l’opérateur, après prise en compte des moyens qu’il met en œuvre pour prévenir la diffusion des contenus odieux manifestement illicites et la faire cesser », « dans cette appréciation qui sera soumise au contrôle du juge, il appartiendra au CSA de tenir également compte de comportements répétés de refus de retrait ou de retraits timorés, pusillanimes, ou au contraire excessifs » (73) .

Pour le reste, le Conseil d’État a estimé bienvenue l’obligation faite aux opérateurs visés de prévoir un dispositif de recours interne permettant de contester un refus de retrait ou un retrait. Toutefois, il a jugé utile de préciser explicitement que l’auteur du contenu litigieux soit systématiquement informé de la notification de son contenu et que l’opérateur de plateforme en ligne s’explique « sur les motifs de sa décision, quel qu’en soit le sens, dans les sept jours qui suivent l’expiration du délai de 24 heures, et [fasse] explicitement mention de l’existence de voies de recours, internes et contentieuses, contre ces décisions, y compris au bénéfice de l’auteur dont le contenu serait supprimé » (74).

Il a également validé le niveau des sanctions susceptibles d’être prononcées par le régulateur, une amende pouvant aller jusqu’à 4 % du chiffre d’affaires annuel mondial de l’opérateur, à condition de « préciser explicitement que son montant tiendra compte de la gravité des manquements commis et de leur éventuelle réitération » (75) et d’organiser plus précisément les modalités d’action du CSA (modalités de saisine, portée de la mise en demeure préalable).

D. LA POSITION DE LA COMMISSION

Pour la cohérence et l’efficacité d’ensemble du dispositif, la Commission a adopté un amendement de votre rapporteure inscrivant l’obligation de retrait en 24 heures des contenus manifestement haineux au sein d’un nouvel article 6-2 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, qui comporte déjà des dispositions relatives à la lutte contre les contenus illégaux en ligne.

Cet article ayant vocation à ne traiter que de l’obligation de retrait, elle a adopté un autre amendement de votre rapporteure supprimant les dispositions relatives aux voies de recours interne contre les décisions prises par les opérateurs, qui sont transférées à l’article 2.

La Commission a également procédé à trois modifications de fond.

1. L’ajout des moteurs de recherche dans la liste des opérateurs concernés

Sur proposition de votre rapporteure, la Commission a ajouté à la liste des opérateurs concernés par l’obligation de retrait les moteurs de recherche pour que soient visés tous les opérateurs de plateforme en ligne à fort trafic jouant un rôle particulier dans la diffusion et la propagation des contenus publics partagés, conformément à une recommandation du Conseil d’État.

La Commission a également suivi la proposition de votre rapporteure consistant à confier au pouvoir réglementaire le soin de définir le champ précis des opérateurs visés, à partir d’un seuil d’activité sur le territoire français, afin que puisse être notamment réglé le cas particulier des plateformes hébergeant des échanges de contenus publics et privés ou celui des plateformes hébergeant un forum de discussion en marge d’une activité principale différente.

2. L’élargissement du champ des contenus illicites visés

La Commission, à l’initiative de votre rapporteure, a suivi la proposition du Conseil d’État de fonder l’obligation de retrait renforcée sur le champ des contenus déjà visés au 7 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique relatif au devoir de coopération des acteurs numériques en matière de lutte contre certains contenus illégaux.

Seront donc concernés, outre les injures et provocations à la discrimination, à la haine ou à la violence visées par la proposition de loi initiale, les contenus contrevenant manifestement aux infractions suivantes :

– l’apologie des crimes de guerre, contre l’humanité, de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage, des crimes et délits de collaboration avec l’ennemi, des crimes d’atteinte volontaire à la vie ou à l’intégrité physique, d’agression sexuelle, de vol aggravé, d’extorsion ou de destruction, dégradation ou détérioration volontaire dangereuse (cinquième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse) ;

– le harcèlement sexuel (article 222-33 du code pénal) ;

– la traite des êtres humains (article 225-4-1 du même code) ;

– le proxénétisme (article 225-5 et 225-6 du même code) ;

– la pédopornographie (articles 227-23 (76) et 227-24 (77) du même code) ;

– la provocation au terrorisme ou son apologie (article 421-2-5 du même code) : après l’adoption du règlement européen en discussion sur le sujet, ces contenus devront être retirés en une heure s’ils sont notifiés par une autorité de confiance et en 24 heures dans les autres cas.

Par cohérence, la Commission a adopté, avec l’avis favorable de votre rapporteure, une série d’amendements complétant les motifs d’intérêt général justifiant l’instauration d’une obligation de retrait renforcée de ces contenus pour que soient mentionnées :

–  la provocation au terrorisme ou son apologie (78) ;

–  la lutte contre les atteintes à la dignité de la personne humaine (79) ;

–  les incitations à la violence ou à la discrimination, en plus de celles à la haine, envers une personne ou un groupe de personnes (80) ;

–  les discriminations à raison d’une « prétendue race », en lieu et place du mot « race » qui n’est plus utilisé dans les incriminations réprimant le racisme (81) ;

–  en plus de celles commises à raison de la prétendue race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap, les discriminations fondées sur l’appartenance à une nation (82), sur l’origine (83) et sur l’identité de genre (84).

Par ailleurs, la Commission, suivant l’avis favorable de votre rapporteure, a adopté un amendement de M. Philippe Dunoyer (UDI et Indépendants) qui prévoit l’affichage d’un message informatif en remplacement du contenu retiré ou rendu inaccessible.

3. La sanction pénale du refus de procéder au retrait d’un contenu manifestement haineux en 24 heures

La Commission, adoptant un amendement dans ce sens de votre rapporteure, a remplacé les dispositions donnant compétence au CSA pour sanctionner l’éventuel non-retrait d’un contenu manifestement haineux par la création d’un délit autonome de refus de retrait d’un tel contenu, puni des mêmes peines que celles prévues par l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique (un an d’emprisonnement et 75 000 euros d’amende pour une personne physique ; 375 000 euros d’amende dans le cas d’une personne morale).

L’article 5, dont les dispositions ont été transférées par la Commission à l’article 3 bis, prévoit de porter la peine d’amende encourue par une personne physique à 250 000 euros (1,25 million d’euros pour une personne morale).

*

* *

Article 1er bis
(art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)

Formalisme de la notification d’un contenu manifestement haineux

Introduit par la Commission

Ø Résumé du dispositif et effets principaux

Le présent article allège le formalisme des notifications de contenus manifestement haineux afin de faciliter les démarches des victimes de ces contenus auprès des opérateurs de plateforme en ligne à fort trafic.

––

Le présent article, qui résulte de l’adoption d’un amendement de votre rapporteure, est la reprise des dispositions figurant au I de l’article 2 de la proposition de loi initiale relatives à la simplification des conditions dans lesquelles l’opérateur est présumé avoir eu connaissance de contenus litigieux à la suite d’une notification (85). Le dispositif est en grande partie identique à celui envisagé par la proposition de loi initiale, sous réserve des modifications suivantes.

Sur la forme, ces dispositions ont été insérées au sein du nouvel article 6-2 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique créé par l’article 1er de la proposition de loi, à la suite de l’obligation de retrait dont elles précisent les modalités d’application. Les évolutions proposées dans l’allégement du formalisme des notifications seront ainsi limitées aux contenus haineux visés par le texte et ne concerneront pas les autres contenus illicites.

Sur le fond, trois évolutions sont notables.

Il est précisé que le délai de 24 heures laissé aux opérateurs de plateforme en ligne pour procéder au retrait d’un contenu manifestement haineux qui leur est notifié courra à compter de la réception de la notification.

Si la Commission n’est pas revenue sur le principe de l’allégement du formalisme de la notification, elle a toutefois procédé aux deux modifications suivantes :

–  le notifiant devra indiquer « la catégorie à laquelle peut être rattaché le contenu litigieux » (antisémitisme, racisme, LGBTphobie…), sans renvoyer à un décret le soin de dresser une liste de catégories de contenus litigieux : un tel renvoi n’est en effet pas nécessaire et il appartiendra au Conseil supérieur de l’audiovisuel de guider les plateformes dans l’élaboration de ces catégories ;

–  afin de répondre à une demande formulée par les représentants des moteurs de recherche lors de leur audition et à une recommandation du Conseil d’État, le notifiant devra, en outre, décrire les contenus dont il sollicite le retrait et les motifs pour lesquels ces contenus doivent être retirés.

*

* *

Article 1er ter
(art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)

Sanction des notifications abusives ou malveillantes

Introduit par la Commission

Ø Résumé du dispositif et effets principaux

Le présent article sanctionne pénalement les notifications abusives ou malveillantes de contenus présentés comme illicites aux opérateurs de plateforme en ligne à fort trafic dans le cadre de la procédure de notification prévue par la présente proposition de loi, afin de prévenir les risques de surblocage du fait d’actes malhonnêtes.

Ø Dernières modifications législatives intervenues

L’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique prévoit une telle sanction pour les notifications abusives opérées sur le fondement de cet article.

––

Le présent article, qui résulte de l’adoption d’un amendement de M. Buon Tan et des membres du groupe La République en marche, suivant l’avis favorable de votre rapporteure, sanctionne d’un an d’emprisonnement et de 15 000 euros d’amende la notification abusive de contenus que le notifiant sait ne pas être illicites. Par un sous-amendement, votre rapporteure a inscrit ces dispositions au sein du nouvel article 6-2 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique créé par l’article 1er de la proposition de loi.

Il s’agit de la transposition dans le champ de la proposition de loi du 4 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique réprimant les notifications abusives de contenus illicites pour un autre motif ou celles de tout contenu illicite auprès d’autres personnes que les opérateurs de plateforme en ligne à fort trafic visés par la proposition de loi.

Cette disposition, cantonnée au fait de « présenter (…) un contenu ou une activité comme étant illicite [au sens du premier alinéa du I de l’article 6-2] dans le but d’en obtenir le retrait ou d’en faire cesser la diffusion, alors [que la personne] sait cette information inexacte », permettra de prévenir et de sanctionner tout comportement susceptible de conduire au blocage ou au déréférencement excessif de contenus du fait d’actes malveillants.

*

* *

Chapitre II (nouveau)
Devoir de coopération des opérateurs de plateforme
dans la lutte contre les contenus haineux en ligne

Article 2
(art. 6 et 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)

Obligations de moyens en matière de traitement
des notifications de contenu haineux en ligne

Adopté par la Commission avec modifications

Ø Résumé du dispositif initial et effets principaux

Le présent article simplifie les conditions dans lesquelles l’hébergeur est présumé avoir eu connaissance de contenus litigieux qui lui ont été notifiés et améliore la procédure de notification des contenus haineux aux opérateurs de plateforme en ligne à fort trafic (information sur les suites, bouton unique, mise en œuvre de moyens proportionnés et nécessaires…).

Ø Dernières modifications législatives intervenues

La définition de la présomption de connaissance de contenus litigieux par les hébergeurs et les modalités de notification de tels contenus aux fournisseurs d’accès à internet et aux hébergeurs n’ont pas été modifiées depuis leur inscription dans la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

Ø Modifications apportées par la Commission

Après avoir supprimé les dispositions relatives à l’allégement du formalisme des notifications, déplacées à l’article 1er bis, la Commission a procédé à plusieurs modifications :

–  elle a inscrit les règles encadrant le traitement de ces notifications, qui constituent des obligations de moyens, au sein du devoir de coopération des opérateurs pour les soumettre au contrôle du Conseil supérieur de l’audiovisuel (CSA), et en a précisé la portée ;

–  elle a ajouté, en tête de ce devoir de coopération, la nécessité pour ces opérateurs de se conformer aux recommandations du CSA pour la bonne application de l’obligation de retrait en 24 heures des contenus manifestement haineux et des obligations de moyens ;

–  elle a complété cet article par les dispositions relatives au mécanisme de recours interne contre une décision prise à la suite de la notification d’un contenu litigieux, qui figuraient initialement au III de l’article 1er.

1. L’état du droit

La loi du 21 juin 2004 pour la confiance dans l’économie numérique comporte des dispositions, en pratique insuffisantes, permettant le signalement de contenus illégaux aux fournisseurs d’accès à internet (FAI) et aux hébergeurs ainsi que l’engagement de la responsabilité de ces derniers lorsqu’ils sont passifs.

a. Une présomption de connaissance des contenus litigieux par les hébergeurs fortement conditionnée

Les 2 et 3 du I de l’article 6 de cette loi n’admettent l’engagement de la responsabilité civile ou pénale des hébergeurs à raison des contenus qu’ils stockent que si, après avoir été informés de leur caractère illicite par un dispositif de notification respectant un formalisme strict, ils n’ont pas agi promptement pour les retirer ou en interdire l’accès. Dans l’hypothèse où celle-ci serait susceptible d’être engagée, la responsabilité des hébergeurs à raison des contenus qu’ils stockent ne peut cependant être mise en cause qu’en cas d’absence d’action rapide face à un contenu manifestement illicite.

En effet, suivant une réserve d’interprétation du Conseil constitutionnel, « ces dispositions ne sauraient avoir pour effet d’engager la responsabilité d’un hébergeur qui n’a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n’a pas été ordonné par un juge » (86). La Cour européenne des droits de l’homme s’est prononcée dans le même sens, en soumettant l’engagement de la responsabilité des hébergeurs à trois conditions cumulatives : le rôle actif de l’hébergeur quant au contenu publié, le caractère manifestement illicite de celui-ci et l’absence de toute mesure permettant d’effectuer un signalement efficace (87).

Pour faciliter la caractérisation de la responsabilité de l’hébergeur, le législateur a instauré, au 5 du même I, une présomption de connaissance par celui-ci du caractère illicite du contenu dès lors qu’un certain nombre d’éléments lui sont notifiés :

–  la date de la notification ;

–  les nom, prénoms, profession, domicile, nationalité, date et lieu de naissance du requérant ou la forme, la dénomination, le siège social et l’organe qui le représente s’il s’agit d’une personne morale ;

–  les nom et domicile du destinataire du signalement ou sa dénomination et son siège social s’il s’agit d’une personne morale ;

–  la description des faits litigieux et leur localisation précise ;

–  les motifs pour lesquels le contenu doit être retiré, comprenant la mention des dispositions légales et des justifications de faits ;

–  la copie de la correspondance adressée à l’auteur ou à l’éditeur des contenus ou activités litigieux demandant leur interruption, leur retrait ou leur justification, ou les motifs ayant empêché un tel contact.

b. Des dispositifs de signalement de contenus haineux ou d’activités illégales perfectibles

Sans prévoir d’obligation générale de surveillance à leur charge, le 7 du I de ce même article 6 soumet FAI et hébergeurs à trois obligations particulières en raison de l’intérêt général attaché à la répression de certains contenus illicites :

–  mettre en place « un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données » ;

–  informer « promptement » les autorités publiques compétentes en cas de signalement ;

–  rendre publics les moyens qu’ils consacrent à cette lutte.

Ces obligations concernent des domaines dont le champ n’a cessé de croître. À l’apologie des crimes contre l’humanité, l’incitation à la haine raciale et la pornographie enfantine prévues en 2004, se sont ajoutées l’incitation à la violence et les atteintes à la dignité humaine en 2007 (88) et 2016 (89), l’incitation aux violences faites aux femmes en 2010 (90), l’incitation à la haine à l’égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap (91) ainsi que la provocation à la commission d’actes de terrorisme et leur apologie (92) en 2014 et l’incitation aux violences sexistes en 2018 (93) (94).

Par ailleurs, depuis 2007 (95), compte tenu de l’intérêt général attaché à la répression des activités illégales de jeux d’argent, FAI et hébergeurs doivent mettre en place un dispositif facilement accessible et visible permettant de signaler à leurs abonnés les sites internet « tenus pour répréhensibles par les autorités publiques compétentes en la matière » et informer leurs abonnés « des risques encourus par eux du fait d’actes de jeux réalisés en violation de la loi ».

La méconnaissance de ces obligations est punie d’un an d’emprisonnement et de 75 000 euros d’amende ou, dans le cas de personnes morales, d’une amende de 375 000 euros.

En 2014, le groupe de travail interministériel sur la lutte contre la cybercriminalité dressait un bilan mitigé de ces dispositions, relevant des « pratiques hétérogènes » ainsi qu’une accessibilité ou une visibilité du dispositif de signalement « souvent sujettes à caution ». Il soulignait la nécessité « de s’assurer du respect de leurs obligations par l’ensemble des prestataires et de sanctionner les manquements constatés, étant entendu que les sanctions pénales (…) ne sont jamais appliquées » (96). De fait, l’engagement de la responsabilité civile ou pénale des stockeurs de contenus manifestement illicites est très rare et votre rapporteure n’a trouvé aucun cas où un hébergeur avait vu sa responsabilité pénale engagée à raison des contenus qu’ils stockaient, pour des raisons tenant à la fois à des contraintes procédurales lourdes et des considérations budgétaires limitant le pouvoir d’action de l’autorité judiciaire mais aussi aux difficultés à qualifier l’intention pénale des organes dirigeants des hébergeurs concernés, domiciliés à l’étranger et dont il faut démontrer la complicité.

2. Le dispositif proposé

Afin d’améliorer l’efficacité de ces dispositions dans la lutte contre la propagation de contenus haineux sur internet, le présent article procède à deux séries de modifications.

a. La simplification de la présomption de connaissance des contenus litigieux par les hébergeurs

Le I modifie les conditions dans lesquelles la connaissance du caractère litigieux d’un contenu par l’hébergeur est présumée acquise au sens du 5 du I de l’article 6 précité en exigeant du notifiant qu’il transmette, dans le cadre de sa notification, seulement deux séries d’éléments :

–  d’une part, des éléments permettant son identification selon qu’il s’agit d’une personne physique (nom, prénoms et adresse électronique), d’une personne morale (forme sociale, dénomination sociale et adresse électronique) ou d’une autorité administrative (dénomination et adresse électronique) ou tout élément permettant l’identification de quiconque a contribué à la création du contenu litigieux ;

–  d’autre part, la catégorie du contenu litigieux, à partir d’une liste dressée par décret, ainsi que le lien d’accès vers ce contenu.

Il ne serait donc plus exigé que le signalement comporte la date de la notification, la profession, le domicile, la nationalité et les date et lieu de naissance du notifiant personne physique, le siège social et l’organe représentant la personne morale, les nom et domicile du destinataire du signalement ou sa dénomination et son siège social s’il s’agit d’une personne morale, la description des faits litigieux et leur localisation précise, les motifs pour lesquels le contenu doit être retiré, ainsi que la copie de la correspondance adressée à l’auteur ou à l’éditeur des contenus ou activités litigieux demandant leur interruption, leur retrait ou leur justification, ou les motifs ayant empêché un tel contact.

Lors de son audition par votre rapporteure, les représentants de la Commission nationale de l’informatique et des libertés ont observé que l’allégement proposé du formalisme des notifications, outre ses avantages en termes d’accélération du retrait de contenus illicites, irait dans le sens d’une minimisation des données personnelles fournies par l’utilisateur d’un service pour exercer ses droits.

b. L’amélioration de la procédure de notification d’un contenu litigieux auprès d’une plateforme en ligne à fort trafic

Dans le prolongement des dispositions de l’article 1er, le II vise à améliorer la procédure de notification aux opérateurs de plateforme en ligne à fort trafic.

Ces opérateurs auront désormais l’obligation d’accuser réception « sans délai » de toute notification et d’informer leur auteur des suites données à sa demande de retrait dans un délai variant en fonction de la nature du contenu :

–  24 heures si le contenu notifié comporte une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ;

–  sept jours pour les autres contenus.

D’autre part, ils devront proposer aux utilisateurs situés sur le territoire français un dispositif de notification facilement accessible et uniformisé et leur permettre de notifier un contenu illicite dans la langue d’utilisation du service. L’objectif des auteurs de la proposition de loi est de parvenir à un service de notification simple d’accès et commun à tous les grands opérateurs.

Enfin, le III astreint ces mêmes opérateurs à mettre en œuvre « les moyens humains ou technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus ».

Ces dispositions sont la traduction des recommandations nos 8 et 9 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.

3. L’avis du Conseil d’État

Le Conseil d’État a jugé appropriée et conforme au droit constitutionnel et conventionnel la simplification des mécanismes de notification des contenus illicites. Toutefois, en cohérence avec la création d’un délit de refus de retrait de contenus manifestement haineux dans les 24 heures suivant leur notification, il a estimé nécessaire, « au regard des exigences du principe de légalité des délits et pour éviter une incompétence négative du législateur », que la loi précise « que le signalement, qui marque le début d’une éventuelle phase judiciaire, doit indiquer la description des faits litigieux et les motifs pour lesquels, aux yeux de son auteur, le contenu qu’il signale lui paraît relever » de contenus manifestement haineux (97).

Le Conseil d’État a également formulé plusieurs recommandations tendant à rendre effective l’obligation faite, par l’article 1er, aux opérateurs de plateforme en ligne de prévoir un dispositif de recours interne permettant de contester le retrait ou le refus de retrait d’un contenu (information systématique de l’auteur du contenu litigieux en cas de signalement, notification des motifs de sa décision dans les sept jours suivant l’expiration du délai de 24 heures, information sur les voies de recours internes et contentieuses) (98).

4. La position de la Commission

Sur proposition de votre rapporteure, la Commission a supprimé les dispositions procédant à un allégement du formalisme des notifications de contenus, en cohérence avec leur inscription à l’article 1er bis.

Les autres dispositions de cet article, relatives au suivi des notifications, à l’exigence d’accessibilité du dispositif permettant de les former et à la nécessité pour les opérateurs de plateforme de mettre en œuvre les moyens proportionnés et nécessaires à leur traitement, ont été conservées. Elles ont toutefois été inscrites, à l’initiative de votre rapporteure, au sein d’un nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, dédié au devoir de coopération de ces opérateurs et destiné à rassembler l’ensemble des obligations de moyens s’imposant à eux, conformément à une recommandation du Conseil d’État (II).

La Commission a apporté à ces dispositions des modifications de fond.

À la demande de votre rapporteure :

–  elle a inscrit en tête de ce devoir de coopération l’obligation pour les opérateurs de se conformer aux recommandations que prendra le Conseil supérieur de l’audiovisuel pour la bonne application de l’obligation de retrait en 24 heures des contenus manifestement haineux et des obligations de moyens () ;

–  elle a clarifié les suites à donner à la notification d’un contenu litigieux, en prévoyant que les opérateurs devront en informer non seulement le notifiant mais aussi l’auteur du contenu, que cette information devra également comporter des explications sur les motifs de la décision prise et que l’ensemble de ces éléments (sens de la décision et motifs de celle-ci) devra être transmis au notifiant et à l’auteur du contenu dans un délai de 24 heures en cas de retrait ou de déréférencement ou, à défaut, dans un délai de sept jours () ;

–  elle a précisé que les moyens humains ou technologiques nécessaires et proportionnés pour le traitement, dans les meilleurs délais, des notifications reçues devaient contribuer au respect de l’obligation de retrait en 24 heures des contenus manifestement haineux ().

À l’initiative de Mme de La Raudière (UDI et Indépendants), la Commission, suivant l’avis favorable de votre rapporteure, a prévu que l’information de l’auteur du contenu litigieux sur les suites données à sa notification devait s’accompagner d’un rappel « des sanctions civiles et pénales encourues pour la publication de contenus manifestement illicites » (2°).

Par ailleurs, la Commission a adopté un amendement de Mme Caroline Abadie et des membres du groupe La République en marche, avec l’avis favorable de votre rapporteure, obligeant les opérateurs de plateforme à rendre le dispositif de notification « directement », et non « facilement », accessible, afin qu’il soit possible de signaler un contenu manifestement haineux depuis ce contenu ().

Enfin, la Commission a complété cet article par les dispositions, supprimées du III de l’article 1er de la proposition de loi, relatives au mécanisme de recours interne contre une décision prise à la suite de la notification d’un contenu litigieux ((99).

Ces obligations, ainsi intégrées dans le devoir de coopération des grandes plateformes en ligne, seront soumises au contrôle du Conseil supérieur de l’audiovisuel.

*

* *

Article 3
(art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)

Obligations de moyens en matière d’information, de transparence
et de coopération avec les autorités publiques compétentes

Adopté par la Commission avec modifications

Ø Résumé du dispositif initial et effets principaux

Le présent article astreint les opérateurs de plateforme en ligne à fort trafic à informer de manière claire et détaillée les victimes de contenus manifestement haineux des voies de recours qui s’offrent à elles et des acteurs susceptibles de les accompagner, afin d’améliorer l’efficacité de la lutte contre ces contenus.

Ø Dernières modifications législatives intervenues

Les obligations d’information à la charge des fournisseurs d’accès à internet et des hébergeurs, seulement applicables au contrôle parental et au piratage en ligne en 2004, ont été étendues par la loi du 5 mars 2007 relative à la prévention de la délinquance et celle du 23 octobre 2018 relative à la lutte contre la fraude aux activités en ligne de jeux et paris illicites ainsi qu’à celles de vente de tabac.

Ø Modifications apportées par la Commission

Après avoir inscrit ces dispositions au sein du devoir de coopération des opérateurs pour les soumettre au contrôle du Conseil supérieur de l’audiovisuel, la Commission a précisé et complété la portée de l’obligation d’information publique, claire et détaillée.

Elle a par ailleurs ajouté à cette obligation :

–  les autres obligations de moyens que la proposition de loi prévoyait de créer et concourant au devoir d’information, de transparence et de coopération des grandes plateformes en ligne (obligation de transparence sur les moyens mis en œuvre pour lutter contre la haine en ligne et obligation de désigner un représentant légal en France) ;

–  l’obligation de sensibiliser les mineurs et leurs parents à la problématique de la haine en ligne lors de leur inscription à leurs services ;

–  l’obligation d’informer promptement les autorités publiques des contenus haineux notifiés.

1. L’état du droit

Plusieurs obligations d’information s’imposent aujourd’hui aux acteurs numériques. De contenu et de portée variables, elles ne se rattachent pas toutes à la lutte contre les contenus illicites sur internet.

a. Les obligations d’information des fournisseurs d’accès à internet et des hébergeurs en matière de lutte contre les contenus illicites

En plus de l’obligation de surveillance ciblée de certains contenus odieux (100), l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique met à la charge des prestataires techniques certaines obligations d’information en matière de lutte contre les contenus illicites dont la portée est cependant limitée dans leur objet.

Depuis 2004, les fournisseurs d’accès à internet (FAI) sont tenus d’informer leurs abonnés sur les logiciels de contrôle parental ainsi que sur le piratage en ligne, et de leur proposer une offre dans ces domaines (101).

À partir de 2007 (102), FAI et hébergeurs ont également été contraints, dans le domaine des jeux et paris illicites (103), à prévenir leurs abonnés « des risques encourus par eux du fait d’actes de jeux réalisés en violation de la loi », en plus de mettre en place un dispositif facilement accessible et visible permettant de leur signaler les sites internet considérés par les autorités comme proposant des activités illicites de jeux et paris en ligne.

Enfin, le législateur a prévu, en 2018 (104), que FAI et hébergeurs devraient informer leurs abonnés de l’illégalité de la vente en ligne de tabac et des risques encourus pour une telle activité (105).

b. L’obligation générale d’information précontractuelle des opérateurs de plateforme en ligne

Des obligations supplémentaires d’information, sans rapport direct avec la lutte contre les contenus illicites, s’imposent aux opérateurs de plateforme en ligne visés à l’article L. 111-7 du code de la consommation, qui doivent, en tout état de cause, respecter les obligations de la loi pour la confiance dans l’économie numérique lorsqu’ils agissent en qualité d’éditeurs de contenus ou d’hébergeurs.

Ces opérateurs sont tenus, en vertu du principe de loyauté, à un devoir d’information générale des consommateurs, en particulier sur les conditions générales d’utilisation de leur service d’intermédiation, les modalités de référencement et de classement utilisées et l’existence d’une relation contractuelle, d’un lien capitalistique ou d’une rémunération à leur profit de nature à influencer le référencement des contenus, des biens ou des services proposés ou mis en ligne.

L’article L. 111-7-1 de ce code prévoit que ceux de ces opérateurs dont l’activité dépasse un seuil de nombre de connexions défini par décret – fixé à cinq millions de visiteurs uniques par mois – doivent élaborer et diffuser aux consommateurs des bonnes pratiques visant à renforcer les obligations de clarté, de transparence et de loyauté. Il confie à la direction générale de la concurrence, de la consommation et de la répression des fraudes le soin de procéder à des enquêtes afin d’évaluer et de comparer les pratiques de ces opérateurs, le cas échéant en rendant publique la liste des plateformes en ligne qui ne respecteraient pas leurs obligations.

2. Le dispositif proposé

Le présent article a pour objet de renforcer la portée du devoir d’information des acteurs numériques les plus exposés dans la régulation des contenus illicites et d’améliorer la prise en charge des victimes de tels contenus ainsi que la connaissance par celles-ci de leurs droits.

À cette fin, il prévoit que les opérateurs de plateforme en ligne à fort trafic visés à l’article 1er de la proposition de loi devront mettre à disposition « une information publique, claire et détaillée sur les dispositifs de recours, y compris judiciaires, dont disposent les victimes de contenus [haineux] et sur les acteurs en mesure d’assurer leur accompagnement ».

Cette disposition est la traduction de la recommandation n° 20 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.

3. L’avis du Conseil d’État

Le Conseil d’État s’est borné à suggérer que les informations mises à la disposition des victimes de contenus illicites par les opérateurs de plateforme en ligne en matière de recours soient étendues aux auteurs dont le contenu serait supprimé, afin d’assurer le respect de la liberté d’expression contre des risques de retraits excessifs par ces opérateurs.

4. La position de la Commission

La Commission a regroupé dans cet article l’ensemble des obligations de moyens autres que celles spécifiques au traitement des notifications de contenus manifestement haineux, même si ces obligations figureront également au nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique créé par l’article 2 de la proposition de loi.

a. L’obligation d’information publique, claire et détaillée

La Commission a complété le champ de l’obligation d’information publique, claire et détaillée mise à la charge de ces opérateurs (6°).

D’une part, à la demande de votre rapporteure, elle a précisé que l’information donnée aux victimes sur l’existence de mécanismes de recours, internes et judiciaires, devait également s’adresser aux auteurs des contenus litigieux et porter, comme l’ont proposé Mme Caroline Abadie et les membres du groupe La République en marche, avec le soutien de votre rapporteure, sur les délais impartis pour former ces recours.

D’autre part, la Commission, suivant l’avis favorable de votre rapporteure, a étendu le champ des informations devant être transmises par les opérateurs à leurs utilisateurs :

–  aux risques encourus en cas de notification abusive, sur proposition de Mme Caroline Abadie et des membres du groupe La République en marche ;

–  aux sanctions, notamment judiciaires, encourues en cas de publication de contenus haineux, à l’initiative de Mme Kuster (Les Républicains) ;

–  aux règles de modération, comme l’ont proposé Mme Gaillot et les membres du groupe La République en marche.

b. L’obligation de transparence

À l’initiative de votre rapporteure, la Commission a ajouté à cet article les dispositions du II de l’article 4 de la proposition de loi, relatives à l’obligation de transparence en matière de lutte contre les contenus haineux (106) ().

La rédaction proposée, proche de celle du II de l’article 4, a été précisée afin de prévoir que ces opérateurs devront rendre compte « de l’organisation interne qu’ils adoptent pour se conformer à l’obligation [de retrait en 24 heures des contenus manifestement haineux] et des moyens qu’ils y consacrent ainsi que des actions et moyens qu’ils mettent en œuvre dans la lutte contre les contenus [haineux] ».

c. L’obligation de sensibilisation et d’information des mineurs et de leurs parents

La Commission, suivant l’avis favorable de votre rapporteure sous réserve de l’adoption de deux sous-amendements, a adopté un amendement de la commission des Affaires culturelles et de l’éducation visant à soumettre les grandes plateformes en ligne à une obligation de sensibilisation et d’information des jeunes publics sur l’usage de leurs services et sur les risques encourus en cas de diffusion de contenus haineux (8°).

Ces opérateurs seront tenus, « lors de la première utilisation de leurs services par un mineur âgé de moins de 15 ans, de sensibiliser le mineur ainsi que le ou les titulaires de l’autorité parentale à l’utilisation civique et responsable dudit service et de les informer des risques juridiques encourus en cas de diffusion, par le mineur, de contenus haineux ».

d. L’obligation d’informer promptement les autorités publiques des activités haineuses notifiées

Sur proposition de votre rapporteure, la Commission a complété la liste des obligations de moyens mises à la charge de ces plateformes pour les contraindre à rendre compte promptement aux autorités publiques de toutes les activités haineuses qui leur sont notifiées (9°).

Cette obligation est la reprise de l’obligation d’information prompte des autorités publiques par les hébergeurs et les fournisseurs d’accès à internet dans le cadre du régime général de coopération dans la lutte contre certaines activités illicites prévue par le 7 du I de l’article 6 de la loi pour la confiance dans l’économie numérique, qui oblige ces acteurs à :

–  mettre en place un dispositif facilement accessible et visible permettant à quiconque de leur signaler de telles activités ;

–  informer promptement les autorités de ces activités ;

–  rendre publics les moyens qu’ils consacrent à la lutte contre ces activités.

Dans la mesure où ces trois obligations seront couvertes par le régime renforcé proposé par ce texte, ces opérateurs s’en verront extraits.

e. L’obligation de désigner un représentant légal en France

Toujours à l’initiative de votre rapporteure, la Commission a complété cet article par une dernière obligation, celle de désigner un représentant légal, interlocuteur référent, sur le territoire français, disposition qui figurait initialement au II de l’article 5 (10°).

Conformément à une recommandation du Conseil d’État, votre rapporteure a précisé le rôle de ce représentant légal, qui sera chargé de mettre en œuvre et d’exécuter les obligations prévues par ce texte et de répondre aux demandes de l’autorité judiciaire.

Le respect de ces obligations, désormais toutes inscrites au sein du nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, sera contrôlé par le Conseil supérieur de l’audiovisuel dans les conditions prévues à l’article 4 de la proposition de loi.

*

* *

Article 3 bis
(art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)

Triplement du montant de la peine d’amende encourue
en cas de non-coopération avec l’autorité judiciaire

Introduit par la Commission

Ø Résumé du dispositif et effets principaux

Le présent article, qui résulte de l’adoption par la Commission d’un amendement de votre rapporteure, est la reprise du I de l’article 5 de la proposition de loi visant à tripler le montant de la peine d’amende encourue en cas de méconnaissance, par un acteur numérique, de ses obligations de coopération avec l’autorité judiciaire en matière de lutte contre les contenus illicites (107).

*

* *

Chapitre III (nouveau)
Rôle du Conseil supérieur de l’audiovisuel dans la lutte
contre les contenus haineux en ligne

Article 4
(art. 17-3 [nouveau] et 42-7 de la loi n° 86-1067 du 30 septembre 1986 relative à
la liberté de communication et 6 de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)

Rôle du Conseil supérieur de l’audiovisuel
dans la lutte contre la haine sur internet

Adopté par la Commission avec modifications

Ø Résumé du dispositif initial et effets principaux

Le présent article a pour objet principal de confier au Conseil supérieur de l’audiovisuel (CSA) le soin de contribuer à la lutte contre les contenus haineux sur internet, notamment en adressant des recommandations aux opérateurs de plateforme en ligne à fort trafic et en assurant le suivi des obligations de retrait auxquelles l’article 1er soumet ces opérateurs.

Ø Dernières modifications législatives intervenues

La dernière extension des missions dévolues au CSA en matière de protection contre certains contenus illicites date de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, qui lui a confié une compétence en matière de lutte contre les fausses nouvelles.

Ø Modifications apportées par la Commission

La Commission a procédé à trois séries de modifications :

–  elle a expressément chargé le CSA de veiller au respect du devoir de coopération de ces opérateurs, en lui permettant de leur adresser des recommandations, des bonnes pratiques et des lignes directrices en vue de la bonne application de l’obligation de retrait et des obligations de moyens ;

–  elle a autorisé le CSA, en cas de non-respect par un opérateur des obligations de moyens, à engager une procédure de sanction en se fondant, d’une part, sur la façon dont l’opérateur exécute le devoir de coopération et, d’autre part, sur la manière dont il se conforme aux recommandations qu’il émet pour le respect de l’obligation de retrait et des obligations de moyens, en appréciant « le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait » ;

–  elle a précisé la procédure de sanction, qui figurait initialement au II de l’article 1er, en la conditionnant à une mise en demeure préalable, en prévoyant que son montant devra prendre en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré, sans pouvoir excéder 4 % du chiffre d’affaires annuel mondial de l’opérateur, et en autorisant la publication, sur tout support ou site, des mises en demeure et sanctions.

1. L’état du droit

Le Conseil supérieur de l’audiovisuel (CSA), autorité administrative indépendante, veille à la qualité et à la diversité du secteur audiovisuel qu’il régule. Il est ainsi chargé de « garanti[r] l’exercice de la liberté de communication audiovisuelle par tout procédé de communication électronique », à travers la défense de plusieurs principes, notamment l’égalité de traitement, l’indépendance et l’impartialité du secteur public de la communication audiovisuelle, la qualité et la diversité des programmes, l’honnêteté, l’indépendance et le pluralisme de l’information ainsi que la promotion de la cohésion sociale, de la lutte contre les discriminations et du respect des droits des femmes dans le domaine de la communication audiovisuelle (108).

Dans ce cadre, plusieurs missions lui sont assignées en matière de défense de droits fondamentaux ou de protection contre la diffusion de certains contenus :

–  assurer le respect de l’expression pluraliste des courants de pensée et d’opinion dans les programmes de radio et de télévision (109) ;

–  contrôler les émissions publicitaires afin de veiller « au respect de la dignité de toutes les personnes et à l’image des femmes » (110) ;

–  garantir que les programmes de communication audiovisuelle sont conformes à la protection de l’enfance et de l’adolescence et au respect de la dignité de la personne, ne nuisent pas à l’épanouissement physique, mental ou moral des mineurs et « ne contiennent aucune incitation à la haine ou à la violence pour des raisons de race, de sexe, de mœurs, de religion ou de nationalité » (111).

La dernière extension des prérogatives du CSA dans ce domaine date de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, par laquelle cette autorité s’est vu confier, à l’article 17-2 de la loi du 30 septembre 1986 relative à la liberté de communication, la mission de contribuer à la lutte contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou de porter atteinte à la sincérité des scrutins, à travers trois instruments :

–  « en cas nécessité », en adressant aux opérateurs de plateforme en ligne des recommandations ;

–  en assurant un suivi des obligations faites à ces opérateurs dans ce domaine (112) ;

–  par la publication d’un bilan périodique de leur application.

2. Le dispositif proposé

S’inspirant du rôle nouveau qui lui a été récemment dévolu en matière de lutte contre les fausses informations, le présent article rend le CSA compétent pour contribuer à la lutte contre la diffusion de contenus sur internet à caractère haineux.

À cette fin, le I insère, dans la loi du 30 septembre 1986 relative à la liberté de communication, un nouvel article 17-3 lui confiant cette compétence à l’égard de « contenus sur internet comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ».

Cette contribution prendrait la même forme que celle prévue pour la lutte contre les fausses informations :

–  l’établissement de recommandations aux opérateurs de plateforme en ligne à fort trafic « en cas de nécessité », après un cycle d’auditions des acteurs concernés et mise en débat public ;

–  le suivi des obligations reposant sur ces opérateurs telles qu’elles sont prévues par la présente proposition de loi ;

–  la publication d’un bilan périodique de leur application et de leur effectivité, en recueillant auprès de ces opérateurs toutes informations utiles.

Cette nouvelle compétence du CSA s’inspire de la recommandation n° 6 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.

Par ailleurs, le II oblige ces mêmes opérateurs à rendre publics les actions et moyens mis en œuvre dans la lutte contre ces contenus, par la diffusion d’un certain nombre d’informations dont la liste sera fixée par le CSA.

Cette disposition est la traduction de la recommandation n° 3 du rapport précédemment mentionné auquel a contribué votre rapporteure. Les auteurs du rapport estimaient que cette obligation de transparence permettrait notamment de connaître « la description des mécanismes de notification des contenus et les critères appliqués pour décider s’il faut informer les autorités publiques compétentes d’un contenu ou d’une activité illicite », les éléments relatifs aux notifications effectuées (origine, motif, durée de traitement par plateforme, nombre de notifications ayant fait l’objet d’un signalement aux autorités publiques compétentes…) ainsi que « des informations portant sur l’organisation des unités traitant des signalements » (nombre de personnes affectées, formation de ces personnes, mise à disposition de supports techniques ou d’experts linguistiques…) (113). Plusieurs grandes plateformes d’échanges de contenus en ligne rendent d’ailleurs déjà publics, entre deux et quatre fois par an, des rapports de transparence sur les retraits de contenus auxquels elles procèdent, à l’instar de Facebook, Youtube ou Twitter.

Comme l’a indiqué M. Roch-Olivier Maistre, président du CSA, les nouvelles missions qu’il est envisagé de lui confier s’inscrivent dans le prolongement des problématiques de responsabilité sociétale des médias dont cette autorité est, depuis de nombreuses années, familière.

Les recommandations que le CSA serait amené à publier constitueraient des guides précieux pour les plateformes dans leur appréciation des obligations auxquelles elles doivent se conformer, à l’instar des lignes directrices, recommandations ou référentiels publiés par la Commission nationale de l’informatique et des libertés (CNIL) afin de faciliter la mise en conformité des traitements de données personnelles avec les textes relatifs à la protection de ces données.

3. L’avis du Conseil d’État

En cohérence avec ses observations sur l’article 1er (114), le Conseil d’État a considéré que « la mise en place d’une régulation (…) visant à prévenir la diffusion des contenus manifestement [haineux] et à en traiter rapidement l’occurrence, complète utilement l’action publique » et que « le choix, comme dans la loi sur la manipulation d’informations électorales, de confier cette régulation au Conseil supérieur de l’audiovisuel, du reste cohérent au regard de la directive SMA, ne paraît pas critiquable » (115).

Il a toutefois suggéré plusieurs évolutions :

–  une clarification des obligations administratives pesant sur les opérateurs de plateforme en ligne susceptibles de faire l’objet d’une sanction par le CSA ;

–  l’instauration d’une obligation de communiquer au CSA l’organisation adoptée et les moyens qui sont consacrés par ces opérateurs au retrait en 24 heures de contenus manifestement illicites ;

–  l’élargissement des compétences du CSA à la possibilité de fixer des orientations, de diffuser des bonnes pratiques et d’adopter des lignes directrices ;

–  la publicité de l’appréciation critique du CSA sur la manière dont les opérateurs se conforment à leurs obligations, « tant l’effet de cette appréciation sur l’image commerciale des opérateurs constitue un levier puissant d’influence et d’incitation » (116) ;

–  le transfert au CSA de la compétence aujourd’hui confiée à une personnalité qualifiée de la CNIL pour le contrôle des dispositions de l’article 6-1 de la loi pour la confiance dans l’économie numérique relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques.

4. La position de la Commission

La Commission a réaménagé les pouvoirs dévolus au CSA dans la lutte contre la haine en ligne, afin de tenir compte de la nouvelle architecture des obligations imposées aux opérateurs de plateforme en ligne par les précédents articles. Ces modifications, portées à l’article 17-3 de la loi du 30 septembre 1986 relative à la liberté de communication, tirent les conséquences des recommandations formulées par le Conseil d’État sur la place du régulateur (I et I bis).

a. Des missions clarifiées (I de l’article 17-3)

Sur proposition de la commission des Affaires culturelles et de l’éducation et avec l’avis favorable de votre rapporteure, la Commission a chargé le CSA de veiller au respect des obligations de moyens constitutives du devoir de coopération prévu par le nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

À l’initiative de votre rapporteure, la Commission a autorisé le CSA à établir, en plus des recommandations, des bonnes pratiques et des lignes directrices pour le respect de l’obligation de retrait et des obligations de moyens. Cette disposition fait écho à l’obligation pour les opérateurs de se conformer aux recommandations du CSA en vertu du 1° du nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique (117).

La Commission a également adopté un amendement de la commission des Affaires culturelles et de l’éducation, avec l’avis favorable de votre rapporteure, rendant annuel le bilan du CSA de l’application et de l’effectivité de ces obligations.

b. Une procédure en manquement précisée (II de l’article 17-3)

Les principales modifications apportées à cet article par la Commission résultent de l’adoption d’un amendement de votre rapporteure reprenant les dispositions du II de l’article 1er, relatif à la procédure en manquement.

Pour apprécier le manquement, le CSA devra se fonder sur le respect des obligations de moyens et les conditions dans lesquelles l’opérateur se conformera à ses recommandations pour la bonne application de l’obligation de retrait et des obligations de moyens.

À cette occasion, le CSA devra apprécier « le caractère suffisant ou excessif du comportement de l’opérateur en matière de retrait sur les contenus portés à sa connaissance ou qu’il constate de sa propre initiative ».

Le prononcé d’une sanction devra avoir été précédé d’une mise en demeure, préalable nécessaire au regard du niveau élevé des sanctions encourues.

Le montant de cette sanction, qui ne pourra excéder 4 % du chiffre d’affaires annuel mondial de l’opérateur comme le prévoyait le texte initial, devra prendre en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré.

Le CSA aura la possibilité de rendre publiques ces mises en demeure et sanctions.

Votre rapporteure se félicite que ces dispositions, ainsi nouvellement rédigées, permettent au CSA de veiller à ce que les opérateurs n’adoptent pas des « comportements répétés de refus de retrait ou de retraits timorés, pusillanimes, ou au contraire excessifs », comme l’a appelé de ses vœux le Conseil d’État dans son avis.

c. Des modifications de cohérence

Par ailleurs, la Commission a procédé, toujours à l’initiative de votre rapporteure, à deux modifications de cohérence.

D’une part, elle a soustrait les opérateurs de plateforme en ligne visés par la proposition de loi au devoir de coopération prévu au 7 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, ceux-ci ayant vocation à être soumis aux obligations de coopération renforcée spécifiquement prévues par la proposition de loi ainsi qu’à la régulation du CSA (1° du I ter(118).

D’autre part, elle a transféré au CSA la mission de contrôler la mise en œuvre des dispositions de l’article 6-1 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques, qui relève aujourd’hui de la compétence d’une personnalité qualifiée désignée au sein de la Commission nationale de l’informatique et des libertés. Cette évolution tire les conséquences des nouvelles missions dévolues au CSA mais ne sera effective qu’au 1er janvier 2021 (119), le temps de modifier, si cela s’avère nécessaire, la composition du collège du CSA (2° du I ter).

Enfin, la Commission a supprimé le II de cet article, relatif au devoir de transparence des opérateurs de plateforme en ligne à fort trafic, qui a été déplacé à l’article 3 de la proposition de loi.

*

* *

Article 5
(art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)

Renforcement de l’obligation de coopération des opérateurs numériques
avec l’autorité judiciaire en matière de lutte contre les contenus illicites

Supprimé par la Commission

Ø Résumé du dispositif initial et effets principaux

Afin d’améliorer l’efficacité de la coopération des acteurs numériques dans la lutte contre la haine sur internet, le présent article triple le montant des amendes encourues par les fournisseurs d’accès à internet, les hébergeurs et les éditeurs de contenus ne respectant pas leurs obligations et impose aux opérateurs de plateforme en ligne à fort trafic de désigner un représentant légal en France.

Ø Dernières modifications législatives intervenues

Les sanctions encourues par ces personnes en cas de non-respect de leurs obligations n’ont pas été modifiées depuis leur instauration par la loi du 21 juin 2004 pour la confiance dans l’économie numérique mais leur champ d’application a évolué au fil des réformes ayant étendu ces obligations.

Ø Modifications apportées par la Commission

La Commission a supprimé cet article, dont les dispositions figurent désormais à l’article 3 s’agissant de l’obligation de désigner un représentant légal en France et à l’article 3 bis pour ce qui concerne le triplement du montant des amendes encourues pour non-coopération avec l’autorité judiciaire.

1. L’état du droit

Les acteurs numériques qui ne satisferaient pas à leurs obligations en matière de régulation des contenus circulant sur internet peuvent être pénalement sanctionnés, en vertu du VI de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

Est ainsi puni d’un an d’emprisonnement et de 75 000 euros d’amende dans le cas d’une personne physique ou d’une peine d’amende de 375 000 euros et des peines mentionnées à l’article 131-39 du code pénal (120) dans le cas d’une personne morale :

–  le fait pour un fournisseur d’accès à internet (FAI) ou un hébergeur de ne pas concourir à la lutte contre la diffusion d’un contenu répréhensible, en ne mettant pas en place un dispositif facilement accessible et visible de signalement, en n’informant pas promptement les autorités publiques compétentes ou en ne rendant pas publics les moyens consacrés à cette lutte (121) ;

–  le fait pour un éditeur de service ou un hébergeur de ne pas procéder au retrait d’un contenu provoquant à des actes terroristes ou faisant l’apologie de tels actes, pour un FAI de ne pas empêcher l’accès au site internet porteur d’un tel contenu ou pour un moteur de recherche de ne pas le déréférencer alors que l’autorité administrative le leur demandait (122) ;

–  le fait pour un FAI ou un hébergeur de ne pas conserver les données d’identification des personnes à l’origine d’un contenu qu’ils transportent ou stockent ou de ne pas déférer à une demande de l’autorité judiciaire tendant à obtenir ces données (123) ;

–  le fait pour un éditeur de services de ne pas mettre à disposition du public les éléments d’information le concernant ou de ne pas désigner un directeur de publication (124).

2. Le dispositif proposé

Le présent article entend donner plus de poids à ces dispositions dont la faiblesse résulte, pour partie, de l’insuffisance des sanctions pécuniaires encourues en cas de méconnaissance, par l’un des acteurs concernés, de ses obligations.

À cet effet, le I triple le montant des amendes encourues :

–  en augmentant de 75 000 euros à 250 000 euros le montant de la peine d’amende encourue par une personne physique ;

–  ce qui aura pour effet de porter à 1 250 000 euros le montant de celle encourue par une personne morale, en vertu de l’article 131-38 du code pénal (125).

En outre, afin de tenir compte de l’installation à l’étranger de nombreux opérateurs, ce qui freine l’efficacité de la coopération avec les autorités judiciaires dans ce domaine, le II contraint les opérateurs de plateforme en ligne à fort trafic visés à l’article 1er à désigner un représentant légal en France.

Cette disposition est la reprise de la recommandation n° 2 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.

3. L’avis du Conseil d’État

Le Conseil d’État a jugé appropriée et conforme aux exigences constitutionnelles et conventionnelles le quadruplement des sanctions financières pénales applicables en cas de non-respect par les prestataires de leurs obligations.

Après s’être interrogé sur la nécessité d’imposer aux opérateurs de plateforme en ligne de désigner un représentant sur le territoire français et la compatibilité de cette disposition avec le droit européen, le Conseil d’État a recommandé à votre rapporteure de préciser les fonctions, pouvoirs et statuts de ce représentant afin de lever les difficultés qu’une telle disposition pourrait soulever.

4. La position de la Commission

Par cohérence avec le déplacement de ces dispositions aux articles 3 et 3 bis de la proposition de loi, la Commission a adopté un amendement de votre rapporteure supprimant cet article.

*

* *

Chapitre IV (nouveau)
Amélioration de la lutte contre la diffusion de contenus haineux en ligne

Article 6
(art. 6 et 6-4 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)

Simplification de la procédure de blocage
et de déréférencement des sites haineux

Adopté par la Commission avec modifications

Ø Résumé du dispositif initial et effets principaux

Le présent article procède à deux modifications du droit existant aux fins d’empêcher plus rapidement l’accès à des contenus haineux en ligne :

–  d’une part, il fait de la sollicitation par l’autorité judiciaire des fournisseurs d’accès à internet (FAI) une alternative à celle des hébergeurs et non pas une possibilité subsidiaire ;

–  d’autre part, il autorise l’autorité administrative à ordonner à tout FAI ou moteur de recherche le blocage ou le déréférencement de sites comportant des contenus jugés illicites par l’autorité judiciaire (« sites miroirs »).

Ø Dernières modifications législatives intervenues

Les dernières modifications apportées au régime du blocage de sites internet comportant des contenus illicites remontent à la loi du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme et à celle du 17 mars 2014 relative à la consommation qui ont instauré respectivement un blocage administratif des sites terroristes ou pédopornographiques et un blocage mixte de sites contrevenant à des dispositions du code de la consommation.

Ø Modifications apportées par la Commission

La Commission a cantonné la procédure de blocage ou de déréférencement de « sites miroirs » aux contenus haineux et a renforcé le contrôle par l’autorité judiciaire de cette procédure, en la conditionnant à son autorisation préalable, délivrée au moment de juger illicite le contenu du site originel, et en permettant sa saisine en cas de difficultés lors de la mise en œuvre de la demande de blocage ou de déréférencement par l’autorité administrative.

1. L’état du droit

Plusieurs possibilités de blocage de contenus illicites sur internet existent, selon l’autorité qui en est à l’initiative et celle qui l’ordonne.

a. Le blocage judiciaire

Le blocage judiciaire, ordonné par le juge civil, est possible à l’égard de tout contenu susceptible de causer un dommage à un tiers (référé « internet »).

Le 8 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique dispose ainsi que « l’autorité judiciaire peut prescrire en référé ou sur requête » à tout hébergeur ou, à défaut, tout fournisseur d’accès à internet (FAI) « toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne » (126).

Si la rédaction de ce texte laisse entendre un principe de subsidiarité, la Cour de cassation a jugé que « la prescription de ces mesures n’est pas subordonnée à la mise en cause préalable des prestataires d’hébergement » (127),. La jurisprudence n’est cependant pas uniforme sur cette question, certaines décisions de justice appliquant un principe de subsidiarité (128).

En tout état de cause, le blocage doit demeurer limité dans son étendue et dans le temps, conformément à la jurisprudence de la Cour de justice de l’Union européenne en la matière (129).

Ce référé général coexiste avec d’autres référés spécifiques, comme le référé spécial permettant l’arrêt d’un site internet en cas de trouble manifestement illicite résultant de messages ou d’informations mis à la disposition du public (130), le référé spécial autorisant le blocage d’un site internet provoquant au terrorisme ou en faisant l’apologie (131) et le référé de droit commun de l’article 809 du code de procédure civile (132).

b. Le blocage administratif

Depuis 2014 (133), l’autorité administrative est autorisée à ordonner, seule, le blocage de certains sites véhiculant des contenus dont l’illicéité est particulièrement grave.

En effet, l’article 6-1 de la même loi autorise l’autorité administrative – en l’espèce l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication – à ordonner le blocage de contenus de nature terroriste ou pédopornographique, sous certaines conditions :

–  l’autorité administrative doit d’abord demander aux éditeurs de service internet ou aux hébergeurs le retrait de ces contenus, en en informant simultanément les FAI ;

–  en l’absence de retrait de ces contenus dans un délai de 24 heures, elle peut notifier la liste des adresses des contenus incriminés aux FAI qui « doivent alors empêcher sans délai l’accès à ces adresses », la notification pouvant intervenir sans demande préalable de retrait si l’éditeur de service n’a pas fourni les informations permettant de l’identifier et de le contacter ;

–  ces mesures de blocage sont placées sous le contrôle d’une personnalité qualifiée, désignée en son sein par la Commission nationale de l’informatique et des libertés (CNIL) : cette personnalité « s’assure de la régularité des demandes de retrait et des conditions d’établissement, de mise à jour, de communication et d’utilisation de la liste » et peut, à tout moment, recommander à l’autorité administrative d’y mettre fin et saisir la juridiction administrative si l’autorité administrative ne suit pas cette recommandation.

L’autorité administrative peut également, en vertu de la même disposition, notifier les adresses électroniques des contenus terroristes ou pédopornographiques aux moteurs de recherche ou aux annuaires afin qu’ils fassent cesser leur référencement, sous le contrôle de la personnalité qualifiée de la CNIL.

Pour la période s’étalant entre mars 2018 et février 2019, la personnalité qualifiée a recensé 18 014 demandes de retraits de contenus (10 091 de sites de nature terroriste et 7 923 de sites à caractère pédopornographique) pour 13 421 contenus retirés (6 796 sites de nature terroriste et 6 625 sites à caractère pédopornographique), 879 demandes de blocage (82 sites de nature terroriste et 797 sites à caractère pédopornographique) et 6 581 demandes de déréférencement (2 294 sites de nature terroriste et 3 587 sites à caractère pédopornographique) (134).

c. Le blocage mixte

Enfin, d’autres blocages, mixtes, peuvent être ordonnés sur décision de l’autorité judiciaire sollicitée par l’autorité administrative :

–  le référé « jeux en ligne », instauré en 2010, qui permet au président de l’Autorité de régulation des jeux en ligne, après avoir enjoint, en vain, les hébergeurs de prendre toute mesure propre à empêcher l’accès à un site de jeux ou de paris en ligne illégal, de demander au président du TGI de Paris d’ordonner, en la forme des référés, l’arrêt de l’accès à ce site aux FAI ainsi que « toute mesure destinée à faire cesser le référencement du site » de l’opérateur par un moteur de recherche ou un annuaire (135) ;

–  le référé « services d’investissement en ligne », ouvert depuis 2016 (136) au bénéfice du président de l’Autorité des marchés financiers à l’égard des sites d’investissement en ligne illégaux et identique au référé « jeux en ligne », à l’exception de la possibilité de demander le déréférencement de ces sites (137) ;

–  le référé « consommation », permettant à la direction générale de la concurrence, de la consommation et de la répression des fraudes, depuis 2014 (138), de saisir le président du TGI de Paris, en référé ou sur requête, afin qu’il ordonne aux hébergeurs ou aux FAI « toutes mesures proportionnées propres à prévenir un dommage ou à faire cesser un dommage causé par le contenu d’un service de communication au public en ligne » (139).

2. Le dispositif proposé

Le présent article vise à compléter les possibilités offertes par la loi pour la confiance dans l’économie numérique de restreindre l’accès à des contenus haineux, à travers deux modifications du 8 du I de son article 6.

a. La clarification des règles applicables au référé « internet »

Le 1° supprime le principe de subsidiarité qui semble résulter de la rédaction de la disposition relative au référé « internet », qui prévoit que l’autorité judiciaire peut prescrire à tout hébergeur « ou, à défaut », à tout FAI les mesures propres à prévenir ou faire cesser un dommage résultant d’un contenu litigieux.

La nouvelle rédaction proposée, en autorisant le juge à prescrire toute mesure utile indifféremment à l’hébergeur ou au FAI, permettra de clarifier le droit applicable, d’unifier la jurisprudence et d’accélérer la mise en œuvre d’une décision de blocage judiciaire.

b. Le blocage et le déréférencement administratifs de reproductions de contenus précédemment jugés haineux

Le présent article entend également remédier aux insuffisances du droit actuel en matière de réapparition de contenus haineux jugés comme tels par une décision définitive de l’autorité judiciaire. En effet, en l’état du droit, une nouvelle procédure judiciaire doit être enclenchée pour obtenir le blocage d’un nouveau site reprenant, à l’identique, ces contenus.

Cette situation conduit, à titre d’exemple, à la réapparition régulière de sites comme celui de Démocratie participative, interdit en novembre 2018 mais qui fait l’objet, depuis lors, de duplications de sites analogues sous différents noms de domaine.

C’est la raison pour laquelle le 2° étend la faculté de procéder au blocage ou au déréférencement de contenus jugés illicites, pour viser en particulier les « sites miroirs » dupliquant des contenus précédemment jugés comme tels.

Pour ce faire, il habilite l’autorité administrative à enjoindre aux FAI ainsi qu’à tout fournisseur de noms de domaine de bloquer l’accès à tout site, serveur ou à tout autre procédé électronique « permettant d’accéder aux contenus pour lesquels une décision passée en force de chose jugée a été rendue ou donnant accès aux contenus jugés illicites par une décision passée en force de chose jugée ».

L’autorité administrative pourrait également exiger des moteurs de recherche ou annuaires qu’ils déréférencent les adresses électroniques renvoyant ou donnant accès à de tels contenus.

Cette disposition reprend la recommandation n° 10 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.

Dans l’intention des auteurs de la proposition de loi, cette disposition n’a vocation à s’appliquer qu’aux contenus manifestement haineux visés à l’article 1er.

3. L’avis du Conseil d’État

Afin de lever les obstacles constitutionnels – destinés à protéger la liberté d’expression – et conventionnels – le droit de l’Union européenne interdisant d’imposer une obligation générale de surveillance – s’opposant à l’interdiction de « contenus miroirs » sans intervention d’un juge, le Conseil d’État, « plutôt que de prévoir une injonction administrative, propose que le juge saisi de conclusions visant au retrait de contenu ou à l’interdiction d’accès à un site puisse également être saisi d’une demande d’interdiction de toute reprise partielle ou totale de ce qu’il aura interdit » (140).

4. La position de la Commission

Sur proposition de votre rapporteure et dans le prolongement des observations formulées par le Conseil d’État dans son avis, la Commission a réécrit les dispositions visant à lutter contre la duplication de sites jugés illicites, afin de renforcer la place de l’autorité judiciaire dans ce dispositif.

Sur la forme, ces dispositions ont été déplacées au sein d’un nouvel article 6-4 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, pour assurer la cohérence d’ensemble des règles applicables à la lutte contre les contenus illicites en ligne.

Sur le fond, trois modifications ont été apportées au dispositif initial :

–  son champ d’application a été cantonné aux seuls contenus haineux visés par la proposition de loi ;

–  le juge judiciaire qui se prononcera sur le retrait d’un contenu haineux devra « habiliter » l’autorité administrative, en l’espèce l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication, à demander aux fournisseurs d’accès à internet, aux fournisseurs de noms de domaine et aux moteurs de recherche de prendre les mesures nécessaires pour empêcher l’accès à tout contenu identique à celui jugé illicite ;

–  en cas de difficulté, en particulier sur la nature identique en tout ou partie des contenus à bloquer ou à déréférencer par rapport à des précédents jugés illicites, l’autorité judiciaire, saisie en référé ou sur requête, pourra ordonner le blocage ou le déréférencement des contenus litigieux.

*

* *

Article 6 bis
(art. L. 312-9 du code de l’éducation)

Sensibilisation des élèves à la lutte contre la diffusion de la haine en ligne

Introduit par la Commission

Ø Résumé du dispositif et effets principaux

L’article 6 bis, issu de l’adoption d’un amendement de la commission des Affaires culturelles et de l’éducation avec l’avis favorable de votre rapporteure, précise que la lutte contre la diffusion de messages haineux en ligne devra faire partie du programme scolaire.

Le présent article complète l’article L. 312-9 du code de l’éducation, relatif à la formation à l’utilisation responsable des outils et des ressources numériques, afin que la lutte contre la diffusion de messages haineux en ligne en fasse désormais partie.

Cette formation doit déjà comporter « une éducation aux droits et aux devoirs liés à l’usage de l’internet et des réseaux, dont la protection de la vie privée et le respect de la propriété intellectuelle, de la liberté d’opinion et de la dignité de la personne humaine », contribuer « au développement de l’esprit critique et à l’apprentissage de la citoyenneté numérique » et sensibiliser « sur l’interdiction du harcèlement commis dans l’espace numérique, la manière de s’en protéger et les sanctions encourues en la matière ».

*

* *

Article 6 ter
(art. L. 721-2 du code de l’éducation)

Formation des enseignants en matière de lutte contre la haine en ligne

Introduit par la Commission

Ø Résumé du dispositif et effets principaux

L’article 6 ter, qui résulte de l’adoption d’un amendement de la commission des Affaires culturelles et de l’éducation avec l’avis favorable de votre rapporteure, vise à renforcer la formation des enseignants en matière de lutte contre les contenus haineux en ligne.

Le présent article modifie les dispositions de l’article L. 721-2 du code de l’éducation relatives aux missions des écoles supérieures du professorat et de l’éducation.

Parmi ces missions figurent notamment l’organisation de formations de sensibilisation à l’égalité entre les femmes et les hommes, à la lutte contre les discriminations ou à la manipulation de l’information.

Le présent article ajoute à celles-ci les formations de sensibilisation à la lutte contre la haine en ligne.

*

* *

Chapitre V (nouveau)
Dispositions finales

Article 7
Rapport sur l’exécution de la loi et les moyens consacrés
à la lutte contre les contenus illicites

Adopté par la Commission sans modification

Ø Résumé du dispositif initial et effets principaux

L’article 7 prévoit que le Gouvernement devra présenter au Parlement, chaque année, un rapport sur l’exécution des dispositions qui précèdent et les moyens consacrés à la lutte contre les contenus illicites, y compris en matière d’éducation, de prévention et d’accompagnement des victimes.

Le présent article n’a pas été modifié par la Commission.

*

* *

Article 8
Gage financier

Supprimé par la Commission

Ø Résumé du dispositif initial et effets principaux

L’article 8 a pour objet de compenser les éventuelles pertes de recettes pour l’État qui pourraient résulter de la mise en œuvre des dispositions qui précèdent. Il prévoit, à cette fin, la création d’une taxe additionnelle aux droits sur les tabacs, prévus aux articles 575 et 575 A du code général des impôts.

Le présent article a été supprimé par la Commission, qui a adopté à cet effet un amendement du Gouvernement ayant reçu un avis favorable de votre rapporteure.

*

* *

Article 9
Modalités d’entrée en vigueur

Introduit par la Commission

Ø Résumé du dispositif et effets principaux

L’article 9, issu de l’adoption d’un amendement de votre rapporteure, règle les modalités d’entrée en vigueur des dispositions de la présente proposition de loi.

Le présent article prévoit que les dispositions relatives à l’obligation de retrait en 24 heures des contenus manifestement haineux, telle qu’elle est prévue par les articles 1er à 1er ter, et celles de l’article 6 portant sur la lutte contre la duplication de contenus jugés illicites entreront immédiatement en vigueur.

En revanche, les autres dispositions de ce texte verront leur entrée en vigueur reportée :

– au 1er janvier 2020 pour les dispositions relatives au devoir de coopération des grandes plateformes en ligne et de celles relatives à la régulation administrative de ces plateformes par le Conseil supérieur de l’audiovisuel (CSA), afin de permettre aux acteurs concernés de s’adapter à ce nouveau cadre juridique (articles 2 et 3, I et I bis de l’article 4) ;

– au 1er janvier 2021 s’agissant du transfert au CSA du contrôle de la mise en œuvre des dispositions de l’article 6-1 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques, afin de laisser à cette autorité et à la Commission nationale de l’informatique et des libertés – aujourd’hui compétente – le temps de s’organiser (I ter de l’article 4).

AUDITION DE M. CÉDRIC O, SECRÉTAIRE D’ÉTAT
CHARGÉ DU NUMÉRIQUE

Réunion du mercredi 5 juin 2019 à 11 heures 15

La Commission auditionne M. Cédric O, secrétaire d’État auprès du ministre de l’Économie et des Finances et du ministre de l’Action et des Comptes publics, chargé du Numérique.

Lien vidéo : http://assnat.fr/4mhe58

Mme la présidente Yaël Braun-Pivet. Nous avons le plaisir d’accueillir M. Cédric O, secrétaire d’État chargé du numérique.

Parmi vos attributions figurent de nombreuses questions relevant de la compétence de la commission des Lois qui a déjà examiné par le passé plusieurs projets de loi en lien avec le numérique : la loi du 5 octobre 2007 pour une République numérique ; la loi du 20 juin 2018 pour la protection des données personnelles dont la rapporteure était une commissaire aux lois, Mme Paula Forteza, et qui a permis d’adapter notre droit au nouveau cadre européen posé notamment par le règlement général sur la protection des données (RGPD) ; la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information dont nous avons eu à débattre sur le rapport de Mme Naïma Moutchou avec la commission des Affaires culturelles.

Nous avons également auditionné Mme Marie-Laure Denis avant sa nomination en qualité de présidente de la Commission nationale de l’informatique et des libertés (CNIL) par le Président de la République, en vertu de l’article 13 de la Constitution.

Le numérique a changé les conditions d’exercice de plusieurs droits fondamentaux, notamment la liberté d’expression, la liberté d’entreprendre et la liberté d’association, mais il a également pour effet de modifier l’équilibre entre les libertés individuelles et la sauvegarde de l’ordre public.

S’il existe un point commun à l’ensemble de ces sujets et aux problématiques concrètes auxquelles sont confrontés nos concitoyens, il réside sans doute dans la question du rôle des grandes plateformes. Comment ne pas voir que les réseaux sociaux, les moteurs de recherche, les places de marché, les sites de partage de contenus jouent aujourd’hui un rôle d’intermédiation majeur qui leur confère un pouvoir important, à la fois économique et prescriptif ? Ce pouvoir nous conduit à interroger le modèle économique de ces plateformes et le cadre de régulation qui leur est applicable. C’est à l’ensemble de ces questions que vous êtes confronté, et c’est également à une partie d’entre elles que notre Commission aura à répondre lorsqu’elle examinera la proposition de loi de notre collègue Laëtitia Avia visant à lutter contre la haine sur internet, sur ces plateformes sont devenus des accélérateurs de contenus odieux ou offensants. Votre audition sera l’occasion d’aborder ce sujet et d’autres, si vous le souhaitez.

M. Cédric O, secrétaire d’État auprès du ministre de l’Économie et des Finances et du ministre de l’Action et des Comptes publics, chargé du Numérique. Je vous propose de centrer la discussion sur la proposition de loi relative à la lutte contre la haine sur internet.

Permettez-moi de partager avec vous l’une de mes convictions : si les seuls pays efficaces pour réguler les grandes plateformes numériques sont les pays autoritaires, ce n’est pas une bonne nouvelle pour les démocraties. Tous les pays du monde sont confrontés au problème de la régulation des grandes plateformes numériques. Nous exposons régulièrement l’impuissance des États et des autorités publiques face à ces grandes plateformes, pour des raisons qui tiennent à des difficultés techniques, au droit international, au droit communautaire et à la rapidité d’intervention.

Aucun pays développé n’a réussi à régler cette question au bon niveau. Cependant nous avons une obligation de résultat. Nous allons poser les bases d’un système efficace qui pourra ensuite être étendu au niveau européen, qui est l’échelon pertinent pour réguler dans ce domaine. Nous devons trouver un équilibre entre liberté d’expression et protection des citoyens. Or les différents pays du monde, et en particulier les pays européens, n’ont pas la même sensibilité sur ce sujet.

Il faut envisager la question de la régulation des contenus en ligne de manière holistique. Si certaines dispositions doivent être prises au niveau législatif, pour d’autres ce niveau n’est pas pertinent. Quelles dispositions légales pouvons-nous prendre ? Parmi celles-ci, lesquelles doivent être prises dans le cadre de la proposition de loi présentée par Mme Laëtitia Avia et dans le projet de loi sur l’audiovisuel ? La question du régulateur sera examinée dans le projet de loi sur l’audiovisuel avant la fin de l’année. Nous devons en effet réfléchir aux rôles respectifs de l’Autorité de régulation des communications électroniques et des postes (ARCEP), du Conseil supérieur de l’audiovisuel (CSA) et de la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (HADOPI).

En revanche, la question de la régulation sera définie dans la proposition de loi de Mme Avia. Notre politique repose sur quatre piliers : punir les auteurs ; responsabiliser les plateformes ; accompagner les victimes ; sensibiliser et éduquer les Français.

Premièrement, aujourd’hui, celui qui insulte ou menace une personne en ligne bénéficie d’une quasi-impunité, pour diverses raisons. En effet, il est techniquement difficile d’identifier les auteurs. En outre, certaines actions ne relèvent pas de ce qui est juridiquement qualifié d’infraction. Nous sommes également contraints par des accords avec les États-Unis, car la plupart de ces grandes plateformes sont américaines. Enfin, nous avons un problème de réactivité : un raid diffuse des milliers d’insultes à caractère illicite en quelques secondes, tandis que la justice est lente à réagir. Nous devons trouver un moyen de transférer au numérique la peur du gendarme qui retient chacun de menacer ou d’insulter quelqu’un dans la rue. C’est d’abord un problème d’organisation et d’efficacité de la justice, qui doit améliorer la gestion de la temporalité et la masse. Les textes actuels permettent d’obtenir l’identité de quelqu’un qui passe les bornes, mais les délais sont trop longs et les plateformes ne sont pas toutes coopératives.

En ne considérant que le retrait des contenus publiés, on met la poussière sous le tapis. En effet, 90 % des contenus homophobes ou racistes sur Facebook sont retirés par les modérateurs. Nous nous trouvons dans la situation paradoxale d’essayer de punir ceux qui publient des contenus qui n’ont pas été retirés par les plateformes, sans punir les pires contenus, tels que des images d’égorgement ou des menaces de mort, qui ont été retirés par la modération.

Nous examinons actuellement quelles mesures peuvent être prises par la loi et quelles dispositions doivent être prises à un autre niveau, car la plupart des dispositions pour punir les auteurs ne sont pas de nature législative.

Si on veut faire en sorte que le niveau de violence sur internet et, in fine, dans la société, diminue, il faut en appeler à la responsabilité individuelle des personnes. Il faut donc que celles-ci sachent qu’elles courent un risque sérieux de se retrouver devant la justice si elles vont trop loin. La comparution en justice permet de trouver un équilibre avec les droits de la défense. En effet, renvoyer la responsabilité aux grandes plateformes peut donner l’impression de privatiser une partie de ce qui relève de la responsabilité de l’État.

Deuxièmement, il faut responsabiliser les plateformes. Les grandes plateformes sont actuellement responsables à deux titres des contenus qu’elles diffusent. D’abord, elles permettent une diffusion extrêmement rapide des contenus : des contenus racistes, antisémites ou homophobes peuvent être diffusés à plusieurs dizaines de milliers de personnes en quelques heures. Nous devons pouvoir les retirer. Ensuite, elles accélèrent leur diffusion puisqu’elles proposent elles-mêmes des contenus, dont certains contenus violents, car ce sont ceux qui « marchent » le mieux. Un certain nombre d’initiatives ont été prises, mais ce problème n’a encore été résolu par personne.

En particulier, le système allemand n’a pas fait la preuve de son efficacité. Il impose des amendes extrêmement élevées — de l’ordre de 50 millions d’euros — aux plateformes qui ont diffusé un contenu illicite. Cependant, le filtrage de la totalité des contenus est techniquement impossible. En outre, cette disposition conduit les plateformes à retirer trop de contenus et porte par conséquent atteinte à la liberté d’expression et à la démocratie : tous les contenus « gris » sont retirés par avance par les plateformes. Par exemple, Charlie Hebdo ne passe jamais la barre. On peut penser que le degré de violence sur internet justifie de telles mesures, mais en réalité ces dispositions risquent en outre d’être inapplicables. En effet, le juge sanctionnera le retrait illégitime de certains contenus. Les grandes plateformes seront alors prises en tenaille entre une loi qui sanctionne très sévèrement les contenus illégaux et une jurisprudence qui sanctionne le retrait de contenus licites. Les compliance departments des plateformes américaines ne peuvent pas gérer une telle situation.

L’approche qui consiste à sanctionner uniquement les contenus individuels rencontre donc des limites. C’est pourquoi nous souhaitons développer une régulation systémique. Nous demandons aux grandes plateformes d’avoir un mécanisme de modération automatique et humain « au bon niveau ». Le régulateur devra déterminer ce qu’il faut entendre par cette expression, car le fixer dans la loi ne permet pas de s’adapter aux évolutions rapides de l’économie de l’internet.

La situation est analogue à celle de la régulation bancaire. Une banque n’est pas tenue pour responsable de chaque virement frauduleux, mais elle doit mettre en œuvre un mécanisme de supervision qui détecte efficacement de tels virements. Si elle ne le fait pas, elle est sévèrement sanctionnée. De même, l’ARCEP et la CNIL ne se prononcent pas sur des cas individuels mais sur les défaillances systémiques des grands opérateurs. Ces dispositions, couplées avec celles qui renforcent la responsabilité individuelle, constitueront un système efficace.

Troisièmement, nous devons accompagner les victimes. Aujourd’hui, le moins que l’on puisse dire est que le parcours des victimes de harcèlement sur internet n’est pas linéaire. Là encore, des dispositions doivent être prises à d’autres niveaux qu’au niveau législatif. La proposition de loi de Mme Avia et le discours du Président de la République au Conseil représentatif des institutions juives de France (CRIF) sont importants, car ce sujet doit être inscrit dans l’agenda politique et médiatique. Des débats publics doivent se tenir pour que les gens sachent que l’on n’a pas le droit d’insulter en ligne. En effet, nous constatons que les quelques personnes qui ont été poursuivies, par exemple celles qui ont harcelé Nadia Daam, sont très étonnées de l’être. Il faut que les Français prennent conscience qu’il est interdit de menacer et d’insulter quelqu’un en ligne, comme c’est interdit dans la rue.

Quatrièmement, il y a un volet éducatif. Il faut introduire des informations sur ces sujets dans la réforme sur l’informatique à l’école présentée en début d’année ou éventuellement dans le service national universel, mais là encore, cela ne relève pas nécessairement du niveau législatif.

Le champ couvert par la loi sera nécessairement assez restreint, suite à l’avis du Conseil d’État. En effet, par souci de cohérence avec le droit européen, il convient de ne légiférer que sur les injures portant atteinte à la dignité humaine. C’est pourquoi le cyber-harcèlement ne fait pas partie du champ de la loi.

Enfin, cette proposition de loi est une base, une étape, et non une norme définitive. Nous ne sommes qu’au début du processus de régulation.

Mme la présidente Yaël Braun-Pivet. Je donne la parole à Mme Laetitia Avia, après quoi je la donnerai à ceux de nos collègues qui souhaitent intervenir.

Mme Laëtitia Avia. Je vous remercie, monsieur le secrétaire d’État, pour vos propos qui témoignent de la hauteur de nos exigences. Comme vous l’avez dit, la proposition de loi que nous examinerons en commission des Lois le 19 juin prochain a pour objet d’obliger les plateformes à retirer les contenus haineux, sans qu’elles portent atteinte à la liberté d’expression.

Cette proposition de loi vise à protéger les droits fondamentaux. Au-delà de l’argument juridique, la notion de dignité humaine est l’âme de ce texte. Il s’agit en effet de protéger les personnes pour ce qu’elles sont et non pas pour ce qu’elles peuvent dire ou penser. Le texte devra être étendu au harcèlement sexuel en ligne.

Les attentats de Christchurch ont rappelé, de manière horrible, le problème posé par les contenus diffusés en direct. C’est une réalité quotidienne. La plateforme Periscope, par exemple, diffuse très régulièrement des agressions homophobes. Personnellement, je n’ai utilisé Facebook Live que deux fois, parce qu’à chaque fois j’ai reçu un torrent de commentaires haineux en direct — je considère que je suis, d’une certaine manière, bridée dans ma liberté d’expression et d’utilisation de Facebook Live par ces commentaires. Comment pensez-vous qu’il convient de réguler les contenus diffusés en direct ?

Nous n’avons pas de contrôle sur les contenus qui sont retirés par la modération des plateformes. Nous ne savons pas s’il y a des atteintes aux droits et comment poursuivre les auteurs. Comment pensez-vous que nous pouvons avancer sur ce sujet ?

Mme George Pau-Langevin. On dit souvent qu’il existe déjà une régulation contre la haine en ligne. Pourriez-vous faire le point sur la loi existante sur l’économie numérique ? Pourquoi, de votre point de vue, est-elle inefficace ?

S’agissant de la situation allemande, ne pourrait-on pas envisager que les plateformes retirent des contenus de manière conservatoire qui serait ensuite confirmée ou infirmée par le juge ? Quels problèmes poserait un tel dispositif ?

M. Philippe Latombe. Vous avez abordé la suppression par anticipation de contenus par les plateformes au titre de leurs conditions générales d’utilisation. En France, Facebook a censuré la diffusion de tableaux célèbres. Le tribunal a considéré que la rédaction des conditions générales d’utilisation de Facebook posait problème, mais il ne s’est pas prononcé sur la possibilité de diffuser des œuvres artistiques. Vous l’avez évoqué à travers Charlie Hebdo : la régulation interdira-t-elle les caricatures de Mahomet ? La régulation de ce domaine pose un vrai problème de libertés publiques. Il faut se demander si les conditions générales d’utilisation doivent continuer d’être la base de la modération ou de la censure par les plateformes. Comment ce système peut-il fonctionner ?

La proposition de loi a fait l’objet d’un avis du Conseil d’État. Serait-il possible de demander l’avis préalable de la CNIL ? En effet, cette proposition de loi touche à la question de la protection des données, notamment à l’automatisation des systèmes de retrait. Le retrait automatique peut entrer en contradiction avec le RGPD tel que nous l’avons adopté l’an dernier.

M. Pierre Morel-à-l’Huissier. Pouvez-vous nous expliquer quel est le pouvoir du juge des référés en matière de numérique ?

Mme la présidente Yaël Braun-Pivet. Je redonne la parole à Laëtitia Avia, qui souhaite intervenir sur la saisine de la CNIL.

Mme Laëtitia Avia. La CNIL a été entendue deux fois dans le cadre des travaux parlementaires et elle a indiqué que le texte n’entrait pas dans son champ de compétences.

M. Cédric O, secrétaire d’État chargé du numérique. Sur la question des juges des référés, j’avoue ne pas pouvoir apporter une réponse suffisamment précise d’un point de vue juridique.

Il me semble prématuré de légiférer sur le contenu diffusé en direct, pour deux raisons. D’abord, le problème ne réside pas tant dans la diffusion en direct que dans le caractère viral du contenu. À Christchurch, l’assassin a diffusé la tuerie pendant quatorze minutes, vidéo qui a été vue en direct par 4 000 personnes ; mais le problème principal tient au fait que, dans les 24 heures suivantes, Facebook a dû retirer 1,5 million de copies de cette vidéo. Cependant il est vrai que la conservation des contenus pose un véritable problème, car certains peuvent disparaître sans avoir été sanctionnés. Les contenus, qu’ils aient été refusés par la modération ou publiés, doivent être conservés par les plateformes pour permettre à la justice de faire son travail, sous la supervision du régulateur et de la CNIL pour que l’on ne porte pas atteinte à la vie privée.

La modération préalable par les plateformes fera l’objet de la supervision par le régulateur dans le cadre de la proposition de loi de Mme Avia. Le régulateur jugera du bon équilibre de la politique de la modération de la plateforme. Tout le problème est de mettre en place un régulateur qui soit techniquement compétent et juridiquement habilité.

Madame Pau-Langevin, la loi du 7 octobre 2016 pour une République numérique dispose que la plateforme a l’obligation de retirer promptement des contenus manifestement illicites. Ce qu’il faut entendre par « promptement » n’est pas précisé, et la loi ne définit aucune obligation de moyens. Les sanctions ne sont pas dissuasives et elles ne sont pas appliquées. Dans les faits, la loi existante n’a aucun effet sur la publication des contenus.

La loi allemande oblige les plateformes à retirer en un temps très court les contenus, sous peine de sanctions pour chaque contenu diffusé. Les départements juridiques américains refusent alors de prendre le moindre risque d’être condamnés et pratiquent des retraits massifs. Les délais pour que soit rendue une décision de justice sont tels que les contenus qui sont finalement publiés le sont à contretemps. Il faut trouver le chemin de crête qui assure l’équilibre entre liberté d’expression et protection des citoyens.

Monsieur Latombe, ce sont effectivement les conditions générales d’utilisation qui priment aujourd’hui. Il est vrai que L’Origine du monde a été retirée parce qu’elle ne correspondait pas à ces conditions ; je ne pense pas que les caricatures de Charlie Hebdo le soient pour les mêmes raisons, mais je suis certain qu’elles seraient censurées si nous mettions en place un système comparable au système allemand.

Il est difficile de modifier ces conditions en fonction des différentes cultures nationales, car on considère aux États-Unis, entre autres, que, puisque ces plateformes appartiennent à la sphère privée, personne n’est obligé de les utiliser, et que si quelqu’un choisit de le faire, il doit respecter les conditions générales d’utilisation.

Nous sommes tous confrontés à de très grandes difficultés de jugement sur des contenus particuliers. Si l’on veut que les plateformes appliquent efficacement la loi, il faut instituer une zone d’échanges entre les plateformes, l’administration, la justice et probablement des acteurs privés de la société civile qui donnent un avis sur le caractère licite ou non d’un contenu. Il ne nous paraît pas souhaitable que ce soient les plateformes qui décident de ce qui est légal ou illégal. Nous devons répondre à leur besoin de se tourner vers une instance qui détermine ce qui est licite, instance dont nous pensons qu’elle doit être un cénacle constitué par l’État et la société civile, conçu en relation très étroite avec le régulateur. Un tel dispositif est déjà en place pour le terrorisme.

Mme Laëtitia Avia. Le fait est que le référé civil existe, mais cela reste une procédure judiciaire qui prend du temps et qui ne permet pas de traiter la masse de contenus haineux. Ainsi, en 2016, 269 condamnations pour injures racistes sur internet ont été rendues.

Mme Caroline Abadie. Le rapport remis l’an dernier par Laëtitia Avia, Karim Amellal et Gil Taieb évoquait la création d’un observatoire de la haine qui permettrait d’étudier les comportements haineux sur internet qui diffèrent largement des comportements dans la rue. Il examinerait aussi comment contrer ces comportements et nourrir le contre-discours, en particulier sur les réseaux sociaux, qui constituent désormais le premier vecteur de communication. Avant cette proposition de loi, nous avions étudié les fake news et le harcèlement en ligne. Ces sujets se recoupent, car ces comportements constituent une attaque contre notre démocratie et le vivre ensemble. La publication de ces contenus haineux, erronés et mensongers pose problème, car l’enfermement algorithmique a pour effet que celui qui a lu ces contenus les retrouvera plusieurs fois, éventuellement les colportera lui-même, voire même passera à l’acte. Que pensez-vous donc de créer un observatoire de la haine ? Quel serait son périmètre d’action ?

Mme Danièle Obono. L’interopérabilité des grandes plateformes, idée défendue par un certain nombre de collectifs de l’internet libre, serait une alternative à la responsabilisation dont vous parlez. En effet, étant donné la nature et le nombre des communications simultanées, il est très difficile pour les plateformes de réguler effectivement. L’interopérabilité permettrait aux victimes de cyber-attaques de se retirer de ces plateformes tout en gardant le lien social que ces réseaux permettent d’entretenir.

M. Erwan Balanant. Ne cherchons-nous pas à contrôler un domaine qui ne peut pas l’être ? L’espace virtuel est un espace public, comme l’espace de la rue. Or dans la rue, on ne contrôle pas ce que chacun dit, mais on prend des mesures quand un comportement illicite a été signalé. Je crains qu’un traitement automatisé en amont bride vraiment la liberté d’expression.

Par ailleurs, je suis effaré que certaines personnes condamnées en aient été surprises. C’est le signe que la société a pris du retard sur la technologie, comme l’a écrit Paul Virilio. Ces questions de savoir-vivre sur les réseaux sociaux doivent être traitées à l’école, dès le plus jeune âge.

Du reste, le harcèlement scolaire est exclu par votre texte, puisqu’il ne relève pas nécessairement de la haine ou du racisme. Cependant il faut en protéger les enfants : on les protège aussi de ce qu’ils pourraient devenir et on prévient des comportements néfastes sur les réseaux.

M. Pacôme Rupin. Dire que la liberté d’expression sur internet n’est pas la même qu’ailleurs, c’est légitimer des discours de haine, qui peuvent parfois entraîner des actes violents.

Si la France est attachée à la liberté d’expression, celle-ci est encadrée : on ne doit pas offenser ou discriminer individuellement quelqu’un pour ce qu’il est. Notre droit sanctionne tout propos raciste ou homophobe ; il doit s’appliquer également sur internet.

Beaucoup pensent que les règles sur internet doivent être dérogatoires, moins strictes que dans d’autres domaines, parce qu’internet serait virtuel. Il faut rappeler qu’internet, c’est la vie réelle, et que quelqu’un qui tient des propos racistes sur internet est quelqu’un qui tient des propos racistes, tout simplement. Il doit évidemment être sanctionné.

En revanche, il est vrai que le dispositif à mettre en place pour lutter contre la haine sur internet est spécifique. Je soutiens comme vous que la modération des plateformes ne suffit pas à régler le problème. Nous devons donc mettre en place un système judiciaire efficace. Comment faire en sorte que les victimes puissent porter plainte et que la justice réponde plus rapidement ?

M. Stéphane Peu. Les médias sont des lieux de communication semblables aux autres. Or, dans la presse, le directeur de la publication est responsable de ce qui est publié et il peut être sanctionné. Il existe donc dans le droit de la presse des outils efficaces, qui ont beaucoup évolué avec le temps, et qui pourraient par extension être appliqués aux contenus numériques. Pensez-vous que l’on puisse trouver un équivalent de cette responsabilisation pour internet ?

En second lieu, quelle est votre réflexion sur la question de l’anonymat ? Ma propre réflexion sur ce point n’est pas arrêtée : c’est un sujet important pour la liberté d’expression, mais on sait également, si l’on pense au rôle des lettres anonymes dans l’histoire de notre pays, que l’anonymat peut poser problème.

M. Jean Terlier. Nous constatons également qu’il est nécessaire de légiférer pour lutter contre la haine sur internet. La plupart des parlementaires en ont eux-mêmes fait l’expérience, dans leur engagement, ou comme parents d’adolescents, souvent effarés par les échanges des collégiens.

Comment mettre en place la prévention contre la haine en ligne ? Même des étudiants en quatrième année d’études ne comprennent pas pourquoi, lorsqu’ils reçoivent un contenu haineux, ils ne peuvent pas répondre de la même façon.

Mme Cécile Untermaier. Au moment où nous mettons en place l’Assemblée parlementaire franco-allemande, je constate avec regret que nous n’élaborerons pas pour l’instant un dispositif commun dans ce domaine, car nous ne sommes qu’aux premières étapes de la mise en place d’un système très complexe. J’ai cependant apprécié votre humilité.

Quels moyens envisagez-vous pour poursuivre effectivement les auteurs ? La justice est à bout de souffle, malgré les efforts de programmation budgétaire.

La traçabilité est-elle garantie, que l’on utilise ou non un pseudonyme ?

Mme Naïma Moutchou. Si, dans l’ensemble, le développement des réseaux sociaux est une bonne nouvelle pour la liberté d’expression, en revanche, on ne peut pas tolérer qu’ils soient un exutoire pour des propos haineux, racistes, antisémites ou homophobes. La proposition de loi prévoit un certain nombre de dispositifs efficaces. Le Président de la République a évoqué en février dernier la possibilité d’interdire aux auteurs de propos racistes ou antisémites de recréer un compte sur ces réseaux, comme on interdit à des hooligans qui ont été condamnés de pénétrer dans les stades. Cette proposition est très intéressante mais sa mise en œuvre pose un certain nombre de problèmes, pour éviter le contournement, notamment, et parce qu’elle pourrait obliger à fournir une pièce d’identité au moment de créer un compte. Quelle est votre position sur ce sujet ?

Mme Isabelle Florennes. Les jeunes constituent un public particulièrement fragile. Il y a des lacunes dans la prévention. En outre, beaucoup de propos haineux sont véhiculés par des messageries instantanées qui ne laissent pas de traces apparentes. Quelle est la traçabilité de ces données ? Une coordination est nécessaire entre l’Éducation nationale et votre ministère.

M. Stéphane Mazars. Pouvons-nous envisager que pèse sur les plateformes une obligation de dénonciation de certains propos qui, aujourd’hui, sont modérés et, par conséquent, ne sont pas poursuivis ?

Si demain on poursuit plus facilement les auteurs de propos haineux, discriminatoires ou diffamatoires, le support sera-t-il la loi de 1881 ? Les juristes y sont très attachés, car c’est une loi d’équilibre qui consacre la liberté d’expression et ses limites. Cependant c’est une loi très technique, dont l’usage n’est pas aisé, même par des professionnels. En particulier, elle impose des délais de prescription très courts, or on sait que l’identification des auteurs de propos discriminatoires sur internet demande du temps. La loi de 1881 peut-elle alors permettre d’atteindre les objectifs recherchés ?

Mme Émilie Guerel. Comme dans le domaine de la lutte contre le piratage ou dans celui de la protection de la vie privée, la France pourrait-elle devenir le fer de lance de la régulation européenne en matière de lutte contre la haine sur internet ?

Pourriez-vous, par ailleurs, nous éclairer sur la charte sur la haine en ligne que la France veut faire adopter au G7 qui se tiendra à Biarritz à la fin du mois d’août ?

M. Rémy Rebeyrotte. Avons-nous un premier retour d’expérience sur les mesures prises dans le RGPD ? En particulier, il était demandé aux plateformes d’expliquer sur leur site en amont les enjeux de l’accès au numérique et ainsi de mettre en œuvre la prévention. Je rappelle que, normalement, avant l’âge de 15 ans, on ne peut pas accéder seul au réseau.

M. Cédric O, secrétaire d’État chargé du numérique. Madame Abadie, il faut favoriser tous les cercles qui permettent une approche concertée. L’observatoire de la haine que vous avez évoqué me paraît donc être une excellente idée. On peut l’expérimenter dès maintenant, à condition de le concevoir en cohérence avec les orientations du projet de loi sur l’audiovisuel.

Madame Obono, la question de l’interopérabilité est vaste et difficile. Comme je l’ai exposé à l’Organisation de coopération et de développement économiques, nous pensons que cette question doit être portée à un niveau européen. Notre démarche actuelle est compatible avec un progrès vers l’interopérabilité, or celui-ci prendra beaucoup de temps. Aujourd’hui, on ne peut envoyer un message Whatsapp qu’à quelqu’un qui est inscrit sur Whatsapp, tandis qu’on peut envoyer un courriel depuis une boîte Gmail vers une boîte Wanadoo. L’interopérabilité permettrait de communiquer depuis Whatsapp avec quelqu’un qui utiliserait une autre plateforme. Cependant, il est difficile de la mettre en œuvre techniquement pour les plateformes qui offrent des fonctionnalités multiples. En outre, elle pose des problèmes de portabilité des données. Elle pose aussi une question de principe : on ne résoudrait pas le problème, on se contenterait de permettre à la victime de se reporter vers un autre réseau. Enfin, elle constitue une agression très importante envers les grandes plateformes, et cela posera par conséquent problème avec nos partenaires chez qui celles-ci sont domiciliées. Je considère donc l’interopérabilité avec une certaine bienveillance, mais je doute qu’elle soit applicable à court terme.

Monsieur Balanant, la gestion automatisée ne s’appliquera qu’au contenu signalé.

Monsieur Peu, si l’on considère les plateformes comme des éditeurs, cela les oblige à lire et à contrôler a priori tout ce qu’elles publient, ce qui pose un problème de liberté publique. Nous estimons qu’il existe une position intermédiaire entre l’absence de régulation et l’édition, qui est celle de l’accélérateur de contenus.

Le premier sujet que j’ai abordé est celui de la responsabilité individuelle, parce que la masse des contenus est telle que la régulation doit reposer sur l’autolimitation. Nous travaillons avec Jean-Michel Blanquer et Gabriel Attal sur l’éducation, qui est fondamentale. En outre, la répression doit faire en sorte que la peur change de côté : ceux qui tiennent des propos haineux doivent avoir peur du gendarme.

Nous n’aborderons pas le harcèlement scolaire, qui est un problème fondamental, dans cette proposition de loi, car celle-ci se fonde juridiquement sur l’interdiction des atteintes à la dignité humaine. En revanche, le harcèlement sexuel peut probablement y être abordé.

Monsieur Rupin, la ministre de la Justice s’est engagée à ce que les victimes puissent déposer des plaintes en ligne à partir du premier semestre 2020. C’est indispensable pour les plaignants et pour les policiers. Aujourd’hui, les plaignants s’adressent au commissariat de proximité, or les policiers n’ont pas tous une très bonne connaissance des outils informatiques. Avec quel compte se connecteront-ils sur Facebook Live ou sur Twitter ? Aujourd’hui, comme ils n’ont aucun moyen de transmettre des informations de manière sécurisée, dans le meilleur des cas, ils font des saisies d’écran, ils les impriment et ils les envoient par la poste.

La ministre de la Justice sera présente lors de l’examen de la proposition de loi ; elle pourra donc répondre plus précisément. Les plaintes seront traitées de manière centralisée, par un personnel bien formé, qui sera en relation directe avec les plateformes.

Par ailleurs, monsieur Peu, nous devons pouvoir identifier les auteurs de contenus haineux, alors qu’actuellement le processus d’identification ne fonctionne pas. Cependant, nous ne souhaitons pas obliger les gens à s’identifier de manière substantielle sur internet. Par exemple, une fille ou un garçon qui veut jouer à League of Legend doit pouvoir le faire sous le nom de « Bisounours 767 » sans être obligé de s’inscrire sous son nom ; un jeune homosexuel qui souhaite consulter des forums doit pouvoir le faire sans s’identifier même auprès de la plateforme ; un lanceur d’alerte doit pouvoir s’exprimer sans être contraint de révéler son identité. Vous avez évoqué les lettres anonymes ; nous étions assez contents à l’époque de n’avoir pas de fichier centralisé qui permette d’établir ce que chacun a fait.

À partir du moment où le juge a identifié un contenu haineux, il faut qu’il puisse obtenir l’adresse IP du possesseur de l’ordinateur, puis, avec cette adresse, obtenir son identité auprès du fournisseur d’accès. Actuellement, chaque étape pose problème : certaines grandes plateformes ne donnent les adresses IP que dans les cas de terrorisme, et si elle disposait de toutes les adresses IP, la justice telle qu’elle est organisée actuellement ne serait pas en mesure de poursuivre tous les auteurs.

Cette proposition de loi ne traitera pas le grand banditisme de l’antisémitisme ou de la haine en ligne. Nous voulons réguler les comportements quotidiens et créer une prise de conscience collective. Les professionnels de l’antisémitisme et de la haine en ligne continueront à se connecter en utilisant des réseaux privés virtuels afin de protéger leur identité.

Monsieur Terlier, je m’engage à vous donner plus de précisions, après concertation avec le ministre de l’éducation nationale et Gabriel Attal, sur ce que nous ferons dans le cadre du service national universel.

Madame Untermaier, je pense que nous parviendrons à un accord européen. La pression politique conduit les gouvernements à prendre des décisions dont la portée n’est pas totalement maîtrisée. Je crois que les Allemands ont désormais compris qu’ils devaient ajuster leur position.

Madame Moutchou, il n’est pas attentatoire aux libertés d’interdire à quelqu’un qui a été condamné pour propos haineux de communiquer sur Twitter et le Président de la République en ayant pris l’engagement devant le CRIF, cette interdiction sera prévue. Mais cela n’est possible que si l’on sait identifier les auteurs, et il s’agit évidemment d’un traitement ex post, après une ou plusieurs condamnations, avec une graduation des peines. Cela me semble proportionné : l’accès à Twitter ne répond pas à un besoin vital.

Monsieur Mazars, les contenus interdits de publication par la modération posent effectivement le problème de leur conservation et de leurs modalités de transmission à la justice. Ce serait un non-sens que les contenus supprimés par la modération soient assurés d’une impunité totale.

À ce stade, nous n’avons pas de volonté de toucher à la loi de 1881, qui ne me semble pas antinomique avec le dispositif que nous mettons en œuvre.

Madame Guerel, nous nous efforçons de progresser au niveau international sur la charte contre la haine en ligne. Pour être honnête, nous ne trouverons pas d’accord avec les Américains sur la régulation des contenus haineux, pour des raisons de culture et d’attachement à la liberté d’expression. Cependant nous voulons nous accorder avec eux sur les modalités de régulation des contenus terroristes, qui aujourd’hui font l’objet d’une régulation européenne et non internationale. Nous voulons également obtenir de la transparence en ce qui concerne l’activité des plateformes sur les autres types de contenus. Nous le porterons au sein du G7, car tous les pays ont des intérêts en la matière.

Monsieur Rebeyrotte, les régulateurs doivent s’approprier le RGPD pour pouvoir l’appliquer. Une première sanction a été prise par la CNIL, qui ne peut juger que les atteintes en France et non en Europe. L’application du RGPD pose également le problème de la réactivité.

M. Rémy Rebeyrotte. Il serait utile de disposer d’une évaluation à moyen terme.

M. Cédric O, secrétaire d’État chargé du numérique. Je suis tout à fait prêt à faire le point avec vous dans six mois, par exemple.

Mme la présidente Yaël Braun-Pivet. Monsieur le secrétaire d’État, nous vous remercions. Je rappelle à nos collègues que le texte sera examiné le 19 juin en Commission, et probablement dans la première semaine de juillet en séance publique.

COMPTE RENDU DES DÉBATS

Première réunion du mercredi 19 juin 2019

Lien vidéo : http://assnat.fr/rPIXCP

La Commission examine la proposition de loi visant à lutter contre la haine sur internet (Mme Laetitia Avia, rapporteure)

Mme la présidente Yaël Braun-Pivet. Nous sommes réunis pour examiner la proposition de loi visant à lutter contre la haine sur internet, déposée par Mme Laetitia Avia, qui en est la rapporteure.

Mme Laetitia Avia, rapporteure. La prolifération de contenus haineux sur internet est un phénomène que nous ne pouvons ignorer, car il nous touche tous. Que ce soit en tant que victimes ou en tant que témoins, nous y avons tous été confrontés à des propos offensants et agressifs.

Lorsqu’ils s’inscrivent dans un débat d’idées et dans les contours de notre liberté d’expression, pilier de nos valeurs démocratiques, ces propos peuvent être dérangeants, sans pour autant être illégaux, mais, lorsqu’ils franchissent les lignes rouges de notre liberté d’expression, qu’ils viennent nous frapper en plein cœur, non pas pour ce que nous disons ou pensons, mais pour ce que nous sommes – noirs, arabes, chinois, juifs, musulmans, homosexuels, handicapés, ou tout simplement femmes –, lorsqu’ils atteignent le cœur de la dignité humaine, ces propos illicites, qui ne sont rien d’autre que la manifestation de la haine la plus abjecte, ne sauraient prospérer impunément.

Tel est l’objet de cette proposition de loi.

Bien entendu, il s’agit non pas d’éradiquer la haine dans notre société mais de l’empêcher de proliférer là où elle s’exprime sans retenue, dans le parfait déni du respect de l’autre, et s’expose à la vue de tous, c’est-à-dire sur internet, en particulier sur les réseaux sociaux. C’est le premier lieu d’expression de la haine aujourd’hui, et nous ne manquons pas d’exemples. Il y a eu, bien sûr, les attentats de Christchurch, qui ont donné lieu à une prise de conscience collective et internationale, mais n’oublions pas tous les actes de haine ordinaire et gratuite, qui font le quotidien des réseaux sociaux – je peux en témoigner. Le dernier rapport de SOS Homophobie est édifiant : 23 % des agressions homophobes ont lieu sur internet – c’est le premier lieu d’expression de la haine. Et, il y a quelques mois, la société de modération Netino sonnait également l’alerte, en relevant une augmentation de 30 % des contenus haineux en un an. Surtout, va-t-on encore longtemps détourner le regard des phénomènes de cyberharcèlement et de cyberviolences qui poussent les plus jeunes et les plus vulnérables à vouloir commettre l’irréparable pour ne plus subir ce torrent de haine ?

Internet est censé être un lieu d’opportunités, d’ouverture, d’échanges, mais cela peut devenir un enfer pour ceux qui ne correspondent pas aux standards fixés par une minorité de « trolls » ou de haters. Certains nous diront : « Vous n’avez qu’à quitter les réseaux sociaux ! » Ce serait limiter la liberté d’expression des victimes de propos haineux. Et je crois que chaque fois que quelqu’un quitte les réseaux sociaux en raison de la haine qu’il y subit, c’est notre liberté d’expression collective qui est mise à mal. On nous dira aussi : « Ce n’est pas grave, c’est internet, ce n’est pas la vraie vie ! » Mais nos usages d’internet font partie intégrante de notre vie, et il nous faut affirmer que nous ne pouvons plus tolérer sur internet ce que nous n’accepterions jamais dans un bus, dans un restaurant, dans l’espace public. Nous avons la responsabilité de tracer ces lignes rouges, et, en somme, d’écrire une nouvelle page d’internet.

Reposant essentiellement sur la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), qui transposait une directive de 2000, la directive « e-commerce », notre cadre juridique n’est plus adapté : tout cela était avant Facebook, Twitter, Snapchat, les stories, les lives, les hashtags… avant tout. Ce régime repose sur une dichotomie obsolète entre des éditeurs, à forte responsabilité, et les hébergeurs, régime sous lequel sont placées toutes les plateformes que nous connaissons aujourd’hui et qui ne sont jamais inquiétées. Et si les objectifs de la directive « e-commerce » restent d’actualité, elle n’a jamais visé à mettre en place un système permettant la libre circulation de la haine via les services de communication en ligne. Il est donc de notre devoir de ne plus laisser ce secteur en proie à une autorégulation qui s’essouffle et d’assumer pleinement qu’il est de notre mission de protéger nos concitoyens et de décider de l’héritage que nous laisserons. Pour ma part, je souhaite que cet héritage soit un internet vertueux.

Pour ce faire, j’ai travaillé, depuis maintenant plus d’un an, avec Gil Taieb, vice-président du Conseil représentatif des institutions juives de France (CRIF), et l’écrivain Karim Amellal pour trouver des solutions concrètes. Nos propositions ont été remises au Premier ministre le 20 septembre 2018. Dans le cadre de cette mission, nous avons rencontré de nombreux acteurs du numérique, institutions, associations de lutte contre les discriminations, dont je tiens ici à saluer le travail. Ces auditions ont été réitérées par votre rapporteure après le dépôt de la proposition de loi. Le dispositif que nous vous soumettons aujourd’hui a donc été bien pesé, il est opérationnel.

Consciente de l’importance des enjeux, j’ai souhaité que le Conseil d’État rende un avis sur cette proposition de loi, et je remercie les rapporteurs Thierry Tuot et Paul-François Schira pour leur accompagnement précieux dans la finalisation du texte qui vous est proposé aujourd’hui. Cet avis, rendu à l’unanimité des membres de l’assemblée générale du Conseil d’État, vient soutenir les objectifs de la proposition de loi, consolider ses dispositifs et ainsi veiller au succès du combat dans lequel nous nous engageons. J’ai déposé plusieurs amendements visant à mettre en œuvre les recommandations du Conseil d’État.

Le texte que nous vous proposons repose sur une disposition clef, qui est son cœur : une obligation de retrait des contenus manifestement illicites en vingt-quatre heures. Ses poumons sont des obligations de moyens, qui viennent assurer la vitalité et l’efficacité de cette obligation de retrait.

Ainsi, à l’article 1er, nous proposons d’ajouter un article à la LCEN pour créer un nouveau délit de non-retrait de contenus manifestement illicites en vingt-quatre heures, applicable aux grandes plateformes et moteurs de recherche, comme le préconise le Conseil d’état. C’est une obligation qui s’applique après le signalement de contenus manifestement illicites, c’est-à-dire d’incitations à la haine ou d’injures à la haine à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle, du handicap. Je sais que vos amendements viendront compléter ce champ d’application, dans le respect total de l’avis du Conseil d’État, qui le limite à l’atteinte à la dignité humaine telle qu’elle ressort de la LCEN actuelle.

À l’article 1er, nous intégrerons une partie des dispositions qui figuraient à l’origine à l’article 2, relatives à la simplification des mécanismes de signalement. L’idée est de simplifier l’« expérience utilisateur » lors de la mise en œuvre de l’obligation de retrait renforcée.

Nous intégrerons ensuite un second chapitre dédié au devoir de coopération des plateformes en ajoutant à la LCEN un nouvel article 6-3. Son objet sera de prévoir : l’obligation de répondre à toute notification ; la mise en place d’un bouton de signalement unique ; l’obligation pour les plateformes d’avoir des moyens humains ou technologiques proportionnés ; un mécanisme de recours interne, initialement prévu à l’article 1er, pour que les utilisateurs puissent alerter les plateformes sur les erreurs d’application de la loi, corriger, contextualiser ou se justifier, et ainsi améliorer le dispositif ; des obligations d’information des utilisateurs sur leurs droits ; une obligation de transparence vis-à-vis du Conseil supérieur de l’audiovisuel (CSA) quant à l’organisation interne adoptée pour lutter contre la haine sur internet, comme le propose le Conseil d’État ; des obligations de coopération judiciaire renforcées, qui figuraient initialement à l’article 5 de la proposition de loi, pour mieux identifier les auteurs de contenus quand ils commettent un délit.

Nous aborderons ensuite un troisième chapitre, relatif au rôle de supervision du CSA dans la lutte contre les contenus haineux. Il sera chargé d’accompagner les plateformes en émettant des recommandations, lignes directrices et bonnes pratiques pour la mise en œuvre de ces obligations. Il assurera leur suivi et publiera un bilan de leur application et de leur effectivité. Comme le souligne le Conseil d’État : « La crédibilité de la régulation administrative confiée au CSA repose sur un pouvoir de sanction ». Celui-ci s’appliquera à tout manquement au devoir de coopération édicté par cette proposition de loi. Je vous présenterai un amendement détaillant l’ensemble de la procédure de sanction, de son ouverture jusqu’au prononcé éventuel d’une amende administrative, dont le montant pourra atteindre 4 % du chiffre d’affaires mondial de l’opérateur, en passant par la mise en demeure.

Enfin, dans un quatrième chapitre, nous améliorerons les dispositifs judiciaires de lutte contre les sites à caractères haineux et leurs sites miroirs. Nous parlons ici de sites tels que le bien trop célèbre « Démocratie participative » dont le nom est aux antipodes de la haine crasse qu’il véhicule. Comme le propose le Conseil d’État, l’intervention du juge en amont et en aval sera précisée dans le texte.

Voici le schéma que nous vous proposons pour lutter contre la propagation des discours de haine sur internet. Il repose sur trois piliers : une responsabilisation des plateformes, largement assurée par ce texte ; une responsabilisation des auteurs de contenus illicites, qui nécessitera une amélioration de la réponse pénale, notamment avec la création d’un parquet spécialisé, mais je vous propose d’aborder cela surtout en séance, en présence de la ministre de la Justice ; une responsabilisation de la société tout entière, car chacun doit être sensibilisé aux enjeux dont nous débattons aujourd’hui.

Mes chers collègues je sais que nos débats seront denses, j’espère surtout qu’ils seront riches et à la hauteur du combat qui transcende largement nos diverses étiquettes et sensibilités, car il nous unit dans cette mission ultime qu’est la protection de la dignité de la personne humaine face à toutes les formes de haine.

Mme Fabienne Colboc, rapporteure pour avis de la commission des Affaires culturelles et de l’éducation. Madame la rapporteure, mes chers collègues, une étude conduite en 2019 par la société de modération Netino sur la haine en ligne estimait, à partir d’un échantillon de commentaires publiés sur vingt-quatre pages Facebook de grands médias français, que 14 % de ces commentaires comportaient des propos haineux ou agressifs. Cela témoigne d’une évolution inquiétante que le législateur doit prendre à sa juste mesure.

C’est tout l’objet de la proposition de loi qui vous est aujourd’hui soumise par notre collègue Laetitia Avia, dont la commission des Affaires culturelles et de l’éducation a souhaité se saisir pour avis. Elle tend à pallier l’impunité quasi-totale dans laquelle évoluent aujourd’hui les auteurs de tels propos sur les plateformes, dont le zèle à combattre les contenus haineux est pour l’heure limité à ce que la loi française rend obligatoire. Dont acte : la proposition de loi rendra obligatoire leur retrait en vingt-quatre heures ! Il est grand temps d’établir une législation efficace pour assurer le respect, par des plateformes virtuelles, de lois conçues pour le monde réel. Se retranchant systématiquement derrière leur statut d’hébergeur, les moteurs de recherche, les réseaux sociaux, les plateformes de partage de contenus mis en ligne par leurs utilisateurs doivent aujourd’hui combattre de façon plus volontaire l’hydre numérique qu’ils ont contribué à créer, car c’est bien leur modèle économique, fondé sur l’exploitation algorithmique de nos données, qui nourrit l’enfermement intellectuel et, partant, l’intolérance croissante aux opinions contraires. Et c’est l’impunité totale des auteurs anonymes de propos haineux sur internet qui favorise leur expression exponentielle mais également leur banalisation dans la vie réelle.

C’est la raison pour laquelle cette proposition de loi comporte plusieurs mesures tendant à renforcer substantiellement les obligations à la charge des opérateurs de plateforme. Ils auront notamment à répondre au CSA, dont les missions sont complétées pour lui permettre d’exercer un contrôle fin de l’action des plateformes en matière de lutte contre la haine en ligne. C’est à ce titre que la commission des Affaires culturelles et de l’éducation a souhaité se saisir pour avis. En effet, les missions du CSA ont été récemment modifiées, notamment par la loi du 22 décembre 2018 relative à la manipulation de l’information, et sont appelées à évoluer à la faveur du futur projet de loi sur la régulation audiovisuelle. Il s’agit donc de veiller à la cohérence de l’ensemble normatif existant et futur, afin de donner à la loi sa pleine efficacité.

Ainsi, je vous proposerai, au nom de ma commission, plusieurs amendements précisant les contours des nouvelles missions confiées au CSA et tendant notamment à ce que la sanction qu’il prononce réponde non plus à l’obligation de résultat imposée aux plateformes mais bien à l’obligation de moyens qui leur est faite. Au-delà, la périodicité des différentes dispositions est précisée : le bilan de la loi effectué par le CSA serait annuel, tandis que la remontée d’informations de la part des plateformes serait, elle, mensuelle. Je vous proposerai aussi de permettre au CSA de rendre publiques tout ou partie de ces informations, soit pour dénoncer une plateforme récalcitrante, soit pour valoriser l’efficacité de ses actions. Je souhaite également que les associations reconnues qui œuvrent aujourd’hui dans le domaine de la lutte contre la haine et les discriminations aient une place de choix auprès du CSA.

Au-delà, c’est bien sûr la compétence de la commission en matière d’éducation et de jeunesse qui justifie sa saisine. J’estime nécessaire de renforcer les outils existants, notamment au sein de l’éducation nationale, pour permettre une prévention adéquate de ces comportements chez les mineurs et assurer leur protection vis-à-vis des contenus haineux auxquels ils sont involontairement, mais de plus en plus fréquemment, exposés. Je vous proposerai ainsi de renforcer les obligations des plateformes qui permettent à des mineurs de moins de quinze ans, âge de la majorité numérique, l’inscription à leurs services. Elles devront obligatoirement sensibiliser les enfants de moins de quinze ans et leurs parents à la diffusion de la haine en ligne et les informer des risques juridiques encourus dans ce domaine. Je crois que c’est là un axe majeur de prévention, car, bien souvent, les parents n’ont qu’une conscience très limitée des risques que leurs enfants encourent dans l’environnement numérique et de la responsabilité juridique qui est aussi la leur en cas d’infraction.

Mme la présidente Yaël Braun-Pivet. Chers collègues, nous abordons la discussion générale. Les porte-parole des groupes disposent chacun de cinq minutes.

Mme Caroline Abadie. Une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ne sont permises ni dans la rue, ni à la télévision, ni à la radio, ni dans la presse. Pourquoi le seraient-elles sur internet ?

Nous examinons aujourd’hui une proposition de loi déposée par notre collègue Laetitia Avia, rapporteure de ce texte. Nous sommes fiers de ce texte dont l’objectif est de protéger la liberté d’expression de tous sur internet. Chaque jour, des femmes, des homosexuels, des personnes de couleur, des juifs, des musulmans ou des personnes handicapées se font insulter sur internet parce qu’ils sont des femmes, des homosexuels, des personnes de couleur, des juifs, des musulmans ou des personnes handicapées. Chaque jour, les auteurs de propos haineux sont de plus en plus nombreux. Et, chaque jour, ils sont de plus en plus odieux.

Nous sommes bien loin des années 2000 où nous pouvions mettre tout ce que nous voulions sur nos « murs » Facebook, sans craindre la malveillance des autres. Chaque jour, les victimes adoptent un ton plus policé, évitent les sujets à risque, modèrent leurs points de vue, jusqu’à se taire. La liberté des uns s’arrête où commence celle des autres, la liberté d’expression aussi, c’est ce qu’affirme cette proposition de loi, c’est ce qu’affirme aussi la loi de 1881 sur la liberté de la presse. Toutefois, il n’est pas question ici de redéfinir ce qu’est une injure ou une incitation à la haine, ce que définit déjà cette grande loi. Qu’elle nécessite une réforme ne fait aucun doute, c’est ce que devra dire la mission lancée par Mme la garde des Sceaux. Quant à nous, et pour l’heure, nous n’y toucherons pas ; cela constitue notre ligne rouge. Il ne serait pas sérieux de réformer la loi sur la liberté de la presse sans une étude approfondie au préalable. Si nous le faisions, les groupes d’opposition pourraient nous reprocher notre impréparation, et ils auraient raison.

En revanche, s’il y a eu un travail sérieux et poussé, c’est bien sur la lutte contre le racisme et l’antisémitisme en ligne, conduit par notre collègue Laetitia Avia en collaboration avec Karim Amellal et Gil Taieb. L’aboutissement de ce travail de près d’un an est le rapport remis au Premier ministre au mois de septembre dernier. C’est le socle de cette proposition de loi. Deux ans après l’Allemagne, mais sans faire de copier-coller de la loi Netzwerkdurchsetzungsgesetz, dite « NetzDG », nous pouvons nous appuyer sur ce rapport et sur l’expérience outre-Rhin pour proposer ce dispositif simple, lisible et que nous voulons efficace.

Le cœur du dispositif – vous le disiez, madame la rapporteure –, c’est l’obligation de retrait sous vingt-quatre heures de tout contenu manifestement illicite et signalé. Cela veut dire que le contenu gris, celui dont on ne sait pas au premier coup d’œil s’il est illicite, n’est pas visé. Nous visons les contenus manifestement illicites, les propos incitant à la haine ou à l’injure discriminatoire. C’est le cœur du dispositif, car c’est cette obligation de retrait qui pèse sur les grands réseaux sociaux qui va les responsabiliser enfin. Et si l’obligation de vingt-quatre heures est le cœur, le signalement est le poumon. Cette procédure de notification se devait donc d’être accessible et simple : c’est le fameux bouton uniformisé qui se présenterait partout de la même façon pour que, d’un réseau social à un moteur de recherche, on retrouve le même design. C’est ensuite le CSA qui régulera. Il aidera les plateformes internet à lutter contre les contenus haineux. Il vérifiera que tout est mis en œuvre pour atteindre les objectifs. Le cas échéant, il sanctionnera. L’échelle des sanctions ira de la mise en demeure jusqu’à l’amende de 4 % du chiffre d’affaires annuel mondial des plateformes.

Par ses amendements, le groupe La République en Marche tentera justement de parfaire le dispositif de notification afin de le rendre plus efficace. Nous proposerons notamment que le bouton soit non seulement facile d’accès mais surtout directement accessible depuis le contenu illicite. Parallèlement, nous voulons que le notifiant soit bien informé de ce qu’il encourt en cas de signalement abusif.

Avec cette proposition de loi, le groupe La République en Marche a clairement la volonté qu’internet ne soit plus une zone de non-droit. Le civisme doit y retrouver sa place, il y va de la liberté d’expression et du pluralisme des expressions. Les réseaux sociaux étant devenus le premier vecteur de communication et d’information du XXIsiècle, sans exagération, il pourrait bien aussi y aller de notre démocratie.

M. Frédéric Reiss. Merci, madame la présidente, de m’accueillir une nouvelle fois en commission des Lois.

Chers collègues, sur internet, le meilleur côtoie le pire. Sa gouvernance est une question centrale pour les droits humains. La proposition de loi cible la lutte contre la haine sur internet, réelle préoccupation au cœur de nos sociétés démocratiques. Les Républicains ont toujours pris position contre le cyberharcèlement et la propagation des messages de haine, d’antisémitisme ou de discrimination en tous genres. Aussi souhaitons-nous que cette proposition de loi puisse apporter des solutions nouvelles, d’autant que 70 % de nos compatriotes disent avoir été confrontés à des propos haineux sur les réseaux sociaux. En commission des Affaires culturelles et de l’éducation, nous avons examiné deux articles dont le texte a été significativement bouleversé par rapport au texte initial. Madame la rapporteure, vous venez de dire que vous avez déposé plusieurs amendements ; c’est peu dire car on constate, en y regardant de près, que c’est quasiment l’ensemble du texte qui s’en trouvera réécrit. C’est donc en séance publique que nous déposerons d’éventuels amendements. Par son importance, le sujet mérite une grande attention, d’autant plus qu’il intéresse non seulement les Français mais aussi nos voisins européens, voire le monde entier. Nous devons donc aborder ces discussions avec un grand sens des responsabilités.

Membre de l’assemblée parlementaire du Conseil de l’Europe, j’ai conscience que ce débat doit s’inscrire également dans le cadre du respect des droits de l’homme et du citoyen. Dans une démocratie, les individus et les organisations, quelles qu’elles soient, doivent pouvoir s’exprimer, diffuser des informations, des opinions, par le biais des réseaux sociaux, mais on atteint très vite les limites de la liberté d’expression dans les domaines controversés : avec l’incitation à la violence, voire des comportements criminels, sous la forme de la propagande du terrorisme ou du djihadisme, avec les discours de haine en raison de la race, de la religion du sexe ou du handicap. La diffusion des contenus haineux connaît incontestablement une progression exponentielle en l’absence de contrôle ou de sanctions.

La proposition de loi a donc pour objectif d’apporter des solutions, même si la question de la définition d’un contenu offensant ou illicite n’est pas tranchée. Le CSA va jouer un rôle déterminant en matière de sanctions, mais aura-t-il les moyens d’agir sur internet et dans quel délai ? Le fait qu’il se voie attribuer une mission préventive et pédagogique avec l’établissement de lignes directrices et de bonnes pratiques me semble une bonne chose.

J’ai noté avec satisfaction que les recommandations du Conseil d’État quant à la procédure à suivre par le CSA avant le prononcé d’une sanction pécuniaire à l’encontre des opérateurs qui n’auront pas respecté leurs obligations ont été suivies. La possibilité de rendre publiques les mises en demeure et sanctions est aussi une bonne proposition.

La question du contrôle et des sanctions liées au déréférencement des contenus haineux est évidemment centrale. Malgré une politique affichée d’autorégulation via une armada de vérificateurs et autres modérateurs, la réalité montre que les grands acteurs du numérique sont loin d’être exemplaires. Leur faire porter la responsabilité de supprimer tout contenu illicite dans un délai de vingt-quatre heures est l’objectif majeur de cette proposition de loi.

Il est important que les entreprises du net et les médias sociaux se conforment aux obligations juridiques auxquelles les soumet chaque État en luttant contre la propagation de contenus illicites par le biais des profils de leurs utilisateurs. C’est pourquoi le travail que nous allons réaliser, qui s’inspire lui-même de la Netzwerkdurchsetzungsgesetz, aidera peut-être à son tour d’autres pays confrontés aux mêmes dérives à légiférer.

Je termine par deux réflexions.

Chez les jeunes, le cyberharcèlement peut rapidement dégénérer. En l’absence de cadre juridique, on voit fleurir des initiatives citoyennes, comme le groupe Facebook francophone « Je suis là », inspiré d’un groupe suédois pour lutter collectivement contre la cyber-haine, une sorte d’anti-« Ligue du LOL » – l’exposé des motifs de la proposition de loi évoque d’ailleurs ladite ligue. Ce n’est pas très satisfaisant d’autant plus que certaines attaques haineuses en ligne proviennent de trolls, avec des messages tendancieux et polémiques.

Deuxième réflexion, un rapport en préparation au Conseil de l’Europe, notamment à la suite des révélations du scandale Cambridge Analytica, pourrait recommander aux États membres la création d’un ombudsman de l’internet, sorte de médiateur qui serait compétent pour qualifier de licites ou d’illicites les contenus diffusés sur internet. Ce pourrait être un outil supplémentaire pour compléter les dispositifs de lutte contre les messages de haine sur internet.

Le groupe Les Républicains aborde favorablement l’examen de cette proposition de l’eau.

Mme Isabelle Florennes. Je veux tout d’abord saluer Mme la rapporteure et la remercier de son travail. Elle n’a cessé de consulter et d’associer à sa démarche les acteurs du secteur et les citoyens français, notamment à travers l’organisation d’une consultation.

Chacun d’entre nous ici a pu, directement ou indirectement, expérimenter le déferlement quotidien de contenus haineux sur les réseaux sociaux. Sous des dehors parfois désincarnés, les propos diffusés à qui voudra bien les lire sont finalement très concrets – il est important que nous l’ayons à l’esprit avant d’examiner le texte. En définitive, nous sommes aujourd’hui à un tournant. Certes, nous nous attaquons à des objets complexes sur lesquels le législateur a finalement peu de prise mais, comme vous le rappelez, madame la rapporteure, dans votre projet de rapport, il n’y a pas de fatalité en la matière. Je crois qu’il ne faut plus, désormais, masquer les petits renoncements derrière de grandes critiques des nouvelles technologies et des nouveaux modes de communication. Ce texte propose précisément de sortir des ambages habituelles et vient compléter l’arsenal juridique disponible pour les utilisateurs quotidiens de ces plateformes. L’angle adopté est intéressant car il s’agit ici d’envisager les plateformes comme étant des catalyseurs de contenus afin de mieux les réguler en les responsabilisant et en responsabilisant les utilisateurs ; c’est là un point d’équilibre qui garantit la protection de la liberté d’expression et empêche ceux qui voudraient la détourner de ses fondements de s’en prévaloir. Bien sûr, certains éléments appellent des précisions, notamment le champ d’application de la proposition de loi, mais je crois que des amendements apportant les précisions souhaitables ont été déposés.

Je veux tout de même vous interroger, madame la rapporteure, sur plusieurs points. N’est-il pas envisageable de dépasser le critère du seul trafic dans la définition des plateformes visées ? Des plateformes de moindre importance accueillent et permettent elles aussi la diffusion de contenus haineux. Ne pouvait-on pas imaginer de viser l’ensemble de ces plateformes ? Par ailleurs, l’article 1er peut soulever plusieurs questions quant à la définition précise des contenus illicites. Quid de la latitude laissée aux opérateurs dans leur appréciation pour déterminer le caractère manifestement illicite ou non des contenus ? Ne devrait-on pas, à terme, réintroduire le juge judiciaire dans ce processus afin de protéger les utilisateurs ? Enfin, du point de vue de la liberté d’expression, comment gérer les éventuelles censures abusives de la part des opérateurs ? La pression des sanctions et du name and shame va pousser les plateformes à systématiser la censure. C’est aussi toute la question des moyens humains absolument nécessaires à la bonne gestion de la modération des plateformes.

Désireux d’apporter sa pierre à l’édifice, le groupe Mouvement démocrate et apparentés a également déposé des amendements. Ils traduisent notre volonté de renforcer certains éléments du texte, notamment en ce qui concerne la responsabilisation des plateformes. C’est tout le sens des deux amendements qui viennent préciser les informations que les opérateurs devront rendre publiques et transmettre au CSA pour que ce dernier les intègre à son rapport annuel.

Nous avons également choisi d’ouvrir ce texte à d’autres problématiques relatives à l’éducation et à la protection des mineurs. Nous vous proposons, par deux amendements dont notre collègue Laurence Vichnievsky est l’auteure, de permettre aux mineurs recevant des contenus abusifs d’avoir recours, sans autorisation préalable, à un signaleur de confiance et de mettre à leur disposition une protection spécifique. En complément de ces réflexions sur la protection des mineurs, souvent plus exposés aux cyberviolences et plus vulnérables, notre collègue Erwan Balanant suggère de renforcer la prévention autour de la haine sur internet en la faisant entrer dans le champ de la mission d’information sur les violences confiée à tous les établissements du premier et du second degrés.

Ainsi, notre groupe souhaite pleinement s’investir dans le mouvement dessiné par votre proposition de loi, déjà engagé au niveau européen par l’Allemagne. Il est plus que temps de traiter effectivement ce sujet.

Je terminerai en évoquant deux initiatives. Des élèves d’une classe de deuxième année de cours moyen (CM2) ont conçu une proposition de loi très intéressante relative à l’éducation des plus jeunes au numérique dans le cadre de l’édition 2019 du Parlement des enfants, et un entrepreneur suresnois Thomas Fauré a développé un réseau social, Whaller, garantissant le respect de la vie privée des utilisateurs. Nos concitoyens prennent donc le problème à bras-le-corps et répondent avec des initiatives pertinentes. Il est grand temps maintenant que le législateur leur emboîte le pas.

M. Hervé Saulignac. Je ne reviendrai pas sur le fond de ce texte. Toute notre énergie et toute notre intelligence doivent être mobilisées pour repousser des expressions qui relèvent non pas de l’opinion, mais du délit, même du délit insupportable.

Sur la forme, madame la rapporteure, je déplore la méthode. Nous avons découvert vos quarante-trois ou quarante-quatre amendements hier seulement, c’est-à-dire la veille de notre examen en commission, des amendements qui déstructurent totalement le texte et passent par pertes et profits une partie du travail que nous avions déjà fait sur ce texte. Je tenais à vous le dire car je crois que vous devez l’avoir à l’esprit.

Sur le fond, même si ce texte va dans le bon sens – le groupe Socialistes et apparentés soutiendra un certain nombre de dispositions –, légiférer n’est pas tout. Il faudra des moyens financiers et humains extrêmement importants, pour la justice, pour la police, pour l’éducation ; c’est même le cœur du sujet.

Par ailleurs, il est assez étonnant de constater que vous avez laissé de côté, dans le texte initial, la justice de la République, alors qu’il y va des libertés publiques, à valeur constitutionnelle. Les plateformes et les autorités administratives ne sont pas garantes du droit et de la justice. Les sanctions et les divergences d’interprétation que peuvent susciter certains propos appellent absolument l’intervention du juge judiciaire. Je pense que nous avons encore à y travailler, nonobstant les amendements que vous avez pu déposer.

M. Michel Zumkeller. Les grands progrès des nouvelles technologies de l’information et de la communication nous ont fait vivre une révolution et mis de plain-pied dans le XXIsiècle. Les possibilités sont désormais immenses de communiquer et de partager. Malheureusement, pris dans cette effervescence, nous n’avons pas anticipé les dérives et nous subissons aujourd’hui une fuite en avant de cet instrument utilisé à mauvais escient par certains. Pour lutter contre ces contenus illicites qui portent atteinte à la dignité et abusent de la liberté d’expression, nous avons pourtant déjà beaucoup légiféré : en 2004, avec la LCEN ; en 2009, avec la mise en place de la Plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS) ; en 2016, avec la loi pour une République numérique ; en 2018, pour lutter contre le cyberharcèlement. S’ajoutent plusieurs directives européennes.

Force est de constater que les difficultés demeurent, que les discours de haine sont exacerbés et peu sanctionnés. Les attaques en raison des origines, de la religion, du sexe ou de l’orientation sexuelle d’autrui tendent à devenir, sur les réseaux sociaux, une banalité. Le racisme et l’antisémitisme prolifèrent. Les lacunes du cadre législatif sont donc réelles. Dans les faits, peu de plaintes sont déposées, peu d’enquêtes aboutissent, peu de condamnations sont prononcées. Tout se déroule comme si internet était une sphère au sein de laquelle tout peut être dit, vu et montré, la possibilité de l’anonymat ne faisant qu’amplifier la sensation d’une immunité choisie. Le défi que nous, législateurs, devons relever est donc toujours de lutter contre ces contenus.

En ce sens, la proposition de loi de notre collègue Laetitia Avia est bienvenue, mais la tâche est ardue : la liberté d’expression est une liberté fondamentale qui ne saurait être compromise. Il est souvent aisé de faire la différence entre un contenu licite et un contenu illicite, mais, parfois, ce n’est pas le cas. Par conséquent, l’autorité administrative ne doit pas bénéficier de trop grandes marges d’appréciation et les contenus ne peuvent être appréciés uniquement par des algorithmes. De plus, la toile offre une multitude de supports et de viralités exponentielles, alors que les contenus doivent pouvoir être identifiés et retirés rapidement. Nous souscrivons donc aux objectifs visés par cette proposition de loi. De même, les opérateurs doivent être mieux responsabilisés, et les sanctions effectives. Cela semble être également ce à quoi tend ce texte. Enfin, l’articulation avec le droit européen est indispensable dans ce domaine qui ne connaît évidemment pas de frontières.

Ainsi, sur un sujet aussi délicat, la rigueur juridique est de mise afin de s’assurer que les droits de chacun sont respectés. C’est le sens des amendements des membres du groupe UDI et Indépendants, dont je tiens à souligner à quel point ils se sont investis. Nous devons nous saisir de cette proposition de loi visant à lutter contre la haine sur internet pour envoyer un signal fort. C’est dans cet esprit que Philippe Dunoyer a déposé des amendements afin de soumettre tous les opérateurs, moteurs de recherche compris, à des mesures visant à lutter contre les contenus haineux sur internet mais aussi contre les incitations à la violence. Un volet éducation absent de la proposition initiale est également nécessaire. L’un de nos amendements vise donc à mettre en place, comme en Nouvelle-Calédonie, un référent en matière de cyberharcèlement dans les établissements du second degré.

Ces amendements permettront de clarifier ou d’enrichir un texte qui souffre de manques et d’imprécisions. Le Conseil d’État les souligne longuement dans l’avis qu’il a rendu. Les nombreuses auditions ont également mis en avant les problèmes posés par la rédaction actuelle, parfois peu claire ou attentatoire aux libertés. Je crois d’ailleurs que beaucoup d’articles seront modifiés par vos amendements, madame la rapporteure. Je ne peux que m’associer à la remarque de notre collègue sur nos conditions de travail : nous dénonçons chaque fois ces amendements de dernière minute et chaque fois on nous répond que cela s’arrangera, mais chaque fois cela recommence ! C’est quand même très préjudiciable au bon déroulement de nos travaux.

Ainsi, si nous souscrivons aux objectifs visés, nous attendons de voir quel sera le texte issu des travaux de notre commission.

Mme la présidente Yaël Braun-Pivet. Les amendements déposés par la rapporteure tiennent compte de l’avis du Conseil d’État. Il eût été bien malheureux que nous n’en tenions pas compte. Par ailleurs, ils ont été déposés et diffusés jeudi dernier et non pas hier, contrairement à ce qui a été affirmé. Vous avez donc eu largement le temps d’en prendre connaissance.

Mme Danièle Obono. Internet est un espace d’expression publique extrêmement important en raison du nombre absolument incroyable de personnes qui s’y expriment et par son caractère, parfois, d’outil d’émancipation et de mobilisation. Nous l’avons vu au cours des dernières années, notamment en Égypte, où il a permis aux citoyennes et aux citoyens de s’organiser. Dernièrement, les mouvements comme #Balancetonporc ou #MeToo ont permis de dénoncer la violence systémique dont les femmes sont victimes.

C’est aussi un lieu d’expression où des personnes, notamment les plus vulnérables, les femmes, les personnes LGBT et les personnes racisées, tout en trouvant parfois, en dehors des canaux habituels, des espaces de discussion et d’émancipation, sont confrontées aux mêmes violences et aux mêmes rapports de force sans les cadres de la loi ou sans que chacun y ait conscience de ses droits et de ses devoirs. Il est donc important d’en débattre.

Malheureusement, le texte proposé, tel qu’il est conçu, expose nos libertés fondamentales à des risques mal mesurés, mal maîtrisés. Il témoigne en outre d’une analyse qui nous semble incomplète, partielle et biaisée des problématiques de discrimination sur internet.

En matière de garanties démocratiques, rappelons que la Convention européenne des droits humains en son article 10 et la Déclaration des droits de l’homme et du citoyen de 1789 en son article 11 protègent la liberté d’opinion et la liberté d’expression qui en découle. La Cour européenne des droits humains exige une prévisibilité et une proportionnalité des blocages, et une protection renforcée de la parole à visée politique et militante. Or le texte actuel ne prévoit pas les garanties nécessaires. Le champ des plateformes visées est bien trop large. Ainsi, La Quadrature du Net souligne que l’exigence de retrait de contenus en moins de vingt-quatre heures fait peser une obligation disproportionnée sur les plateformes non commerciales que beaucoup de personnes consultent, comme Wikipedia, qui n’a pas les moyens de Facebook.

Ce défaut du texte initial est aggravé par l’amendement CL90 de la rapporteure, qui élargit encore le champ des sites concernés aux sites de référencement de contenus proposés ou mis en ligne par des tiers, tandis que l’amendement CL91 substitue à un seuil de nombre de connexions un simple seuil d’activité. Par un autre amendement, elle étend le champ des motifs de blocage possible, sans que des garanties substantielles soient données quant à la possibilité, pour les personnes concernées, de contester un sur-blocage. Ce sont donc maintenant des opérateurs privés qui vont déterminer, sous peine de sanctions pécuniaires, quels contenus relèvent de l’apologie des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage, des crimes et délits de collaboration avec l’ennemi, des crimes d’atteinte volontaire à la vie ou à l’intégrité physique, d’agressions sexuelles, de vol aggravé, d’extorsion, de destruction, dégradation ou détérioration volontaire dangereuse pour les personnes. Cela me semble tout de même assez discutable. De notre point de vue, cette multiplication des motifs de blocage est une incitation au sur-blocage et une multiplication des possibilités de censure par une plateforme privée à qui des prérogatives sont ainsi déléguées. Rappelons que le pouvoir économique de ces plateformes privées à qui l’on confie un rôle de contrôle de la parole publique est parfois comparable au produit intérieur brut de certains États !

Du point de vue du groupe La France insoumise, il est possible de protéger les victimes tout en garantissant la liberté d’expression, par exemple en limitant le pouvoir des GAFA tout en développant plus d’outils. Nous avions ainsi déposé un amendement sur la question de l’interopérabilité. Il a été jugé irrecevable, mais je crois que ce débat sera rouvert – il est nécessaire.

Par ailleurs, la problématique de la lutte contre les discriminations sur internet n’est pas abordée. Nous considérons que les agressions verbales discriminantes méritent des réponses judiciaires. Il y a un problème en termes de prise en charge et de formation des agents de la justice mais aussi de la police. Ces moyens n’étant pas donnés aux services publics dont la responsabilité est de traiter ce type de situations, cette proposition de loi n’est malheureusement, de notre point de vue, qu’un texte cosmétique, en même temps que dangereux pour la liberté d’expression.

M. Stéphane Peu. Au sein du groupe de la Gauche démocrate et républicaine, nous étions plutôt favorables à ce texte, mais nous constatons qu’il n’est absolument pas stabilisé, comme en témoigne le nombre d’amendements déposés à la dernière minute. Pour ce qui nous concerne, nous réserverons nos amendements pour la séance publique et je me contenterai de quelques remarques générales.

Ce texte n’est pas fait pour nous faire plaisir et il ne doit pas être redondant par rapport à la législation existante, je pense notamment à la loi sur la liberté de la presse ou à la loi de 2004 pour la confiance dans l’économie numérique. Nous regrettons que l’étude d’impact n’ait pas été plus poussée sur le sujet, ce qui aurait peut-être permis d’éviter un accueil plutôt frais de la part de certaines organisations et institutions : le Conseil d’État, le Conseil national du numérique, le Conseil national des barreaux, des associations et des syndicats. Si votre étude d’impact avait mieux pris en compte toutes leurs observations, elle aurait permis d’éviter ces amendements de dernière minute qui vont faire tomber ceux des parlementaires.

Sur le fond, l’article 1er de la proposition de loi s’inspire beaucoup de la législation allemande qui est en vigueur depuis un an et peut donc faire l’objet d’une première évaluation. En fait, son bilan est assez mitigé. Les observateurs allemands font état de l’excès de zèle que l’on pouvait redouter de la part des plateformes : pour éviter de laisser passer un contenu illicite, elles sont tentées de filtrer très largement au point que 80 % des contenus retirés ne sont finalement pas réellement illicites.

Quelle place ce texte réserve-t-il au juge ? Dans un État de droit, personne n’est mieux placé que le juge pour dire ce qui est légal ou illégal, licite ou illicite. Au cours de cette législature, ce n’est pas la première fois que l’on constate un affaiblissement du pouvoir du juge en la matière. Ce n’est pas un mince problème que cette tentation de transférer au privé, par petites touches, le soin de dire le droit en lieu et place du juge.

Les plateformes, auxquelles vous proposez de donner beaucoup de responsabilités et de pouvoir, prospèrent sur le modèle de l’économie de l’attention. Bien souvent, ce ne sont pas les internautes qui sollicitent et répandent des contenus haineux. En réalité, ce sont les algorithmes de ces géants que sont Twitter ou Facebook qui les propagent. Vous avez sans doute constaté, comme moi, que, par exemple, on vous met sous les yeux les vidéos ou les propos du raciste et antisémite Soral, sans que vous l’ayez demandé. Si vous regardez bien, vous verrez que ce sont les algorithmes qui vous imposent ces vues et non pas les gens qui sont sur les réseaux sociaux. Selon le principe de ces entreprises privées, ces algorithmes déployés cherchent par tous les moyens à générer de l’audience synonyme de valeur. C’est par ce biais que se répandent les propos racistes et haineux, dans cette recherche éperdue de la valeur et du profit. Il ne faut donc pas confier la régulation à ces plateformes qui obéissent à des logiques non fondées sur l’intérêt général.

Nous étions d’emblée plutôt favorables à ce texte mais nous chercherons à l’amender en séance pour qu’il soit plus respectueux de l’État de droit.

M. François Pupponi. Au groupe Libertés et Territoires, nous attendions ce texte avec beaucoup d’impatience car nous estimons qu’il faut légiférer le plus vite possible dans ce domaine. Toutefois, il ne faut pas confondre vitesse et précipitation.

Les amendements de la rapporteure tendent à montrer que le texte n’était pas abouti. Pour être parlementaire depuis 2007, je connais un peu la technique et je lui trouve aussi un inconvénient : ces amendements risquent de faire tomber tous les nôtres et de supprimer le débat. Madame la présidente, nous autoriserez-vous à défendre nos amendements qui risquent de tomber pour que nous puissions au moins en débattre ? Je le demande gentiment, sans polémique aucune. Cela se fait dans toutes les commissions, mais je pose quand même la question.

J’en arrive maintenant à la vraie question : peut-on faire confiance aux plateformes pour effectuer le travail qu’on leur demande ? Au vu d’expériences passées, je ne suis pas sûr que les sanctions prévues les feront trembler. N’aurons-nous pas intérêt à renforcer le pouvoir du juge judiciaire pour que nous puissions créer une sanction réellement efficace contre la diffusion de tels propos ?

Quoi qu’il en soit, nous participerons activement et avec beaucoup d’intérêt au débat sur ce texte.

Mme la présidente Yaël Braun-Pivet. Madame la rapporteure va répondre aux orateurs des groupes.

Mme Laetitia Avia, rapporteure. Certains de vos commentaires portent sur la forme, d’autres sur le fond.

En ce qui concerne la forme, le dernier orateur nous a invités à ne pas confondre vitesse et précipitation, et certains tweets évoquent une impréparation de la rapporteure. Je travaille sur ce texte depuis un an et demi. Je l’ai rédigé. J’assume pleinement le fait de ne pas écrire des lois tous les quatre matins... J’assume pleinement d’avoir travaillé au plus près du Conseil d’État pour faire un texte solide et juridiquement viable qui pourra atteindre son objectif.

J’en viens au dépôt des amendements, sujet soulevé notamment par Mme Obono et M. Saulignac. Un rapporteur peut déposer des amendements jusqu’à la dernière minute. Par respect du Parlement, j’ai fait le choix de les déposer jeudi dernier.

M. Hervé Saulignac. Ils étaient déposés mais inaccessibles !

Mme Laetitia Avia, rapporteure. Ils ont été rendus publics ce jour-là. Vous pouviez les sous-amender jusqu’à ce matin. Vous aviez pratiquement une semaine pour appréhender ces écritures et les modifier.

Mme George Pau-Langevin, ici présente, a suivi les auditions avec énormément d’assiduité. Elle peut témoigner du fait qu’à chacune des auditions, je rendais compte des échanges que nous avions avec le Conseil d’État et des évolutions prévisibles du texte, afin que chacun puisse s’y préparer. Je pense avoir fait le maximum possible en la matière. Que l’on appelle cela de l’impréparation, je ne peux que m’en désoler.

Sur le fond, il est important de rappeler un principe de base contenu dans l’article 6 de la LCEN : les plateformes ont d’ores et déjà une obligation de prompt retrait des contenus manifestement illicites. Nous ne créons pas cette obligation mais nous indiquons dans quel délai ce retrait doit être opéré. Le caractère manifestement illicite résulte d’une réserve d’interprétation du Conseil constitutionnel. En combinant ces deux éléments, nous prévoyons que les plateformes devront retirer les contenus manifestement illicites de manière prompte, c’est-à-dire dans un délai de vingt-quatre heures. Nous précisons les conditions d’application de cette obligation bien délimitée dans le temps.

Le juge n’a jamais été exclu du dispositif. Dans la première version du texte, il n’apparaissait peut-être pas de manière suffisamment explicite et claire, ce qui a suscité des débats. Dès les premiers mots pourtant, il était indiqué « sans préjudice des dispositions de l’article 6 de LCEN », lesquelles renvoient à la responsabilité judiciaire. Après réécriture, le juge et le délit sont nettement plus affirmés. C’est le juge qui sanctionne les plateformes pour non-retrait de contenus manifestement illicites.

Nous aurons l’occasion de débattre de la question du seuil de trafic qui a été évoquée.

Quant à la loi allemande, j’assume le fait de l’avoir prise comme point de départ des travaux mais je vous propose un système différent. La loi allemande a un champ d’application très vaste et elle ne sanctionne pas la sur-censure et les retraits excessifs. Cette proposition de loi a un champ extrêmement limité et elle sanctionnera les retraits excessifs.

Comme vous, je pense qu’il est nécessaire de travailler à l’échelle européenne – ce qui implique la création d’un cadre harmonisé – et de développer un volet éducatif. Je serai à votre écoute si vous faites des propositions. Mme Florennes signalait que le thème du Parlement des enfants de cette année était le bon usage du numérique, ce qui me paraît de très bon augure.

Mme la présidente Yaël Braun-Pivet. Les autres orateurs inscrits ont maintenant deux minutes chacun pour s’exprimer.

Mme Emmanuelle Ménard. Je vous remercie, madame la présidente, pour les deux minutes que vous m’accordez. Du coup, je vais aller très vite et passer sur les précautions d’usage : personne ne peut évidemment s’opposer à la lutte contre la haine sur internet ; on ne peut évidemment pas fermer les yeux sur la propagation – et même la généralisation – des propos haineux sur la toile. Votre texte est le bienvenu pour agir en ce sens, même si je ne suis pas absolument convaincue de la nécessité de passer par le vecteur législatif pour ce faire.

Ce qui est problématique, en revanche, c’est l’article 1er de votre proposition de loi. Vous demandez aux opérateurs de plateforme en ligne d’être davantage responsables en les obligeant à retirer les contenus haineux sous vingt-quatre heures maximum. Très bien. Mais dans l’absolu, cela pose une question difficile à trancher : ces opérateurs sont-ils les mieux placés pour exercer cette mission a priori quand il est déjà parfois si difficile pour les juges de le faire a posteriori ? Quelle légitimité auront ces opérateurs à le faire ? Avec cet article 1er, vous prenez le risque d’autoriser ces plateformes à exercer une certaine forme de censure. Vous le savez, les zones de gris sont toujours très difficiles à appréhender. Les plateformes ne sont probablement pas les mieux placées pour le faire. C’est un véritable risque que vous faites peser sur nos libertés fondamentales et en premier lieu la liberté d’expression.

Quant à l’alinéa 2 de votre article 1er, il pose deux problèmes. Tout d’abord, en prononçant une sanction pécuniaire basée sur le chiffre d’affaires de la plateforme fautive, que faites-vous du respect du principe de proportionnalité entre la sanction et l’infraction ? Ensuite, l’indexation de l’amende sur le chiffre d’affaires pose problème puisqu’elle ne peut être justifiée que par un lien entre l’infraction et le chiffre d’affaires qui en est retiré, ce qui n’est manifestement pas le cas ici.

Le Conseil constitutionnel a déjà eu l’occasion de censurer de nombreux dispositifs de sanctions financières dont le plafond était calculé en pourcentage du chiffre d’affaires, dès lors qu’il n’y avait pas de lien rationnel entre le comportement prohibé et les modalités de calcul du plafond de l’amende envisagée. Je fais notamment référence à une décision du 4 décembre 2013. Le Conseil constitutionnel a jugé que lorsque le maximum de la peine est établi en proportion du chiffre d’affaires de la personne morale prévenue et que le législateur a retenu un critère de fixation du montant maximum de la peine encourue qui ne dépende pas du lien entre l’infraction et le chiffre d’affaires, cela est susceptible de revêtir un caractère manifestement hors de proportion avec la gravité de l’infraction constatée.

Certains juristes considèrent en outre qu’une telle disposition serait contraire à l’article 8 de la Déclaration des droits de l’homme et du citoyen. Il me semble donc qu’en l’état, ce texte ne permettra pas d’atteindre l’objectif qu’il se donne, et qu’il mérite d’être retravaillé en séance.

M. Arnaud Viala. Je voudrais intervenir sur trois points.

Le premier, qui a été largement abordé par les précédents orateurs, concerne l’éducation. Sur mon territoire comme ailleurs, des classes ont travaillé dans le cadre du Parlement des enfants sur les dangers du numérique. J’ai passé du temps avec deux de ces classes. J’ai pu constater à quel point les plus jeunes ne sont pas conscients des dangers qu’ils courent lorsqu’ils sont sur le web. Il est donc nécessaire, en effet, d’ajouter ce volet à la proposition que vous défendez, si nous voulons que les générations futures s’emparent du problème et si nous voulons éviter d’en arriver au stade où, malheureusement, nous sommes obligés de légiférer.

Deuxième sujet de préoccupation : la capacité du CSA à faire face à l’afflux de plaintes qui vont lui être soumises. J’attends des précisions car, à mes yeux, il n’y aurait rien de pire que des délais de traitement très longs, donnant à penser qu’il y a finalement une quasi-impunité.

Mon troisième sujet de préoccupation concerne l’oubli. Lorsqu’une publication a été faite sur un réseau social ou sur internet, elle laisse toujours une trace même si elle a été retirée dans des délais très brefs. Les dispositions que vous proposez dans votre texte sur le plan technique, qui consistent à mettre en évidence un bouton sur lequel on va pouvoir appuyer pour faire retirer la publication, n’abordent pas ce sujet. À mon avis, il faut forcer les différentes plateformes à trouver les moyens techniques de faire complètement disparaître toute trace des contenus condamnés et retirés.

M. Philippe Gosselin. Pour ma part, je voudrais saluer le travail effectué par la rapporteure depuis de longs mois. Personne ne vous fait de mauvais procès d’intention, chère Laetitia, mais les interventions successives montrent qu’il reste des problèmes à résoudre.

Nous avons eu des difficultés à déposer des amendements, sachant qu’il y aurait un gros travail de réécriture du texte. C’est ce qui s’est produit après l’avis du Conseil d’État, ce qui ampute un peu les capacités de travail de notre commission. Même si je ne vous en fais pas grief, je constate qu’une partie du travail va se faire dans l’hémicycle, ce qui limite les capacités d’échange. Vous avez d’ailleurs souligné vous-même que le volet pénal serait vu avec la garde des Sceaux en séance. Nous allons donc manquer un peu de recul.

Or nous sommes tous d’accord sur la philosophie générale du texte : nous ne pouvons pas laisser prospérer des propos haineux sur internet. Comme Arnaud Viala vient de le rappeler, le Parlement des enfants a travaillé sur ce sujet qui traverse toutes les couches de la société. Il faut se donner les moyens de bannir cette haine mais sans restreindre la liberté d’expression, le droit à la différence et la liberté d’opinion. Il ne faut pas confondre opinion et délit.

Tout cela nous donne le sentiment d’un texte inabouti qui reste à parfaire en veillant au contrôle par le juge qui permettrait de lever certaines ambiguïtés. L’équilibre actuel est sans doute instable mais c’est avec vigilance et sens des responsabilités que nous allons examiner ce texte. C’est la position de notre groupe et de bon nombre d’entre nous. Notre attente réelle, qui ne vaut pas blanc-seing, correspond à celle de la société.

Mme George Pau-Langevin. En effet, ce texte est important et attendu. Depuis des années, nous assistons à un déferlement de propos haineux sur internet et nous avons l’impression que notre société n’est pas prête à prendre les mesures indispensables pour les endiguer. La liberté d’expression en France n’est pas sans limite. Ni le droit français ni les textes européens n’autorisent les propos racistes, antisémites ou négationnistes. Ce n’est pas une question de liberté d’expression.

La loi de 1972 contre le racisme était efficace mais elle est devenue quasiment inopérante sur internet en raison de la multiplication de messages en tout genre et de l’importance d’aspects techniques que les associations et même les parquets ne maîtrisent pas. Nous avons tenté d’y remédier en 2004, en obligeant les plateformes à retirer les contenus odieux, mais cette loi n’est pas suffisamment efficace compte tenu de l’absence de sanctions.

Nous sommes très favorables à l’idée d’accroître l’efficacité de la lutte contre ce déferlement de haine. Nous pensons d’ailleurs qu’il était urgent de se saisir du problème et d’essayer d’avancer. Le texte n’est pas abouti et il est en train de se peaufiner.

C’est une bonne idée de prévoir des sanctions administratives pour obliger les plateformes à retirer immédiatement les contenus manifestement illicites. Il faut préciser la place du juge qui intervient ensuite pour gérer les difficultés ou les interprétations divergentes. Il faut aussi préciser la place des associations qui sont très efficaces dans la lutte contre le racisme et les propos odieux.

M. Alexis Corbière. Merci, madame la présidente, de m’accueillir dans votre commission où je voulais intervenir même si Danièle Obono et d’autres collègues ont déjà dit beaucoup de choses.

Madame la rapporteure, je ne doute pas que vous travaillez sur le sujet depuis longtemps et je ne cherche pas la controverse. Admettez tout de même que vos amendements, que vous avez certes déposés jeudi mais dont nous n’avons pris connaissance qu’en début de semaine, remettent en cause tout le travail accompli. Nous les découvrons la veille alors que nous sommes sur d’autres dossiers. Cela complique sacrément le travail concernant ces matières complexes qui nécessitent des rencontres et des échanges avec de nombreuses associations.

Pour ma part, j’aimerais que vous m’éclairiez sur l’article 6 qui prévoit en quelque sorte le remplacement de l’autorité judiciaire par une autorité administrative aux capacités étendues. Comment envisagez-vous la relation entre les deux autorités ? L’application de ce texte va se heurter à des problèmes qu’il ne règle pas et qui le dépassent : les conditions très difficiles dans lesquelles exercent les juges et l’engorgement du système judiciaire. Nous pouvons multiplier les textes mais si les magistrats sont écrasés de travail, nous en revenons toujours au point de départ. Comme le soulignait notre collègue Pau-Langevin, il existe déjà des lois mais il est difficile de les faire appliquer. Quoi qu’il en soit, j’aimerais avoir des précisions sur cet article 6 qui est assez peu compréhensible et sans doute contestable sur le fond.

M. Jean-Louis Masson. À mon tour, je voudrais reconnaître le travail de notre collègue Laetitia Avia que je ne mets nullement en cause. Ce texte recèle néanmoins un danger potentiel : pour ne pas encourir les sanctions financières prévues, les grands opérateurs pourraient être tentés d’appliquer le principe de précaution et censurer des publications considérées à tort comme haineuses.

Je vais vous donner deux exemples qui montrent la difficulté d’établir cette frontière. Il y a douze ans, lors du procès retentissant des caricatures de Mahomet, le tribunal correctionnel de Paris avait retenu, en première instance, la qualification d’injures envers les musulmans. Par la suite, cette analyse avait été infirmée par la cour d’appel. En 2018, il a fallu aller jusqu’en cassation pour trancher la qualification à donner à l’expression Fuck Church peinte sur la poitrine dénudée de plusieurs militantes de Femen. C’est dire s’il est compliqué d’établir la qualification de propos haineux.

Or cette proposition de loi apporte une réponse préoccupante. Elle donne aux grands opérateurs la capacité de se prononcer sur la légitimité ou le caractère haineux d’une publication, sans intervention du juge. Cette disposition se heurte au respect des droits fondamentaux, à la Déclaration des droits de l’homme et du citoyen de 1789 et à la loi du 29 juillet 1881 sur la liberté de la presse. Comme certains collègues, je pense qu’il convient de redéfinir avec beaucoup plus de précision le rôle du juge – garant des libertés individuelles – et celui du CSA.

Mme la présidente Yaël Braun-Pivet. Comme il n’y a pas d’autres demandes de prise de parole, je vais demander à Mme la rapporteure de répondre si elle le souhaite, puis nous examinerons les articles de la proposition de loi.

Mme Laetitia Avia, rapporteure. Nous aurons l’occasion de débattre sur chacun des articles mais je vais répondre aux questions très concrètes qui m’ont été posées.

Quel sera le rôle du CSA ? Il interviendra tout le temps, en fait. En amont, il émettra des recommandations, tracera des lignes directrices, préconisera de bonnes pratiques. Les grandes plateformes ont un recueil de jurisprudences puisqu’elles ont déjà une obligation de retrait des contenus manifestement illicites. Le CSA prendra ses responsabilités en transmettant ses recommandations aux plateformes pour qu’elles sachent ce qu’elles ont à retirer. Il aura aussi un rôle de supervision des plateformes. Il sera l’interlocuteur référent sur le territoire national et il sera en lien avec les plateformes pour les accompagner. N’oublions pas que les dispositions ne s’appliquent qu’aux contenus manifestement illicites et pas du tout aux contenus gris pour lesquels il n’y a pas ce délai de vingt-quatre heures même si l’obligation de traitement et de retrait demeure.

Qu’est-ce qui caractérise un contenu manifestement illicite ? La question se pose déjà dans le cadre actuel. Les contenus manifestement illicites sont ceux qui ont déjà été qualifiés comme tels. La jurisprudence est assez dense : 269 arrêts traitent des injures racistes sur internet, par exemple. Tout ce qui est plus sensible et demande une interprétation n’entre pas dans le champ du texte.

Le dispositif prévu à l’article 6 concerne les sites miroirs. Nous nous situons dans le cas où un site a fait l’objet d’une interdiction judiciaire, c’est-à-dire que le juge a demandé au fournisseur d’accès ou au moteur de recherche de le déréférencer. Si un site miroir est créé, permettant d’accéder exactement au contenu déjà jugé illicite, l’autorité administrative pourra demander au fournisseur d’accès ou au moteur de recherche d’effectuer ce même blocage. L’autorité administrative, c’est l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), qui met sa plateforme PHAROS à la disposition des internautes. Cette disposition permet d’éviter de refaire une procédure et de repasser devant le juge pour chaque site miroir créé comme c’est le cas actuellement. En cas de contestation, il y a évidemment un recours judiciaire. Le juge est présent au début pour interdire un site et toutes ses éventuelles duplications, et il intervient en cas de contestation. Le juge est donc bien là en amont et en aval de la procédure.

Mme la présidente Yaël Braun-Pivet. Nous allons commencer l’examen des articles de la proposition de loi.

Avant l’article 1er

La Commission examine l’amendement CL87 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement est le premier d’une série d’amendements visant à structurer la proposition de loi en cinq chapitres pour lui donner une meilleure lisibilité comme je vous l’ai expliqué dans mon propos liminaire. Ce premier chapitre porte sur l’obligation de retrait renforcée des contenus haineux en ligne.

La Commission adopte l’amendement. Un chapitre Ier est inséré.

Article 1er : Obligation de retrait en vingt-quatre heures des contenus manifestement haineux en ligne

La Commission est saisie de l’amendement CL88 de la rapporteure.

Mme Laetitia Avia, rapporteure. Toujours dans cet objectif de structuration, l’amendement propose de créer un nouvel article 6-2 après l’article 6-1 de la LCEN, qui porte sur les dispositions liées à l’obligation de retrait en vingt-quatre heures.

La Commission adopte l’amendement.

Puis elle examine l’amendement CL142 de M. Philippe Dunoyer.

Mme Laetitia Avia, rapporteure. Cet amendement vise à élargir considérablement le champ du texte à tous les opérateurs de retrait et, en plus, il enlève la notion de manifestement illicite pour les contenus. Demande de retrait ou, à défaut, avis défavorable.

Mme Laure de La Raudière. Je ne le retire pas parce que ce n’est pas moi qui l’ai déposé. En revanche, je retire ma signature car je ne l’avais pas compris comme ça.

La Commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CL89 de la rapporteure.

Puis elle examine l’amendement CL229 de M. Thomas Rudigoz.

M. Thomas Rudigoz. Par le présent amendement, je vous propose d’étendre le spectre de cette proposition de loi aux plateformes de financement participatif en ligne telles que Leetchi ou Le Pot commun. Ces plateformes se sont en effet largement démocratisées et elles sont devenues un moyen comme un autre de diffuser des idées, hélas parfois haineuses, sur internet. En décembre dernier, PHAROS a ainsi ouvert une procédure contre le créateur d’une cagnotte Leetchi destinée à financer un tueur à gages pour éliminer le Président de la République, ce qui peut être qualifié juridiquement d’incitation à commettre un crime.

La loi permet déjà de sanctionner ce type de cagnotte mais l’intérêt d’inclure les plateformes de financement participatif dans le champ de cette proposition de loi serait de les soumettre à l’obligation de retirer la cagnotte litigieuse dans un délai de vingt-quatre heures après signalement.

Afin d’intégrer les plateformes de financement participatif dans ce nouveau dispositif, je vous propose de reprendre les termes de l’article L. 111-7 du code de la consommation pour étendre l’application de l’article 1er aux opérateurs mettant en relation plusieurs parties en vue de la fourniture d’un service ou de l’échange d’un contenu et pas seulement en vue du partage de contenus publics.

Je précise, madame la rapporteure, qu’il s’agit d’une des trente-deux recommandations que nous avons formulées dans le cadre du rapport d’enquête sur la lutte contre les groupuscules d’extrême droite en France, qui vient d’être présenté. Nous devons en effet clarifier le régime de responsabilité des plateformes de financement participatif à l’égard des actions qu’elles permettent de financer.

Mme Laetitia Avia, rapporteure. Cet amendement étend le champ d’application du texte aux plateformes de financement participatif mais aussi à l’ensemble des places de marché, dites marketplaces. Le Conseil d’État a débattu du champ d’application complet du texte, je vous le dis en toute transparence. Il a estimé qu’il fallait l’étendre aux moteurs de recherche mais pas aux plateformes qui font de l’échange de biens et de services pour deux raisons : cette obligation extrêmement renforcée doit répondre à un véritable besoin qui n’a pas encore été identifié pour ce type d’opérateurs ; une telle extension du nombre d’acteurs soumis à cette obligation renforcée élargirait du même coup le champ de régulation du CSA, au risque de nuire à l’efficacité de ce dernier. Demande de retrait ou, à défaut, avis défavorable.

M. Thomas Rudigoz. Je n’ai pas eu connaissance de cet avis du Conseil d’État. Je souhaiterais que nous puissions avoir un temps d’échange avant l’examen du texte dans l’hémicycle car ces plateformes de financement participatif posent un vrai problème. L’exemple que je vous ai cité n’est pas anodin. Il est peut-être possible de faire évoluer le texte en prenant des précautions pour tenir compte de la position du Conseil d’État. À ce stade, je souhaiterais maintenir mon amendement.

La Commission rejette l’amendement.

Puis elle examine l’amendement CL90 de la rapporteure.

Mme Laetitia Avia, rapporteure. Dans la continuité de ce que je viens d’indiquer à Thomas Rudigoz, cet amendement tire la conséquence de la recommandation du Conseil d’État d’intégrer les moteurs de recherche dans le champ d’application du texte en respect du principe d’égalité.

M. Frédéric Reiss. Cet amendement propose en effet d’élargir le plus possible le champ d’application du texte et de ne pas épargner les moteurs de recherche. Certains collègues l’ont d’ailleurs souligné dans leurs interventions. Les prestataires de services, les fournisseurs d’accès à internet ou les hébergeurs invoquent souvent le caractère un peu technique, souvent automatique, voire passif, de leur métier pour rejeter toute responsabilité concernant le contenu qu’ils se bornent à transmettre et à stocker. Comment être sûr qu’ils ont la connaissance effective du caractère illicite des contenus ?

Mme Laetitia Avia, rapporteure. C’est toujours après signalement. Aucune obligation ne s’applique hors signalement.

La Commission adopte l’amendement.

Puis elle examine, en discussion commune, l’amendement CL91 de la rapporteure et l’amendement CL69 de Mme George Pau-Langevin.

Mme Laetitia Avia, rapporteure. Mon amendement réécrit les dispositions concernant le seuil en tenant compte de commentaires faits dans le cadre des auditions sur les difficultés que pouvait poser la référence explicite à un nombre de connexions. J’ai préféré une rédaction plus large qui permet aussi plus d’agilité.

Mme George Pau-Langevin. Pour notre part, nous souhaitions que soit fixé un seuil de 500 000 connexions mensuelles pour élargir la possibilité d’utiliser ce texte. Dans un autre amendement, nous proposons une référence trimestrielle.

Mme Laetitia Avia, rapporteure. Je suis défavorable à l’amendement CL69.

La Commission adopte l’amendement CL91.

En conséquence, l’amendement CL69 tombe, ainsi que l’amendement CL48 de Mme Laurence Vichnievsky.

La Commission est saisie de l’amendement CL49 de Mme Laurence Vichnievsky.

Mme Laurence Vichnievsky. Nous proposons de supprimer une partie de l’alinéa 1er , qui mentionne « l’intérêt général attaché à la lutte contre les contenus publiés sur internet et comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ».

À mon sens, ce membre de phrase relève davantage de l’exposé des motifs que de la description du dispositif prévu par le législateur pour atteindre l’objectif. C’est un amendement rédactionnel mais il me semble que le législateur doit bien délimiter ce qui relève du dispositif et ce qui relève de l’exposé des motifs.

Mme Laetitia Avia, rapporteure. Je pense, au contraire, que la précision est nécessaire. D’autres dispositions de la LCEN, au 7 du I de l’article 6 notamment, explicitent ce dont il s’agit. La rédaction répond aussi à un objectif de clarté et de lisibilité de la loi. Il est important de vraiment dire ce que sont ces contenus haineux, une fois au moins dans l’article 1er, pour bien circonscrire le champ d’application du texte.

La Commission rejette l’amendement.

Puis elle se saisit de l’amendement CL253 de Mme Laure de La Raudière.

Mme Laure de La Raudière. Pour bien préciser ce qui qualifie la nature des contenus visés par l’article 1er, je propose d’écrire « manifestement illicites » après le mot « contenus ».

Mme Laetitia Avia, rapporteure. Cet article 1er tient en une phrase qui dit expressément que, parmi ces contenus, seuls ceux « contrevenant manifestement » aux infractions listées seront concernés par l’obligation de retrait en vingt-quatre heures. Demande de retrait ou, à défaut, avis défavorable.

La Commission rejette l’amendement.

La Commission adopte l’amendement CL299, de précision, de la rapporteure.

Puis elle en vient à l’amendement CL283, toujours de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement vise à intégrer dans le champ d’application du texte les contenus provoquant à la commission d’actes de terrorisme ou faisant l’apologie du terrorisme.

Cette mesure ne figurait pas dans le texte initial, notamment parce que le sujet fait l’objet de discussions à l’échelle européenne. Il m’a semblé nécessaire d’intégrer ces contenus parmi ceux qui imposent une obligation de retrait sous vingt-quatre heures, c’est-à-dire un retrait effectué après signalement par tout utilisateur, dans la mesure où le règlement européen va prévoir un retrait en une heure, mais après un signalement par des autorités.

Cette disposition nous permet d’avoir un régime complet pour les contenus à caractère terroriste. Une fois que le règlement européen sera adopté, ils devront être retirés en une heure après le signalement par une autorité. En l’absence de signalement par une autorité, ils devront l’être en vingt-quatre heures s’ils ont été signalés par un internaute.

M. Frédéric Reiss. Je voudrais remercier la rapporteure pour cet amendement qui est quasiment identique à ceux que Mme Anthoine et Mme Bazin-Malgras avaient présentés en commission des Affaires culturelles et de l’éducation. Nous en avions discuté avec la rapporteure pour avis. Je suis content que cette idée soit reprise par la rapporteure. Je n’ai pas le droit de vote dans cette commission, mais suis très favorable à son amendement.

La Commission adopte l’amendement.

Puis elle examine l’amendement CL40 de M. Jacques Marilossian.

M. Jacques Marilossian. Cet amendement propose d’élargir les contenus illicites publiés sur internet à ceux portant atteinte à la dignité de la personne humaine.

En effet, le respect de la dignité humaine me semble tout aussi primordial que la liberté d’expression.

La loi du 3 septembre 1986 relative à la liberté de communication a prévu que l’exercice de cette liberté par les diffuseurs soit limité dans certains cas, précisément par le respect de la dignité humaine. Dans une décision de juillet 1994, le Conseil constitutionnel a déduit le principe à valeur constitutionnelle de sauvegarde de la dignité de la personne humaine contre toute forme d’asservissement et de dégradation de la première phrase du préambule de la Constitution de 1946. Enfin, dans une décision du 27 octobre 1995, le Conseil d’État rappelle que le respect de la dignité de la personne est une des composantes de l’ordre public. Il est donc établi que le respect de la dignité humaine prévaut sur la liberté d’expression.

Par ailleurs, dans une décision-cadre de novembre 2008 sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal, le Conseil de l’Union européenne invite les États membres à prendre « les mesures nécessaires pour faire en sorte que les actes intentionnels soient punissables », s’agissant entre autres de l’apologie, de la négation ou de la banalisation grossière et publique des crimes de génocide. En effet, la négation et l’apologie des crimes de génocide ou des crimes contre l’humanité ne sont pas des délits d’opinion ordinaires, dans la mesure où, procédant de la négation d’autrui, ils constituent une atteinte à la dignité de la personne humaine, la dignité des victimes mais aussi celles de leurs descendants. Pour citer l’avocat Bernard Jouanneau, membre de la Ligue internationale contre le racisme et l’antisémitisme (LICRA), « ce ne sont pas les juifs, les Arméniens, les Tutsis, les Cambodgiens, les Yougoslaves qui ont été victimes du négationnisme, c’est l’humanité ».

C’est la raison pour laquelle je vous invite à encadrer la liberté d’expression des négationnistes sur internet.

Mme Lætitia Avia, rapporteure. Cet amendement est essentiel car il permet de nommer ce que nous visons clairement dans cette proposition de loi, à savoir l’atteinte à la dignité humaine, le fait, en l’occurrence, de s’en prendre à quelqu’un sur internet pour ce qu’il est intrinsèquement. C’est la raison pour laquelle j’y suis évidemment favorable.

Je tiens néanmoins à préciser que, si cette atteinte à la dignité humaine – dont le Conseil d’État a estimé dans son avis qu’elle fondait en légitimité les dispositions de cette proposition de loi – permet d’en étendre le champ, on ne peut y inclure l’ensemble des infractions que vous citez dans votre exposé des motifs et dans la défense de votre amendement. Je pense notamment à la négation des crimes de génocide, mais nous y reviendrons. Il s’agit en effet de s’assurer de la parfaite conventionnalité de ce texte.

La Commission adopte l’amendement.

Puis elle en vient à l’amendement CL70 de Mme George Pau-Langevin.

Mme George Pau-Langevin. Nous proposons que puisse être retiré d’une plateforme tout contenu constituant une contestation ou une négation d’un crime contre l’humanité ou d’un génocide. On ne peut en effet tolérer que soient diffusés sur internet certains propos sur le génocide arménien ou l’abolition de l’esclavage.

En 2017, la loi relative à l’égalité et à la citoyenneté entendait incriminer la négation des crimes contre l’humanité, mais le Conseil constitutionnel, suivant en cela la position défendue par son président Laurent Fabius, a censuré cette disposition au motif que ne pouvait être incriminé que le négationnisme visant des crimes jugés par le tribunal de Nuremberg, ce qui élimine, de fait, le génocide arménien et l’esclavage. Il faut pourtant que tout négationnisme en la matière puisse être sanctionné sur internet.

Mme Lætitia Avia, rapporteure. Pour garantir la conventionnalité de ce texte, je suis obligée de m’en tenir au champ fixé par le Conseil d’État, qui inclut notamment l’apologie des crimes contre l’humanité, des crimes de guerre et des crimes de réduction en esclavage. Nous ne pouvons aller au-delà. Avis défavorable.

M. Alexis Corbière. Sur ce sujet extrêmement sensible, le législateur français a permis de cadrer les débats, grâce, entre autres, aux lois « Gayssot » et « Taubira ». Or l’objet de cette proposition de loi est de contraindre les opérateurs à supprimer d’eux-mêmes les contenus délictueux de leurs plateformes. Il me semble que c’est une manière de privatiser des décisions qui relèvent de la justice. Certes, il n’y aura nul débat entre nous sur la manière de qualifier la Shoah, l’esclavage ou le génocide arménien, mais l’ensemble des mémoires blessées est aujourd’hui si complexe qu’il me paraît nécessaire de circonscrire juridiquement ces sujets sensibles et de ne pas miser sur l’interprétation qu’en feront les opérateurs, au risque d’empêcher tout débat.

Le négationnisme sous toutes ses formes doit être combattu, c’est une évidence, mais avec des armes juridiques, d’où les réserves que j’exprime.

Mme George Pau-Langevin. J’ai beaucoup de considération pour les magistrats, mais nous devons admettre que la justice met du temps pour se prononcer. Si l’on prend l’exemple des propos sur l’esclavage entendus récemment dans l’émission On n’est pas couchés, dans le cas où une plainte serait déposée, il y aura une décision de justice, mais qui n’interviendra pas avant six mois ou un an, voire deux. Au contraire, les réactions sur les réseaux sociaux peuvent être si rapides qu’en l’espèce, le nombre de signalements faits aux CSA a obligé l’animateur de l’émission à réagir. Il est donc normal de saisir la justice mais, lorsqu’elle rendra son verdict, le mal aura été fait.

La Commission rejette l’amendement.

Puis elle examine l’amendement CL266 de M. Belkhir Belhaddad.

M. Belkhir Belhaddad. Cet amendement vise à élargir le champ d’application du texte, défini à l’article 1er, en y ajoutant un combat important pour notre majorité : la lutte contre les discriminations, telle que définie par l’article 225-1 du code pénal.

Il a quelques semaines, j’ai tenu à apporter tout mon soutien à Jean Dib Ndour, victime d’actes racistes intolérables. Rappelons que cet écrivain originaire du Sénégal, à qui j’ai, en début d’année, remis la médaille de l’Assemblée nationale, est l’auteur de deux romans. Arrivé en France en 2002, il conjugue la gestion de son café littéraire et son goût pour les mots et la littérature. Petit-fils de tirailleur sénégalais, il dresse des ponts entre son Afrique natale et sa Moselle d’adoption, et c’est le jour de notre fête nationale qu’il a choisi pour inaugurer son café. C’est aussi en pensant à lui que j’ai déposé cet amendement, fondamental pour caractériser la discrimination sur internet et en neutraliser les effets.

Mme Lætitia Avia, rapporteure. Avis favorable sur cet amendement qui permet de rappeler que sont visées par cette proposition de loi l’incitation à la haine, mais également l’incitation à la violence et à la discrimination envers une personne ou un groupe de personnes.

La Commission adopte l’amendement.

Puis elle est saisie de l’amendement CL193 de M. Erwan Balanant.

M. Erwan Balanant. Cet amendement a pour objectif d’intégrer les propos constitutifs de harcèlement moral, sexuel ou scolaire dans le champ d’application de la présente proposition de loi. En effet, le cyberharcèlement est un fléau pour notre société, et nous devons trouver des moyens de le combattre. Toutes tranches d’âge confondues, 8 % des Français déclarent avoir déjà été victimes de ce type de violences.

Le cas du harcèlement scolaire est éloquent : internet, les réseaux sociaux en particulier, ne sont que le prolongement de l’établissement scolaire et de ses périphéries, où les élèves en souffrance sont exposés aux propos et comportements déplacés de leurs camarades.

Il est donc primordial d’intégrer les faits de harcèlement, de tous types, dans le spectre de la proposition de loi.

Mme Lætitia Avia, rapporteure. Votre amendement recouvre différents sujets. Si le harcèlement sexuel est déjà visé dans les infractions que je vous propose d’inclure dans le champ de la proposition de loi, le harcèlement scolaire n’est pas une infraction autonome. Quant au harcèlement moral, il pose une vraie difficulté, dans le sens ou, pour être établi, il nécessite la réitération. Il est donc difficile, en pratique, de l’inclure dans le cadre des contenus manifestement illicites pouvant être signalés sur une plateforme. Les infractions signalées ne doivent pas être sujettes à interprétation, et c’est sans doute la raison pour laquelle le Conseil d’État a tenu à ce que le champ d’application de cette proposition de loi soit très limité.

Avis défavorable, même si j’entends la nécessité de mieux protéger les plus jeunes, et notamment les mineurs.

M. Erwan Balanant. Nous avons déjà eu le débat sur la définition pénale du harcèlement scolaire lors de l’examen du projet de loi pour une école de la confiance. Nos échanges avaient abouti à un amendement proscrivant le harcèlement, que la commission mixte paritaire a adopté dans une version allégée. Puisque le harcèlement scolaire est désormais défini dans le code de l’éducation, il me semble qu’il doit pouvoir être intégré dans ce texte.

Nous parlons d’un fléau ! En outre, en plus d’être un fléau, le harcèlement scolaire, c’est le début de la haine dans la cour de récréation, là où peuvent se forger les mauvaises habitudes. Il est donc essentiel de s’attaquer à la racine du mal.

Je prends note du fait que vous êtes ouverte à l’idée que nous travaillions sur cette question, car, grâce à ce texte ou à un autre, nous devons trouver une manière de mieux protéger nos enfants contre ce fléau.

Mme Caroline Abadie. Les chiffres cités par Erwan Balanant sont suffisamment édifiants pour que nous acceptions de lutter contre le harcèlement. Notre groupe a néanmoins considéré qu’il était difficile d’imposer aux plateformes une obligation de résultat et un retrait des contenus dans les vingt-quatre heures en matière de harcèlement scolaire, dans la mesure où ce n’était pas un délit. Nous avons, cela étant, déposé d’autres amendements introduisant une obligation de moyens en matière de lutte contre le cyberharcèlement et mettant en œuvre des mesures de prévention.

M. Bruno Fuchs. Cette question est centrale car elle concerne des jeunes qui n’ont pas encore nécessairement trouvé les bons repères et où l’on peut blesser l’autre sans réellement l’avoir voulu. C’est donc à nous de fixer les limites.

Mme Laure de La Raudière. Bruno Fuchs a raison de dire que c’est à nous de fixer les limites, mais cet amendement soulève un problème, car il n’existe pas de définition juridique du harcèlement scolaire, et nous n’allons pas confier le soin à un acteur privé de le faire à notre place !

Je voudrais, cela étant, insister sur le fait que face à des enfants de CM1, CM2, sixième ou cinquième, l’accent doit avant tout être mis sur la pédagogie. Il y a un effort considérable à faire, et je milite en ce sens depuis des années, pour transformer le cours de technologie au collège en un cours de culture numérique, dans lequel seraient abordées l’ensemble des problématiques, du codage aux enjeux sociétaux, l’accent étant tout particulièrement mis sur le mode d’emploi des réseaux sociaux. Sur ce point malheureusement, l’éducation nationale manque d’ambition au regard de la rapidité avec laquelle évoluent les comportements numériques. Travailler en ce sens sera beaucoup plus efficace que de demander à des plateformes de rendre la justice à notre place.

M. Erwan Balanant. Je répète que, depuis la CMP de la semaine dernière, le projet de loi pour une école de la confiance définit, dans son article 1er bis C, ce qu’est le harcèlement scolaire : « Aucun élève ne doit subir de la part d’autres élèves des faits de harcèlement ayant pour objet ou pour effet une dégradation de ses conditions d’apprentissage, susceptibles de porter atteinte à ses droits et à sa dignité ou d’altérer sa santé physique ou mentale ».

Ce n’est certes pas une définition pénale mais elle figure désormais à l’article L. 511-3-1 du code de l’éducation, de la même façon que le code du travail propose une définition du harcèlement moral ou le code pénal une définition du harcèlement sexuel.

Je veux bien entendre que nous ne soyons pas prêts mais il s’agit d’une urgence, et j’appelle donc les collègues qui le souhaitent à travailler sur ce sujet, pour aboutir éventuellement à une proposition de loi transpartisane sur les moyens de lutter contre le harcèlement scolaire.

M. Frédéric Reiss. Tout commence à l’école. C’est là que se prennent les bonnes mais aussi les mauvaises habitudes. Il me semble donc qu’il serait intéressant que cette proposition de loi s’inscrive dans le prolongement du projet de loi pour une école de la confiance, et que nous devrions retravailler cette question, en vue de la séance, pour l’intégrer dans le texte.

M. Alexis Corbière. Même si ce débat est extrêmement important, ce n’est pas du code de l’éducation dont il nous faut parler mais du code pénal et du fait qu’il revienne à des opérateurs privés de prendre ce type de décisions. Prenons donc garde à ne pas rater notre cible.

Il est évidemment indispensable qu’un juge ait les moyens d’intervenir rapidement quand un mineur est harcelé moralement ou sexuellement – car le harcèlement n’est en somme rien d’autre que du harcèlement moral ou sexuel. Le juge pour enfant est en effet parfaitement qualifié pour entendre cette souffrance, qui nécessite une appréciation extrêmement fine de la situation, sachant qu’une simple image, en apparence innocente, peut être une arme de harcèlement.

Il n’empêche que cet amendement ne règle pas le problème que j’ai soulevé tout à l’heure, à savoir que confier à des opérateurs privés le soin d’apprécier des sujets aussi sensibles sera au mieux inefficace, aboutira au pire à une forme de privatisation de la justice, à laquelle je suis personnellement opposé.

La Commission rejette l’amendement.

Elle examine ensuite, en discussion commune, les amendements CL153 de Mme Aude Luquet et CL267 de M. Jacques Marilossian.

Mme Aude Luquet. Le mot « race » n’apparaît plus aujourd’hui comme un terme pertinent car il représente un concept scientifiquement infondé et juridiquement inopérant. Le recours à ce mot dans notre droit, même s’il a pour objet de prohiber les discriminations entre les êtres humains, est une forme de validation et de légitimation de l’existence de « races humaines », alors que la science ne reconnaît qu’une seule espèce.

Utiliser le mot « race », c’est laisser penser qu’il y en aurait plusieurs et supposer que certaines seraient supérieures à d’autres, ce qui est intolérable. Je rappelle qu’en juillet 2018, lors des premiers débats sur la révision constitutionnelle, nous avions acté collectivement la suppression du mot « race » de notre constitution. Il convient en conséquence, par cet amendement, de remplacer le mot « à raison de la race » par les mots « fondée sur des motifs racistes » qui apparaissent plus pertinents.

M. Jacques Marilossian. Le Président de la République Emmanuel Macron a rappelé, dans sa lettre aux élèves du collège de l’Esplanade à Saint-Omer, en mars 2018, qu’il était indigne que le mot « race » subsiste encore dans notre Constitution.

Lors de l’examen du projet de loi constitutionnelle l’année dernière, nous avons voté la suppression du mot « race » de la Constitution.

L’héritage de l’histoire coloniale et de certaines théories dites « scientifiques » du XIXe siècle l’y a fait figurer. Or ce terme – qui d’ailleurs n’existait pas avant les années 1930 – est aujourd’hui non seulement désuet, mais doté d’une connotation raciste.

Le décret d’août 2017 relatif aux provocations, diffamations et injures non publiques présentant un caractère raciste ou discriminatoire a supprimé l’usage du mot « race » de l’article R. 625-7 du code pénal, pour le remplacer par les termes « prétendue race », montrant que la République ne reconnaît plus de différence entre êtres humains. Cet amendement propose de reprendre les termes du code pénal.

Mme Lætitia Avia, rapporteure. J’avais, lors des discussions sur la révision constitutionnelle, pris très clairement position en faveur de la suppression du mot « race » de la Constitution. Il importe toutefois que cette suppression ne compromette pas la lutte contre les discriminations.

Entre les deux solutions proposées, ma préférence va à l’emploi des termes « prétendue race », pour une raison d’harmonisation, car c’est la formule employée dans de nombreux textes. Je donnerai donc un avis favorable à l’amendement CL267.

La Commission rejette l’amendement CL153.

Elle adopte l’amendement CL267.

Puis elle en vient à l’amendement CL207 de Mme George Pau-Langevin.

Mme George Pau-Langevin. Il s’agit d’intégrer dans le champ des contenus haineux les discriminations à raison de l’origine des personnes qui en sont les victimes.

Mme Lætitia Avia, rapporteure. C’est une précision utile. Avis favorable.

La Commission adopte l’amendement.

Suivant l’avis favorable de la rapporteure, elle adopte l’amendement CL219 de M. Buon Tan.

Elle examine ensuite l’amendement CL279 de M. Jean-Pierre Cubertafon.

M. Jean-Pierre Cubertafon. Cet amendement vise à lancer une réflexion sur les insultes à raison de l’apparence physique, sur les réseaux sociaux.

La grossophobie par exemple, ou discrimination et stigmatisation envers les personnes obèses ou en surpoids, est un phénomène devenu récurrent au sein de notre société, bien qu’elle soit considérée par le code pénal, en son article 225-1, comme une discrimination.

La discrimination physique étant un motif privilégié des campagnes de cyberharcèlement, le présent amendement propose d’ajouter cette discrimination au texte du premier alinéa, afin de faciliter le retrait des contenus discriminants.

Mme Lætitia Avia, rapporteure. J’en suis profondément désolée, mais le Conseil d’État a très précisément cadré le champ d’application du texte. Nous devons nous en tenir à des contenus pouvant être qualifiés de manifestement illicites et ne pouvant prêter à l’interprétation des opérateurs.

Par ailleurs, la loi de 1881 ne vise pas l’apparence physique, et votre proposition impliquerait donc de la modifier. Or, en l’état, elle me paraît constituer un socle solide pour définir les discriminations visées par cette proposition de loi.

Cela étant, il me semble que l’ensemble des obligations de moyens proposées dans le texte permettront, comme pour le harcèlement scolaire, d’appréhender ces phénomènes. Demande de retrait ou avis défavorable.

M. Erwan Balanant. Je comprends vos arguments juridiques mais, lorsque l’on se fait insulter sur les réseaux sociaux parce que l’on est trop gros, ou trop maigre, n’est-ce pas une atteinte à la dignité de la personne ?

Mme Lætitia Avia, rapporteure. Aujourd’hui, ce n’est pas complètement le cas au titre des infractions aggravées de la loi de 1881. Sont distinguées les injures simples et les injures aggravées : une injure relative au physique est une injure simple, là où une injure liée à la prétendue race, à la religion ou à l’orientation sexuelle est une injure aggravée.

La ministre de la justice a confié à la Commission nationale consultative des droits de l’homme une mission d’étude de l’application actuelle de la loi de 1881. Nous pourrons nous reposer sur les résultats de ce travail, qui devrait être rendu en octobre, pour nous saisir le cas échéant de cette question. En tout état de cause, cette proposition de loi n’a pas vocation à changer l’état de notre droit mais à garantir sa bonne application.

La Commission rejette l’amendement.

Puis elle examine, en discussion commune, l’amendement CL191 de M. Erwan Balanant, et les amendements identiques CL2 de la commission des Affaires culturelles, CL192 de M. Erwan Balanant et CL231 de M. Buon Tan.

M. Erwan Balanant. Mon amendement a pour objet d’intégrer les propos comportant une incitation à la haine ou une injure à raison du genre dans le champ d’application de la présente proposition de loi.

En effet, dans la version qui nous est soumise, la proposition de loi couvre les incitations à la haine et les injures à raison de certains facteurs de discrimination, notamment le sexe. En revanche, le genre ne fait pas partie des facteurs pris en compte. Or, si le sexe et le genre sont deux facteurs de discrimination souvent liés, ils sont différents et doivent être distingués : alors que le sexe est une donnée physiologique, le genre ressortit à une construction culturelle et subjective.

Pour autant, le genre et le sexe sont deux facteurs de discrimination qui doivent être combattus avec la même vigueur. Cette obligation de les mettre sur le même plan découle notamment de la Convention du Conseil de l’Europe sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique, ratifiée par la France.

Mme Fabienne Colboc, rapporteure pour avis de la commission des Affaires culturelles. L’amendement CL2 est un amendement de clarification, qui vise à intégrer explicitement l’identité de genre mentionnée par la loi de 1881 aux dispositions de l’article 1er.

M. Erwan Balanant. Il s’agit, par l’amendement CL192, d’ajouter à la référence au genre la référence à l’identité de genre.

Mme Lætitia Avia, rapporteure. L’actualité de ces derniers mois a été marquée par une augmentation des comportements transphobes d’une extrême violence sur les réseaux sociaux. Je suis donc favorable au fait d’intégrer les discriminations à raison de l’identité de genre – lesquels relèvent déjà de la loi de 1881, dans le champ d’application de la proposition de loi. Les discriminations à raison du genre ne sont, en revanche, pas conformes aux prescriptions de notre droit pénal. Je soutiens donc les amendements identiques.

La Commission rejette l’amendement CL191.

Elle adopte les amendements identiques CL2, CL192 et CL231.

Puis elle est saisie, en discussion commune, des amendements CL62 de M. Guillaume Chiche et CL220 de M. Buon Tan.

M. Guillaume Chiche. Le présent amendement tend à introduire les discriminations à raison de l’état de santé des individus. Le récent documentaire diffusé sur France Télévisions concernant la grossophobie ou encore la censure par Instagram de la photo d’un mannequin taillant du 54 justifient de prévoir des dispositions législatives fortes pour condamner ces actes discriminants intolérables.

L’état sérologique mais aussi l’état psychiatrique des individus peuvent également être l’objet de cyber-haine sur les réseaux sociaux. Les termes « état de santé » nous apparaissent donc pertinents, dans la mesure où ils embrassent les différentes pathologies.

M. Jean-François Eliaou. Comme les discriminations à raison du handicap, les discriminations à raison de l’état de santé doivent être interdites sur les plateformes internet.

Mme Lætitia Avia, rapporteur. Le handicap figure déjà dans la proposition de loi, puisqu’il est visé par la loi de 1881, et il n’est pas question de revenir sur ce point. En ce qui concerne l’état de santé, je ferai la même réponse que celle que j’ai faite auparavant sur l’apparence physique : il n’est pas visé par la loi de 1881 au titre de l’injure aggravée.

Par ailleurs j’en appelle à votre sens des responsabilités pour faire preuve de prudence dans les termes que nous retenons : l’état de santé est une notion extrêmement large, et son emploi pourrait aboutir à ce que, concrètement, on ne puisse plus critiquer quelqu’un pour un rhume. Avis défavorable.

La Commission rejette successivement les amendements.

La Commission adopte l’amendement CL300, de précision, de la rapporteure.

Elle est ensuite saisie de l’amendement CL190 de M. Erwan Balanant.

M. Erwan Balanant. Cet amendement va nous permettre d’ouvrir un débat mais, en réalité, il ne me satisfait pas complètement. Il vise à réduire de vingt-quatre heures à douze heures le délai sous lequel les plateformes en ligne sont tenues d’effacer les contenus faisant l’objet d’un signalement.

Vingt-quatre heures sur internet, c’est une éternité. Cela étant, c’est un délai qui peut conduire à des formes de censure automatique, voire préventive – et c’est encore plus vrai lorsque le délai est ramené à douze heures. Il y a donc un problème, mais j’aimerais avoir votre point de vue, madame la rapporteure, de manière à réfléchir à une solution d’ici la séance.

Mme Lætitia Avia, rapporteure. J’ai une obsession avec ce texte, c’est qu’il soit opérationnel. Le délai de vingt-quatre heures est réaliste, c’est en tout cas la conclusion à laquelle j’ai abouti à l’issue de mes travaux sur la manière dont les plateformes fonctionnent et dont elles traitent les contenus.

Par ailleurs, il correspond à ce qui se pratique en Allemagne ainsi qu’au code de bonne conduite européen. Avis défavorable.

L’amendement est retiré.

La Commission examine l’amendement CL256 de Mme Laure de La Raudière.

Mme Laure de La Raudière. Il s’agit de préciser que ce sont les utilisateurs de la plateforme qui sont habilités à notifier un contenu illicite.

Suivant l’avis favorable de la rapporteure, la Commission adopte l’amendement.

Elle examine ensuite, en discussion commune, les amendements CL92 de la rapporteure et CL1 de la commission des Affaires culturelles.

Mme Lætitia Avia, rapporteure. Il s’agit de la correction d’une erreur de référence.

Mme Fabienne Colboc, rapporteure pour avis de la commission des Affaires culturelles. L’amendement de ma commission étant satisfait par celui de la rapporteure, je le retire.

L’amendement CL1 est retiré.

La Commission adopte l’amendement CL92.

Puis elle examine l’amendement CL93 rectifié de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement vise à compléter le champ d’application de la proposition de loi, conformément à l’avis du Conseil d’État, qui propose de reprendre la définition des contenus odieux prévue au 7 du I de l’article 6 de la LCEN. Nous en avons déjà évoqué plusieurs éléments : incitation à la violence, à la discrimination, à la haine et injures fondées sur la prétendue race, l’origine, la religion, l’ethnie, le sexe, l’identité de genre, l’orientation sexuelle et le handicap, qu’ils soient vrais ou supposés. Le Conseil d’État préconise l’ajout de plusieurs délits, toujours manifestement illicites : apologie de crimes de guerre, de crimes contre l’humanité et de crimes de réduction en esclavage, harcèlement sexuel, traite des êtres humains, proxénétisme, pornographique infantile et terrorisme. Tel sera le champ couvert par le texte.

La Commission adopte l’amendement.

Elle en vient ensuite à l’amendement CL254 de Mme Laure de La Raudière.

Mme Laure de La Raudière. Cet amendement vise à résoudre la question de la gestion des contenus gris, c’est-à-dire les contenus qui ne sont pas manifestement illicites et qui n’ont pas donné lieu à une décision de justice. Les plateformes ont l’obligation bien légitime de retirer dans les vingt-quatre heures tous les contenus qui ne respectent pas la loi. Dans certains cas, toutefois, il n’est pas facile de qualifier ce caractère illicite et l’avis d’un juge est nécessaire. En outre, la rapporteure a judicieusement prévu d’insérer une contrainte relative aux suppressions excessives. Autrement dit, les plateformes sont prises en étau entre une obligation de retrait sous vingt-quatre heures et la sanction des retraits excessifs – cette disposition très utile visant à protéger la liberté d’expression.

L’amendement vise à aboutir à un point d’équilibre car, dans certains cas, les plateformes ne sont pas en mesure de décider par elles-mêmes. Il leur permettrait alors de saisir le juge judiciaire afin que soient traités les contenus litigieux, la saisine interrompant le délai de vingt-quatre heures qui recommencerait à courir à compter de la notification de la décision du juge. Le but, encore une fois, est d’encadrer le traitement des contenus gris qui constituent un réel problème pour les plateformes.

Mme Laetitia Avia, rapporteure. J’entends votre préoccupation. En l’état, le texte ne porte que sur les contenus manifestement illicites. Ceux qui ne sont pas manifestement illicites ne font pas l’objet d’une obligation de retrait dans les vingt-quatre heures.

Je vous ferai une réponse en deux temps. Sur le plan juridique, tout d’abord, le Conseil d’État, au paragraphe 26 de son avis, indique que, pour ce qui concerne les contenus simplement illicites, aucune obligation expresse ne peut être imposée car elle ne serait pas conforme aux exigences constitutionnelles. Nous ne pouvons donc pas légiférer sur les contenus gris, qui ne sont pas manifestement illicites.

Sur le plan pratique, ensuite, si un contenu n’est pas manifestement illicite ou s’il suscite une interrogation, le deuxième volet du texte, qui organise la régulation administrative et le lien général avec le CSA, crée une instance de dialogue qui vise à parfaire les choses en formulant des recommandations et des lignes directrices. La seule exigence qui est faite aux plateformes consiste à retirer les contenus manifestement illicites, ni plus ni moins. Dans l’hypothèse où une plateforme ne retirerait pas un contenu dans les vingt-quatre heures parce qu’elle doute de son caractère manifestement illicite, elle pourra s’en justifier dans plusieurs forums, soit devant le juge si elle doit comparaître pour défaut de retrait, car il faudra prouver le caractère intentionnel de l’absence de retrait, soit, en cas de sanction administrative, dans le cadre d’un processus gradué – de la mise en demeure à la sanction, laquelle suppose une instruction qui est elle aussi un lieu d’échange et de dialogue. La plateforme pourra y établir qu’elle se trouvait dans une zone grise et qu’elle n’a pas manqué à son obligation de retrait de contenus manifestement illicites. Cela permettra l’amélioration constante du système qui, par nature, est évolutif car il doit pouvoir s’adapter aux nouvelles formes de haine.

Mme Laure de La Raudière. Si j’ai déposé cet amendement, madame la rapporteure, c’est parce que vous allez proposer une disposition visant, pour protéger la liberté d’expression, à sanctionner les plateformes qui procéderaient à des suppressions excessives. Peut-être est-ce par méconnaissance du droit mais je m’interroge : une phrase apparaissant manifestement illicite peut-elle être considérée comme telle si elle ne correspond pas mot pour mot à un cas déjà visé par la jurisprudence ? Une image similaire mais pas identique à une autre ayant déjà fait l’objet d’une décision faisant jurisprudence pourra-t-elle être considérée comme manifestement illicite ? Sur le plan juridique, ces points me semblent encore instables – mais votre expérience est plus grande que la mienne.

Encore une fois, les plateformes se trouveront dans un étau entre une obligation de retrait et – ce que je crains – le retrait excessif, susceptible d’être sanctionné par le CSA. L’espace de dialogue auquel vous faites référence, madame la rapporteure, sera ouvert a posteriori. Par pédagogie et afin d’enrichir la jurisprudence, nous avons donc tout intérêt à prévoir une soupape, non pas pour affranchir les plateformes de l’obligation qui leur est faite mais pour que le dispositif puisse fonctionner jusqu’au bout.

Mme Laetitia Avia, rapporteure. Concrètement, les plateformes ont en effet l’obligation d’appliquer la loi, ni plus ni moins. C’est ce que prévoit le texte. La responsabilité qui leur incombe est certes difficile, mais elle correspond à la réalité. Les plateformes ne sauraient céder à une quelconque facilité consistant, dans le doute, à retirer un contenu, d’autant plus – c’est là une différence avec la loi allemande – qu’elles disposent d’un certain nombre de repères, depuis les premières recommandations du CSA et l’interlocuteur référent jusqu’à la mise en demeure et la procédure d’instruction, pour que tout se passe bien. L’amendement que vous proposez, madame la députée, offre une facilité aux plateformes. Dans le doute, une plateforme ayant reçu un signalement quel qu’il soit pourrait transférer le dossier pour interrompre le délai de vingt-quatre heures et ne rien faire. En clair, nous viderions le texte de sa substance.

M. Hervé Saulignac. L’amendement de Mme de La Raudière soulève une question concrète. On ne saurait nier l’existence de ce qu’elle appelle à juste titre des « contenus gris ». Pour les plateformes, en effet, certains contenus seront difficiles à caractériser afin de déterminer s’ils sont ou non manifestement illicites. En Allemagne, en cas de doute, elles privilégient le sur-retrait. Si nous ne traitons pas la question des contenus gris, nous nous exposerons au même problème.

J’entends votre argument habile, madame la rapporteure : il ne faut pas, dites-vous, faire peser l’entière responsabilité du retrait sur le juge, sans quoi tous les cas seront transférés à la justice et les plateformes opteront pour la solution de facilité. En rejetant l’amendement sans réfléchir plus avant aux possibilités de traitement des contenus gris, néanmoins, nous ne réglerons rien et nous nous exposerons à de graves difficultés.

M. Stéphane Mazars. Au contraire, il me semble que cet amendement a la vertu de mettre en lumière la responsabilité qui incombera désormais aux plateformes, qui ne pourront pas s’en remettre à une tierce personne, le juge ou autre, pour apprécier si les contenus sont manifestement illicites. Rassurez-vous : très vite, ce qui constitue un contenu manifestement illicite apparaîtra sans ambiguïté, et ce qui relève de cette définition est déjà assez clair. Il ne me semble donc pas y avoir de difficulté majeure.

En revanche, la procédure proposée par l’amendement paraît lourde, à la limite de l’usine à gaz. Dans quel cadre le juge serait-il saisi pour apprécier le caractère manifestement illicite d’un contenu ? Dans le cadre d’un débat contradictoire entre l’auteur du contenu et la plateforme qui saisit le juge ? Tout cela est bien compliqué. Vous mettez néanmoins en lumière l’un des aspects importants du texte, qui vise à responsabiliser les plateformes et à leur laisser la tâche de déterminer si les contenus sont manifestement illicites sans s’en remettre à une tierce personne. Encore une fois, je veux vous rassurer : dans 95 % des cas, nous sommes tous déjà en mesure d’établir si un contenu est ou non manifestement illicite. Rompues à cette pratique, les plateformes le feront elles aussi sans difficulté.

Mme Cécile Untermaier. Je comprends cet amendement et je me réjouis que nous nous penchions sur cette question. Je souscris néanmoins aux propos de la rapporteure : au fond, nous sommes en train d’élaborer une nouvelle déontologie des plateformes à travers les bonnes pratiques diffusées par le CSA lequel, dans les cas difficiles et délicats que présentent les contenus gris pour les plateformes, pourrait jouer pleinement son rôle plutôt que le juge, qui peut toujours être saisi. Qu’en pensez-vous, madame la rapporteure ?

Mme Laure de La Raudière. Vous pouvez sous-amender mon amendement !

Mme Danièle Obono. Ce débat fait apparaître plusieurs limites et chausse-trapes du texte. Vous parlez de plateformes de manière théorique mais, en pratique, ce sont des personnes qui vont traiter ces cas. Or la masse d’informations est considérable. Plusieurs articles de presse, sur le média en ligne Les Jours, et des recherches conduites par des journalistes aux États-Unis révèlent les conditions dans lesquelles les personnes employées par les plateformes effectuent ce travail de modération des propos en ligne – lesquels sont lamentables. Vous parlez de déontologie mais il n’est pas même garanti que ces personnes aient accès à la formation nécessaire pour définir les notions dont nous débattons. Si nous avions une discussion plus large entre nous, nous constaterions le flou qui entoure cette question, dont le texte ne garantit en rien le suivi. Encore une fois, il ne s’agit pas de plateformes mais de salariés, dont les conditions de travail sont très problématiques – voire d’une intelligence artificielle, ce qui pose alors le problème de la censure par mot-clé, des propos dénonçant des actes de violence et de harcèlement pouvant ainsi être censurés. Autrement dit, il y a derrière ce sujet des questions graves : qui est chargé de cette modération et, de fait, de cette censure ? Dans quelles conditions ?

M. Frédéric Reiss. Ce débat est très intéressant, car il arrive souvent que nous nous trouvions dans une zone grise lorsqu’il s’agit de caractériser les contenus manifestement illicites qui circulent sur internet. Il va de soi que, dans tous les cas de figure, les victimes de propos haineux doivent pouvoir saisir la justice. Je rappelle néanmoins l’idée que j’ai évoquée dans mon propos liminaire de créer une instance de médiation, un ombudsman, qui pourrait aider les plateformes à prendre les bonnes décisions. Ainsi, la plateforme ne serait pas livrée à elle-même et il ne serait pas nécessaire de saisir la justice. Cette instance, qui n’existe pas encore, pourrait peut-être voir le jour grâce à une résolution du Conseil de l’Europe comportant des recommandations aux États membres.

Mme Caroline Abadie. S’agissant du cœur du dispositif, il est utile que nous nous penchions sur ce point plus longuement. Le contenu gris est précisément celui qui va diminuer peu à peu, à mesure que la jurisprudence s’étoffera – ce qu’il faut espérer – parallèlement aux recommandations du CSA. Cela permettra aux plateformes d’améliorer leur connaissance de ces contenus.

En effet, madame Obono, les modérateurs sont des êtres humains : nous les avons vus, avec la rapporteure, travailler à Dublin. Ils sont capables d’appliquer des conditions générales d’utilisation (CGU) bien plus complexes que les dispositions que nous souhaitons concernant les contenus manifestement illicites.

Quant à la loi allemande, elle impose un retrait dans les vingt-quatre heures pour les contenus manifestement illicites et dans les sept jours pour les contenus gris. Nous nous contentons de légiférer sur les contenus manifestement illicites. C’est le cœur du dispositif et il faut à mon sens le conserver tel quel, sans quoi nous créerons une usine à gaz. Même si vous estimez, madame de La Raudière, que la procédure que vous proposez est lourde et qu’elle ne sera pas utilisée de manière abusive, les plateformes, avec leurs armées de juristes, n’auront aucune difficulté pour saisir la justice à loisir tous les jours. Elles se déresponsabiliseront si nous leur laissons une faille dans le dispositif, ce que nous devons nous garder de faire.

Mme George Pau-Langevin. La préoccupation de Mme de La Raudière est tout à fait légitime. Je dirai simplement ceci : il est indispensable de conserver l’obligation de retrait dans les vingt-quatre heures. Il ne me semble donc pas judicieux de permettre la suspension du délai. En revanche, il peut être considéré que l’obligation de retrait se fait à titre conservatoire, et que rien n’empêche la plateforme de saisir une commission de concertation ou toute autre instance que nous pourrions créer afin qu’elle se prononce sur les contenus gris. Rien n’empêchera d’ailleurs les uns et les autres de saisir le juge. Cela étant, toutes ces procédures ne peuvent être déclenchées à mon sens qu’une fois les contenus problématiques retirés à titre conservatoire, sans quoi des procédures sans fin permettront aux contenus en question de prospérer sur internet.

Mme Laure de La Raudière. Grâce à ce bon débat, je me rends compte que la rédaction de mon amendement est inappropriée, parce qu’il ouvrirait une brèche trop grande – ce qui n’était nullement mon intention. Je le retravaillerai donc en vue de la séance. Il serait intéressant, néanmoins, que la rapporteure nous apporte un éclairage concernant les propos de Mmes Untermaier et Pau-Langevin : ne faut-il pas compléter le texte sur ce sujet, afin d’entamer la discussion en séance en ayant purgé ce débat ?

Mme Laetitia Avia, rapporteure. C’est un débat important, en effet, qui appelle plusieurs réflexions. La première est celle-ci : les acteurs concernés sont une poignée et ont à leur disposition des batteries d’avocats et d’abondants recueils de jurisprudence, qui leur permettent de déterminer les contenus à retirer. Je considère toutefois qu’il nous incombe, puisque nous introduisons dans la loi une obligation de retrait sous vingt-quatre heures, de prévoir l’accompagnement nécessaire. C’est pourquoi il est demandé au CSA de prévoir d’emblée des recommandations concernant l’application de la loi afin que dès son entrée en vigueur, les plateformes disposent d’un guide pratique – bien qu’elles disposent déjà en interne des moyens nécessaires. Ce faisant, nous prenons nos responsabilités.

Mme Obono a évoqué un vide en matière de modération. Les dispositions relatives aux obligations de moyens et à la supervision du CSA prévoient que les plateformes se dotent des moyens humains et technologiques nécessaires au traitement des signalements. Elles doivent rendre compte au CSA – je déposerai un amendement en ce sens – de leur organisation interne, dans le cadre de la supervision qu’exerce le régulateur. Nous avons constaté la manière dont travaillent les modérateurs d’une plateforme, comme l’indiquait Mme Abadie. Pour certaines plateformes, nous ignorons le nombre de modérateurs ; ce n’est pas admissible et cela changera.

Enfin, madame de La Raudière, les contenus gris et le renforcement de la lutte contre les contenus haineux en général relèvent des obligations de moyens, sur lesquelles nous pouvons toujours travailler – je suis à votre disposition d’ici à la séance. Cela ne peut toutefois pas se faire dans le cadre de l’obligation de retrait des contenus manifestement illicites sous vingt-quatre heures.

Mme Laure de La Raudière. Je retire l’amendement, dont le champ est plus large que mon objectif initial.

L’amendement est retiré.

La Commission examine l’amendement CL148 de M. Philippe Dunoyer.

M. Pierre Morel-à-l’Huissier. Cet amendement vise à compléter l’article 1er par l’alinéa suivant : « Dans le cas où un contenu illicite a fait l’objet d’un retrait, les opérateurs substituent au contenu illicite un message indiquant que le contenu illicite a été retiré en raison d’un signalement ou, le cas échéant, d’une décision administrative ou judiciaire ». Il a pour but d’appliquer l’information prévue aux alinéas 5 et 6 de l’article 33 de la loi du 29 juillet 1881, qui renvoient à l’article 131-5 du code pénal, à savoir la diffusion de la décision ou de la sanction à l’URL de la page internet retirée.

Mme Laetitia Avia, rapporteure. En effet, la notification d’une décision de retrait d’un contenu est un point important. L’amendement présente néanmoins une difficulté car il précise que le contenu en question « a été retiré en raison d’un signalement ou, le cas échéant, d’une décision administrative ou judiciaire ». D’une part, le retrait d’un contenu ne peut pas découler d’une décision administrative. D’autre part, je suis attachée à la protection des internautes. La personne ayant signalé des contenus visant expressément une personne pourrait être mise en difficulté par la rédaction proposée : ce n’est pas sur le signalement qu’il faut mettre l’accent, mais sur le retrait lui-même, lié au caractère illicite du contenu.

Je propose donc de retenir votre amendement, moyennant la suppression de la fin de l’alinéa, à partir de « en raison d’un signalement ».

M. Pierre Morel-à-l’Huissier. Parfait.

La Commission adopte l’amendement ainsi rectifié.

Elle en vient à l’amendement CL94 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement vise à préciser la place du juge dans le cadre de l’obligation de retrait. Le non-retrait par une plateforme d’un contenu manifestement illicite dans les vingt-quatre heures est déjà passible d’une sanction pénale prévue au 1 du VI de l’article 6 de la LCEN, à savoir un an d’emprisonnement et 250 000 euros d’amende.

La Commission adopte l’amendement.

Puis elle examine l’amendement CL143 de M. Philippe Dunoyer.

M. Pierre Morel-à-l’Huissier. La fixation d’un seuil national, par exemple deux millions de connexions mensuelles en France, limite la portée de la loi aux plus gros opérateurs mais ne permet pas de supprimer des sites « territoriaux » dédiés à l’incitation à la violence et dont le trafic, bien que faible en valeur absolue, est important par rapport à la population locale. L’abaissement territorial des seuils permet également de lutter contre les stratégies d’évitement des seuils et la multiplication d’opérateurs de petite taille diffusant des contenus odieux. Enfin, la fixation d’un seuil national élevé atténue la portée de la loi, les « géants du web » étant par ailleurs déjà signataires de chartes de bonne conduite en la matière et disposés à coopérer avec l’État en faveur de la lutte contre la haine, à l’inverse de plus petits opérateurs, moins scrupuleux mais très actifs dans la propagation de contenus haineux sur Internet.

Mme Laetitia Avia, rapporteure. Je comprends cette préoccupation mais l’amendement ne me semble guère opérationnel. La disposition relative au seuil que nous avons adoptée laisse une certaine agilité. Il ne me paraît pas judicieux de fixer des seuils par département.

L’amendement est retiré.

La Commission examine l’amendement CL245 de M. François Pupponi.

M. Jean-Félix Acquaviva. Face à la résurgence inédite et croissante de l’antisémitisme en France, cet amendement vise à interdire la propagation de contenus haineux envers l’existence de l’État d’Israël, forme réinventée de l’antisémitisme qui vise à refuser aux juifs la qualité de peuple.

Mme Laetitia Avia, rapporteure. Ce texte n’a pas pour objet de redéfinir les infractions telles qu’elles existent déjà dans la loi mais de garantir l’application des sanctions. En outre, le sujet que vous soulevez fait l’objet d’une proposition de résolution dont l’Assemblée se saisira bientôt. En attendant, je vous propose de retirer l’amendement ; à défaut, avis défavorable.

La Commission rejette l’amendement.

Elle examine les amendements identiques CL95 de la rapporteure et CL4 de la commission des Affaires culturelles.

Mme Laetitia Avia, rapporteure. L’amendement CL95 vise à supprimer l’alinéa 2 concernant la sanction du CSA en cas de non-respect de l’obligation de retrait dans les vingt-quatre heures ; un amendement ultérieur y reviendra. L’objectif est d’assurer une bonne articulation entre les mesures afin que le dispositif soit bien compris. Nous avons créé le nouveau délit de non-retrait de contenus manifestement illicites, qui concerne les plateformes. Il convient naturellement de se tourner vers le juge – et non vers le CSA – pour obtenir une injonction de retrait et engager la responsabilité judiciaire de la plateforme concernée. Parallèlement, nous instaurons une régulation administrative à la main du CSA avec une sanction pouvant aller jusqu’à 4 % du chiffre d’affaires, à laquelle nous reviendrons. Elle s’appliquera aux comportements excessifs ou insuffisants de retrait. En clair, chacun de ces deux modes de sanction est explicité dans un chapitre distinct qui lui correspond.

M. Frédéric Reiss. Nous comprenons bien le déplacement de cet alinéa à l’article 4, qui précise les procédures applicables par le CSA d’après les recommandations du Conseil d’État, avant que des sanctions ne soient prononcées. Je rappelle simplement qu’en commission des Affaires culturelles, nous avons déposé des amendements montrant que le montant des sanctions pécuniaires doit prendre en considération la gravité des manquements commis et leur caractère réitéré.

Mme Laetitia Avia, rapporteure. Ce sera satisfait.

La Commission adopte les amendements identiques.

En conséquence, les amendements CL171 de M. Ugo Bernalicis, CL85 de M. Hervé Saulignac, CL145 de M. Philippe Dunoyer, CL157 de Mme Aina Kuric, CL276 de M. Jean-Pierre Cubertafon, CL43 de M. Éric Girardin, CL155 de Mme Marie-France Lorho, CL55 de M. M’jid El Guerrab et CL84 de M. Hervé Saulignac tombent.

La Commission est saisie de l’amendement CL134 de M. Éric Ciotti.

Mme Brigitte Kuster. Cet amendement vise à insérer après l’alinéa 2 l’alinéa suivant : « Après en avoir informé la personne physique ou morale condamnée, le Conseil supérieur de l’audiovisuel peut décider de publier sa décision sur le site internet de la personne concernée, ou sur tout autre support. En cas de non-respect de cette obligation, une astreinte journalière peut être décidée, dont le montant est déterminé par décret en Conseil d’État ». Comme le suggère le rapport visant à renforcer la lutte contre le racisme et l’antisémitisme sur internet, il s’agit de mettre en place un mécanisme de name and shame.

Mme Laetitia Avia, rapporteure. Il va de soi que je souscris pleinement à cet objectif, qui sera partiellement satisfait puisque je le reprendrai à mon compte dans les dispositions de l’article 4, plus adaptées, relatives aux pouvoirs du CSA. En revanche, je n’ai pas repris la notion d’astreinte journalière, mais seulement la publication de la décision. Je vous propose de retirer l’amendement en attendant la discussion à l’article 4.

M. Alexis Corbière. L’un de nos amendements étant tombé, permettez-moi de prendre la parole sur celui-ci qui porte également sur le CSA. Il est question de renforcer le pouvoir du CSA mais je rappelle qu’il s’agit d’une instance extrêmement politique dont le président est nommé par le Président de la République, trois de ses membres par le président de l’Assemblée nationale et trois autres par celui du Sénat. Le fait de confier à cette autorité, dont on ne saurait considérer qu’elle est indépendante du pouvoir politique, des prérogatives quasi-judiciaires lui permettant de retirer tel et tel contenu ne nous semble pas du tout être la bonne méthode. Prenons garde à ce qu’est réellement le CSA, à savoir une instance politique. Nul ne saurait croire que ses membres sont nommés sans qu’il soit tenu compte de leurs convictions personnelles ou de leur proximité avec tel ou tel pouvoir – sans que leurs compétences soient en cause. Cette instance ne me semble pas devoir être habilitée à prendre des décisions qui se substituent quasiment à celles de l’autorité judiciaire. Maintenons ce pouvoir au juge.

Mme Laure de La Raudière. Je suis très ennuyée par ces propos : certes, la nomination des membres du CSA relève des institutions que sont la Présidence de la République, l’Assemblée nationale et le Sénat, mais il me semble excessif d’attaquer ainsi l’indépendance de leur jugement. Ajoutons qu’une juridiction de premier niveau est elle aussi composée de membres dont la nomination pourrait être qualifiée de « politique » : elle s’appelle le Conseil constitutionnel, pourtant garant du respect de la Constitution. Je tenais à faire cette remarque parce que les propos précédents m’ont quelque peu choquée.

Mme la présidente Yaël Braun-Pivet. Vos mots rejoignent ma pensée, madame de La Raudière : ces nominations relèvent de l’article 13 de la Constitution et le fait qu’il en encadre les conditions permet précisément de garantir l’indépendance de ces institutions.

La Commission rejette l’amendement.

Elle examine l’amendement CL96 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement vise à supprimer les alinéas 3 à 5 afin de procéder à la réorganisation du texte. Encore une fois, il ne s’agit ici que du dispositif judiciaire, alors que ces alinéas visaient des mécanismes de recours interne qui relèvent des obligations de moyens des plateformes. Il convient donc de les décaler plus loin dans le texte.

La Commission adopte l’amendement.

En conséquence, l’amendement CL264 de Mme Laure de La Raudière et les amendements identiques CL25 de Mme Marie-France Lorho et CL257 de Mme Laure de La Raudière tombent.

La Commission examine l’amendement CL71 de Mme George Pau-Langevin.

Mme George Pau-Langevin. Avant d’aborder l’amendement, je tiens à préciser que le CSA a apporté la preuve de la qualité de son travail et que l’on ne peut que se féliciter de son action.

Cet amendement vise à ajouter au rapport annuel du CSA un bilan spécifique de l’application et de l’effectivité des politiques de lutte contre la haine sur internet, qui fera l’objet d’un certain nombre de décisions.

Mme Laetitia Avia, rapporteure. S’agissant des amendements qui viennent de tomber, madame de La Raudière, ils étaient placés au mauvais endroit. En revanche, Mme Kuster a cosigné un amendement identique à l’article 4 qui permettra de satisfaire pleinement votre demande.

Quant à votre amendement, madame Pau-Langevin, il va dans le bon sens mais il me semble nécessaire de le retravailler en vue de la séance sur deux points. Tout d’abord, il convient de l’intégrer à l’article 4, relatif aux pouvoirs du CSA. Ensuite, il faut en limiter le champ aux obligations prévues aux articles 6-2 et 6-3 de la LCEN, et non aux politiques de lutte contre la haine sur internet en général, dont certains pans ne relèvent pas du rapport d’activité du CSA. Demande de retrait.

L’amendement est retiré.

La Commission examine l’amendement CL3 de la commission des Affaires culturelles.

Mme Fabienne Colboc, rapporteure pour avis de la commission des Affaires culturelles. Il s’agit d’un amendement de coordination relatif à l’identité de genre.

Mme Laetitia Avia, rapporteure. Avis favorable.

La Commission adopte l’amendement.

Puis elle adopte l’article 1er modifié.

Après l’article 1er

La Commission examine l’amendement CL97 de la rapporteure, qui fait l’objet des sous-amendements CL289 et CL290 de Mme Laure de La Raudière.

Mme Laetitia Avia, rapporteure. Cet amendement vise à simplifier les mécanismes de notification des contenus illicites auprès des opérateurs de plateformes. Plusieurs éléments sont actuellement demandés ; nous proposons de rapprocher le texte de la pratique. Le notifiant devra fournir ses nom, prénoms et adresse électronique ou, s’il s’agit d’une personne morale, sa forme sociale, sa dénomination sociale et son adresse électronique ; les autorités administratives qui notifient devront quant à elles fournir leur dénomination et leur adresse électronique. Surtout, aucune de ces mentions ne sera nécessaire si le notifiant est enregistré sur la plateforme – d’où la référence à « tout élément d’identification mentionné au II de l’article 6 de la LCEN ». Le mécanisme actuel de notification est assez lourd – les notifiants doivent notamment fournir leur profession et d’autres éléments pour que leur signalement soit pris en compte – et cet amendement permet de le simplifier.

Mme Laure de La Raudière. Le sous-amendement CL289 vise à ajouter aux éléments à fournir une copie numérisée de la pièce d’identité du notifiant. Le Gouvernement souhaite que nous disposions de cartes d’identité numériques d’ici à la fin de l’année. Il me semble utile que les personnes qui notifient des signalements s’identifient afin d’éviter les signalements abusifs et que les notifiants soient responsables de la décision qu’ils prennent de signaler aux plateformes des contenus haineux. Je regretterais que cette modification ne soit pas adoptée car sur le plan technique, il sera bientôt aussi facile de fournir sa pièce d’identité que son adresse électronique, grâce à la carte d’identité électronique. Plaçons-nous dans cette perspective, puisque le présent texte n’entrera sans doute pas en vigueur avant que nous disposions tous d’une carte électronique.

Le sous-amendement CL290 vise les entreprises : il leur est aussi facile de joindre leur extrait K bis, qu’elles ont sous format PDF, que leur adresse électronique et leurs coordonnées.

Mme Laetitia Avia, rapporteure. L’amendement vise à simplifier les mécanismes de signalement. Or les sous-amendements complexifient la procédure actuelle. La LCEN ne prévoit pas la présentation d’une pièce d’identité par les notifiants. Nos deux approches sont donc très différentes. En outre, il se poserait une difficulté en termes de collecte des données personnelles : je serai toujours défavorable à ce qu’il soit demandé aux plateformes de collecter les copies des pièces d’identité des uns et des autres. Avis défavorable aux sous-amendements.

Mme Laure de La Raudière. J’entends ces arguments, mais nous ne pouvons éluder ce débat, notamment le fait que la LCEN assortit les notifications et signalements de la présentation de nombreuses données personnelles. D’autre part, ce problème peut très bien être résolu en imposant aux plateformes de ne pas conserver ces données personnelles. Je ne complexifie pas à outrance le mécanisme de notification : il est archi-simple. Il faut à mon sens responsabiliser les notifiants vis-à-vis des plateformes afin qu’elles retirent des contenus haineux. Il serait autrement plus compliqué d’aller devant le juge. Je suis favorable à cette proposition de loi mais je souhaite également que nous encadrions les notifications et que les notifiants, encore une fois, soient responsabilisés.

Mme Laetitia Avia, rapporteure. En période d’activité intense, je notifie jusqu’à une cinquantaine de signalements par jour. Il va de soi que je ne pourrai pas fournir une pièce d’identité à chaque fois ; c’est impossible. Le problème tient à la fois à la protection des données personnelles et au caractère pratique du mécanisme.

Il existe cependant – Mme Abadie vous en parlera certainement – un réel problème lié aux signalements abusifs, qui doivent faire l’objet d’une information à titre préventif et, le cas échéant, de sanctions.

Mme Caroline Abadie. En effet, cette question a été soulevée au cours de nos auditions : les plateformes nous ont fait part de leur crainte de se trouver inondées par des signalements abusifs. L’excès de signalements légitimes ne présenterait guère de problème, mais la préoccupation des plateformes est compréhensible dès lors que les signalements sont abusifs. Nous proposerons donc un amendement qui vise à limiter ce cas de figure.

En ce qui concerne les sous-amendements, prenons conscience du fait que les plateformes vont proposer aux utilisateurs la possibilité de signaler un contenu, soit un mécanisme bien plus formalisé que le simple pouce en l’air permettant de liker des publications. Y ajouter la présentation d’une pièce d’identité, c’est imposer la responsabilité au notifiant de prendre le temps de fournir son identité alors que nous voulons également responsabiliser les plateformes. En théorie, elles disposent de toutes les données permettant d’identifier les notifiants. N’y ajoutons pas un formalisme supplémentaire qui freinerait potentiellement les notifiants de bonne foi. Telle est la position du groupe La République en Marche.

La Commission rejette les sous-amendements.

Puis elle adopte l’amendement CL97.

En conséquence, l’article 1er bis est ainsi rédigé.

La Commission en vient à l’amendement CL274 de M. Buon Tan, qui fait l’objet du sous-amendement CL284 de la rapporteure.

Mme Caroline Abadie. Cet amendement du groupe La République en Marche, sur lequel M. Tan a travaillé, porte lui aussi sur les notifications abusives. Lorsque le notifiant clique sur le bouton de signalement dont nous parlerons dans un prochain article, nous souhaitons qu’il dispose de l’information à l’instant t, qu’il engage sa responsabilité et qu’il connaisse la peine qu’il encourt en cas de notification abusive, c’est-à-dire le signalement sciemment abusif d’un contenu qu’il sait ne pas être illicite. Nous tâchons de limiter ces comportements abusifs en plaçant les notifiants devant leurs responsabilités, sachant qu’elles sont authentifiées et identifiables par la plateforme.

Mme Laetitia Avia, rapporteure. Avis favorable, moyennant mon sous-amendement de coordination.

La Commission adopte le sous-amendement.

Puis elle adopte l’amendement CL274 sous-amendé.

En conséquence, l’article 1er ter est ainsi rédigé.

Avant l’article 2

La Commission examine l’amendement CL98 de la rapporteure.

Mme Laetitia Avia, rapporteure. Nous proposons de créer par cet amendement un chapitre relatif aux obligations de moyens faites aux plateformes, en l’occurrence le devoir de coopération des opérateurs de plateforme en matière de contenus haineux en ligne.

La Commission adopte l’amendement. Un chapitre II est inséré.

Article 2 (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Amélioration de la procédure de notification d’un contenu haineux en ligne

La Commission examine l’amendement CL128 de M. Raphaël Gérard.

M. Raphaël Gérard. Cet amendement vise à soumettre les plateformes à une obligation d’informer les notifiants, au moment de la notification, des risques encourus en cas de signalements abusifs répétés. J’insiste bien sur cette notion. L’idée est d’ériger un garde-fou, puisque nous avons bien vu à quel point les mesures prévues à cet article 2 sont salutaires. Il s’agit de faire du signalement un acte citoyen, et pas un acte de délation.

Les dispositions introduites par la rapporteure, qui imposent de décliner nom, prénoms et adresse électronique, me paraissent permettre des opérations de « trolling » qui pourraient être massives. Il s’agirait, en cas de signalement abusif repéré par un opérateur ou une plateforme, d’informer une nouvelle fois le notifiant de ce qu’il encourt.

Mme Laetitia Avia, rapporteure. Comme l’a dit Mme Abadie, le groupe La République en Marche propose un dispositif qui permet une information à chaque signalement. J’ai donc l’impression que votre amendement est satisfait, cher collègue ; j’en demande le retrait.

M. Raphaël Gérard. Je ne suis pas sûr que nous parlions de la même chose. Je crains effectivement que l’amendement CL280 de Mme Abadie, de portée plus large, ne dissuade certains, notamment les mineurs, de signaler des contenus abusifs. Le rappel systématique des risques encourus pourrait les inquiéter et les dissuader d’entreprendre un signalement. Mon amendement a pour objet de réserver ce rappel au cas où une même personne aurait attiré l’attention par des signalements répétés.

Mme Laetitia Avia, rapporteure. La proposition équilibrée de Mme Abadie me paraît permettre de responsabiliser les notifiants. Le dispositif allégé que vous proposez serait peut-être moins adapté.

M. Raphaël Gérard. Je vais retirer l’amendement, mais j’aimerais que nous en rediscutions d’ici à l’examen du texte en séance.

L’amendement est retiré.

La Commission examine, en discussion commune, l’amendement CL99 de la rapporteure et l’amendement CL243 de M. Jean-Félix Acquaviva.

Mme Laetitia Avia, rapporteure. Il s’agit de retirer du dispositif de l’article 2 des dispositions que nous avons ajoutées à l’article 1er bis. C’est l’objet de mon amendement CL99.

M. Jean-Félix Acquaviva. L’amendement CL243 a pour vocation de circonscrire la simplification des mécanismes de signalement aux discours de haine signalés aux opérateurs de plateforme en ligne, en cohérence avec les II et III de l’article 2 et avec l’article 1er de la proposition de loi. L’amendement s’attache également à conserver, au regard des exigences du principe de légalité des délits et des peines, les éléments permettant au signalement d’être complet et fondé. Il nous semble également important, dans la mesure où le domicile pour une personne physique et le siège social pour une personne morale ne sont plus exigés, que les coordonnées téléphoniques de la personne physique ou morale qui procède à un signalement soient aussi communiquées. Enfin, afin de simplifier le plus possible les signalements, nous considérons indispensable de rendre accessible, depuis le site de l’opérateur, la liste des catégories auxquelles pourront être rattachés les contenus litigieux.

Mme Laetitia Avia, rapporteure. Nous venons de voter ces dispositions, cher collègue. Cela étant, le Conseil d’État a pu apprécier leur plein respect du principe de légalité des délits et des peines.

La Commission adopte l’amendement CL99.

En conséquence, l’amendement CL243 tombe, de même que les amendements CL258, CL259 et CL260 de Mme Laure de La Raudière ainsi que l’amendement CL72 de Mme George Pau-Langevin.

La Commission en vient à l’amendement CL125 de M. Jean-François Cesarini.

M. Jean-François Cesarini. Les sites et pages internet pouvant être très vastes, je propose que celui qui rapporte des contenus litigieux en fasse la description la plus précise possible, qu’il s’agisse d’une image ou de mots, afin de permettre une identification plus rapide par l’hébergeur.

Mme Laetitia Avia. Cet amendement se rattache à un énoncé qui, du fait de l’adoption de l’amendement CL99, ne figure plus dans le texte.

Sur le fond, l’amendement que nous avons adopté à l’article 1er bis prévoit effectivement que le contenu litigieux et les motifs pour lesquels il doit être retiré selon le notifiant soient décrits. Cela répond à votre préoccupation, sans obliger à retranscrire tout le contenu litigieux. Je vous invite donc à retirer votre amendement.

L’amendement est retiré.

La Commission examine l’amendement CL100 rectifié de la rapporteure.

Mme Laetitia Avia, rapporteure. Par cet amendement, je propose d’ajouter un nouvel article 6-3 à la LCEN pour mettre en harmonie l’ensemble que forment le devoir de coopération des plateformes et leurs obligations de moyen, avec toutes les dispositions de coordination nécessaires.

Sur le fond, cet amendement ajoute, au début de ces obligations, celle de se conformer aux recommandations du CSA pour la bonne application de l’obligation de retrait que nous venons d’adopter.

La Commission adopte l’amendement.

Elle en vient à l’amendement CL201 de M. Erwan Balanant.

M. Erwan Balanant. Cet amendement vise à obliger les opérateurs mentionnés à l’article 1er à informer tout auteur d’un contenu qui aurait fait l’objet d’un signalement de l’existence dudit signalement.

Ce dispositif reprend une préconisation du Conseil d’État, formulée au point 27 de l’avis qu’il a rendu. En effet, le Conseil d’État a estimé que « ces garanties sont justifiées par le caractère fondamental de la liberté d’expression au regard des risques élevés de censure excessive par les opérateurs de plateformes ». De plus, une telle information des auteurs des contenus litigieux encouragerait une forme d’autocensure et permettrait de faire comprendre à certaines personnes – qui, aujourd’hui, ne le comprennent pas – que leurs propos sont litigieux.

Mme Laetitia Avia, rapporteure. C’est précisément l’objet de mon amendement CL101, qui prévoit qu’à la fois le notifiant et l’utilisateur à l’origine de la publication sont informés du retrait du contenu et du motif dudit retrait.

La Commission rejette l’amendement.

Puis elle examine, en discussion commune, l’amendement CL101 de la rapporteure, qui fait l’objet des sous-amendements CL297 et CL298 de M. Erwan Balanant, et CL291 de Mme Laure de La Raudière, et l’amendement CL160 de Mme Albane Gaillot.

Mme Laetitia Avia, rapporteure. Comme je viens de l’indiquer, l’amendement CL101 vise à pleinement informer les utilisateurs des conséquences des signalements et de celles de leurs publications, ce qui a également une vertu pédagogique. Les opérateurs de plateformes informeront le notifiant et l’utilisateur à l’origine de la publication du contenu notifié des suites données à la notification, ainsi que des motifs des décisions, dans un délai de vingt-quatre heures, lorsqu’ils retirent un contenu ou le font déréférencer. Comme il me paraît important de répondre à tout signalement, ils devront également le faire lorsqu’ils ne retirent pas le contenu signalé – mais alors dans un délai de sept jours à compter de la réception du signalement.

M. Erwan Balanant. Je retire l’amendement CL297 et, par le sous-amendement CL298, je propose de fixer à quarante-huit heures plutôt qu’à sept jours le délai dans lequel les opérateurs doivent tenir informés les auteurs de signalements des suites données à leur demande de suppression de contenus lorsque ceux-ci ne sont finalement pas supprimés. C’est un délai qui me paraît praticable et, contrairement au délai de sept jours – trop long –, évite que le signalement fasse tache d’huile.

Mme Laure de La Raudière. L’amendement reprend l’idée dont procédait un autre, tombé à la suite de la suppression des alinéas 3 à 5 de l’article 1er. Il vise à ce que soient rappelées, par une formulation générale, à l’auteur de la publication supprimée, dans la notification qui lui est envoyée, les sanctions civiles et pénales encourues en cas de publication d’un contenu manifestement illicite. Il s’agit de faire de la pédagogie, car certains auteurs ne sont pas conscients du fait que ce qu’ils écrivent en ligne peut être constitutif d’un délit pénal.

Mme Laetitia Avia, rapporteure. Un délai de quarante-huit heures, cher collègue Balanant, reste assez court, d’autant qu’il s’agit vraiment d’une démarche pédagogique en vue d’expliquer les raisons de l’absence de retrait d’un contenu qui n’est pas manifestement illicite. Je préfère que les plateformes concentrent leur énergie, leurs moyens, leur célérité sur la lutte contre les contenus illicites. Vient ensuite le travail d’information, bien sûr, mais dans des délais moins contraints, et qui restent raisonnables.

Concrètement, si vous signalez un contenu que vous considérez comme manifestement illicite et que vous n’êtes pas informé dans un délai de vingt-quatre heures du retrait de ce contenu, cela veut dire qu’il n’a pas été considéré comme manifestement illicite, ce qui vous permet d’agir ensuite par toutes voies de droit à votre disposition, et vous recevrez, dans un délai de sept jours, le message vous indiquant, avec cette dimension pédagogique, qu’il n’était pas manifestement illicite. Je suis donc défavorable, cher collègue, à votre amendement CL298.

Je me demandais si l’amendement CL291 était placé au bon endroit, mais il me paraît répondre à la même préoccupation que l’amendement CL19 rectifié de notre collègue Kuster à l’article 3, auquel j’allais vous proposer, chère collègue de La Raudière, de vous rallier, mais, finalement, je propose que nous l’adoptions.

Mme la présidente Yaël Braun-Pivet. Je rappelle que cet amendement CL101, objet de plusieurs sous-amendements, était en discussion commune avec l’amendement CL160 de Mme Albane Gaillot.

Mme Albane Gaillot. Dans le rapport « En finir avec l’impunité des violences faites aux femmes en ligne : une urgence pour les victimes » qu’il a rendu en 2018, le Haut Conseil à l’égalité entre les femmes et les hommes constate le manque de transparence et in fine de pédagogie des procédures de traitement des signalements. Je propose, par cet amendement CL160, d’y remédier en imposant aux opérateurs d’informer le notifiant des suites données à sa demande de retrait. Toutefois, et afin de faire preuve de pédagogie, il vise à imposer aux opérateurs non pas seulement d’informer mais plutôt de justifier au notifiant des suites données à sa demande de retrait : infraction concernée, règle de communauté transgressée, etc.

Mme Laetitia Avia, rapporteure. L’amendement me paraît relativement satisfait, car un certain nombre d’informations doivent être données aux utilisateurs, notamment sur les motifs du retrait. Je vous invite donc, chère collègue, à retirer votre amendement.

Les amendements CL297 et CL160 sont retirés.

La Commission rejette le sous-amendement CL298.

Puis elle adopte le sous-amendement CL291.

Puis elle adopte l’amendement CL101 ainsi sous-amendé.

En conséquence, les amendements CL56 de M. M’jid El Guerrab, CL194 de M. Erwan Balanant, CL181 de Mme Marie-France Lorho, CL244 de M. Paul Molac et CL195 de M. Erwan Balanant tombent.

La Commission adopte l’amendement de cohérence CL102 de la rapporteure.

Puis elle examine l’amendement CL268 de Mme Caroline Abadie.

Mme Caroline Abadie. Il est proposé, dans la proposition de loi, que le bouton de signalement soit « facilement accessible », objectif que nous partageons. En revanche, nous considérons que l’adverbe « facilement » peut engendrer de multiples interprétations de la part des plateformes, qui peuvent fort bien placer ce bouton dans ce qu’on appelle le footer – pied de page – ou dans les frequently asked questions (FAQ).

Pour éviter que ce bouton soit dissimulé, nous suggérons qu’il soit « directement » accessible, c’est-à-dire que, sur chaque contenu, sur chaque poste, sur chaque commentaire, sur chaque page du résultat d’un moteur de recherche, il soit visible et directement accessible depuis le contenu jugé illicite par l’utilisateur.

Mme Lætitia Avia, rapporteure. Avis très favorable.

La Commission adopte l’amendement.

Puis elle en vient à l’amendement CL127 de M. Raphaël Gérard.

M. Raphaël Gérard. Cet amendement vise à préciser l’obligation des plateformes en matière de conservation des données permettant aux victimes d’engager des procédures judiciaires à l’encontre des auteurs de contenus haineux sur les réseaux sociaux.

Aujourd’hui, trop souvent, les plateformes ne conservent pas les données nécessaires permettant d’identifier l’auteur des contenus haineux qui ont pu être retirés ou supprimés. À titre d’exemple, Facebook conserve ce type de données pendant une durée d’un mois, ce qui est en total décalage avec le délai de prescription des infractions liées à la loi sur la liberté de la presse et concernant les injures à caractère haineux ou discriminatoire, qui court sur un an. Les plateformes se retranchent souvent derrière le fait que l’obligation de conservation généralisée des données prévues par la LCEN n’est pas conforme au droit européen, et notamment aux dispositions du Règlement général sur la protection des données.

La Cour de justice de l’Union européenne (CJUE) demande, il est vrai, de circonscrire cette obligation dans les limites de ce qui est strictement nécessaire. C’est pourquoi je propose de préciser qu’en cas de retrait de contenus, les plateformes conservent les données utiles aux fins de poursuites judiciaires pour les victimes.

Cette disposition permettra sans doute de briser le sentiment d’impunité qui règne en ligne, y compris dans les cas de cyberharcèlement, où il reste compliqué pour les victimes de produire les preuves nécessaires.

Mme Lætitia Avia, rapporteure. Je comprends la difficulté que vous soulevez, mais les obligations relatives à la conservation des données ne me paraissent pas relever du champ de cette proposition de loi. Par ailleurs, sur le fond, votre rédaction est trop imprécise sur la durée de conservation des données. Demande de retrait ou avis défavorable.

M. Raphaël Gérard. Compte tenu des réelles difficultés pour engager des poursuites quand les preuves ont disparu, j’estime que cette question ne doit pas être écartée. Je vais donc retravailler cet amendement pour la séance.

L’amendement est retiré.

La Commission examine l’amendement CL161 de Mme Albane Gaillot.

Mme Albane Gaillot. Le présent amendement permettrait de faire des progrès en transparence et en pédagogie en imposant aux opérateurs de justifier auprès de l’auteur du contenu litigieux des suites données au signalement qui le vise : infraction concernée, règle de communauté transgressée ou non, etc.

Mme Laetitia Avia, rapporteure. Cet amendement est satisfait par l’adoption de mon amendement CL101 que nous venons d’adopter.

L’amendement est retiré.

La Commission adopte l’amendement de précision CL103 de la rapporteure.

Puis elle en vient à l’amendement CL73 de M. Hervé Saulignac.

M. Hervé Saulignac. Cet amendement concerne les moyens humains qui sont nécessaires à l’identification précise des contenus par les opérateurs. Il rappelle très simplement qu’il n’est pas souhaitable que l’ensemble du traitement des contenus repose exclusivement sur des moyens technologiques. Pour retirer un contenu, il faut la supervision d’un individu, d’un être humain et pas seulement d’une machine.

Mme Laetitia Avia, rapporteure. Je pense que, dans ce domaine, le RGPD est suffisamment complet : le traitement ne peut être totalement automatisé et algorithmique, sauf si les utilisateurs en sont pleinement informés et peuvent formuler certaines demandes. Demande de retrait ou, à défaut, avis défavorable.

La Commission rejette l’amendement.

Puis elle examine l’amendement CL202 de M. Erwan Balanant.

M. Erwan Balanant. Nous souhaitons que les opérateurs mentionnés à l’article 1er mettent à la disposition des visiteurs des pages web qu’ils gèrent une information claire, précise et détaillée sur les recours dont ces derniers disposent à l’encontre de leur décision d’effacer ou de maintenir en ligne un contenu ayant fait l’objet d’un signalement. Les recours détaillés devront correspondre à ceux susceptibles d’être exercés non seulement par le notifiant mais également par l’auteur d’un contenu effacé. Ce dispositif correspond à une recommandation formulée au point 27 de l’avis du Conseil d’État sur la proposition de loi dont nous sommes saisis, en vue d’assurer la pleine effectivité de la liberté d’expression et d’éviter les censures excessives.

Mme Laetitia Avia, rapporteure. C’est l’objet de mon amendement CL109 à l’article 3, auquel je vous invite à vous rallier.

M. Erwan Balanant. Dans un souci de clarté, nous pourrions l’adopter néanmoins et conserver votre article 3.

Mme Laetitia Avia, rapporteure. L’article 3 porte sur le devoir d’information et cette disposition y a sa place. Pour la lisibilité du texte, il vaut mieux structurer les éléments.

La Commission rejette l’amendement.

Elle examine l’amendement CL104 de la rapporteure.

Mme Laetitia Avia, rapporteure. L’amendement reprend les dispositions de l’article 1er relatives aux mécanismes de recours interne contre les décisions prises par les opérateurs de plateforme en ligne à l’égard des contenus manifestement haineux. Cela permettra aussi d’améliorer le traitement des signalements et constituera un retour d’expérience utile auprès du régulateur.

M. Frédéric Reiss. Cet amendement est important. Il ne simplifie pas forcément les choses, mais il contribue à la transparence. Après avoir supprimé les alinéas 3 à 5 de l’article 1er, il fallait réintroduire un dispositif allant dans le même sens, afin qu’un utilisateur dont le contenu est retiré d’une publication puisse contester cette décision, de même qu’il était important de permettre à l’auteur de signalement de contester le fait que sa notification n’avait pas été suivie d’effet. Je suis donc très favorable à cet amendement.

La Commission adopte l’amendement.

Puis elle adopte l’article 2 modifié.

Mme la présidente Yaël Braun-Pivet. Nous allons interrompre nos travaux. Il nous restera 143 amendements à examiner cet après-midi.

Seconde réunion du mercredi 19 juin 2019

Lien vidéo : http://assnat.fr/zzQ116

La Commission poursuit l’examen des articles de la proposition de loi visant à lutter contre la haine sur internet (n° 1785) (Mme Laetitia Avia, rapporteure)

Mme la présidente Yaël Braun-Pivet. Mes chers collègues, nous poursuivons l’examen de la proposition de loi visant à lutter contre la haine sur internet (n° 1785). Nous en étions arrivés aux amendements portant article additionnel après l’article 2.

Après l’article 2

La Commission examine en discussion commune l’amendement CL175 de M. Jean-Michel Mis, les amendements identiques CL50 de Mme Laurence Vichnievsky et CL166 de Mme Cécile Untermaier, ainsi que les amendements identiques CL53 de Mme Laurence Vichnievsky et CL167 de Mme Cécile Untermaier.

M. Rémy Rebeyrotte. L’amendement CL175 vise à offrir aux mineurs, premiers utilisateurs des plateformes en ligne, une protection spéciale lorsqu’ils sont victimes de cyberviolence, que le contenu soit manifestement illicite ou qu’il s’agisse de haine sur internet. Cela peut, en effet, avoir des conséquences extrêmement graves pour les mineurs victimes.

Mme Isabelle Florennes. L’amendement CL50 est similaire. Les mineurs sont seuls face aux réseaux sociaux, notamment quand ils sont victimes d’attaques ou de harcèlement. Ils ne savent pas décrire en quoi les contenus sont manifestement illicites et n’ont pas toujours envie d’en parler à leurs parents. Il serait donc utile qu’une personne morale puisse signaler un contenu haineux. La mission du signaleur de confiance va d’ailleurs bien au-delà du signalement : il agit comme interface entre les plateformes et les mineurs. L’amendement conserve néanmoins le délai de vingt-quatre heures, afin de tenir compte des arguments techniques de Mme la rapporteure.

M. Hervé Saulignac. L’amendement CL166 est identique. Les jeunes peuvent à la fois être victimes de cyberviolence et de cyberharcèlement. Il faut donc leur permettre de saisir, sans autorisation parentale – c’est essentiel – un signaleur de confiance, tel que défini par la recommandation de la Commission européenne du 1er mars 2018 sur les mesures destinées à lutter de manière efficace contre les contenus illicites en ligne. L’amendement CL167 est de repli puisqu’il ne concerne que la cyberviolence.

Mme Isabelle Florennes. L’amendement CL53 est également de repli. Il ne vise que les délits prévus dans le cadre de la loi du 29 juillet 1881 sur la liberté de la presse, les contenus haineux et injurieux étant plus faciles à qualifier que la haine qui s’apprécie au cas par cas.

Mme Laetitia Avia, rapporteure. Ces différents amendements ont le même objectif : permettre à un mineur victime de comportements illicites sur internet de pouvoir faire appel à une association qui assurera, à sa place, le signalement et le suivi. J’y souscris pleinement. Mais les différentes rédactions posent problème – retour dans les douze heures, alors que la proposition de loi prévoit vingt-quatre heures dans tous les cas ; champs différents ; risque de lecture a contrario des dispositions. Sur ce dernier point, alors que la proposition de loi prévoit que toute association peut procéder à des signalements sur la plateforme, je crains que vos amendements restreignent ce droit aux seules associations visées. Je vous propose donc de les retirer, afin que nous puissions trouver une rédaction commune pour la séance, sur la base du délai de vingt-quatre heures et de l’objectif d’accompagnement des mineurs.

M. Rémy Rebeyrotte. Dans cette hypothèse, Jean-Michel Mis m’avait autorisé à retirer l’amendement CL175.

Mme Isabelle Florennes. Nos propositions étaient ajustables. Nous allons retirer les amendements CL50 et CL53.

Mme George Pau-Langevin. Dans votre logique, tout le monde peut procéder à un signalement. Mais nous savons tous que certaines associations ont plus l’habitude et la compétence pour le faire – que ce soit parce qu’elles travaillent avec des mineurs ou traitent des sujets en lien avec le racisme. Il serait dommage de s’en priver et de ne pas leur faire une place spécifique. Dans les codes de bonnes pratiques européens, les signaleurs de confiance ont d’ailleurs un rôle particulier. Pourquoi ne pas prévoir un statut spécifique ? Je retire les amendements mais reprendrai l’idée pour la séance.

Les amendements sont retirés.

Article 3 : Devoir d’information des opérateurs de plateforme en ligne à fort trafic

La Commission adopte l’amendement de cohérence CL105 de la rapporteure.

Elle en vient à l’amendement CL176 de M. Erwan Balanant.

M. Erwan Balanant. Pour faire suite à l’amendement à l’article 2 sur la teneur de l’obligation d’information incombant aux opérateurs, et afin de rendre le dispositif plus opérationnel, le présent amendement vise à compléter l’obligation d’information en imposant aux opérateurs de publier la définition des différentes infractions d’injure et d’incitation à la haine. Un tel dispositif poursuit un double objectif. D’une part, il a une visée pédagogique, puisqu’il sensibilise l’ensemble des utilisateurs à la teneur d’une injure ou d’une incitation à la haine. Confrontés très régulièrement à ces informations au cours de leurs différentes connexions, ils auront ainsi une conscience accrue de ce qu’ils peuvent ou non exprimer sur ces dernières. D’autre part, il permettrait aux victimes de contenus relevant de l’injure ou de l’incitation à la haine de les identifier comme tels. Elles seraient alors incitées à agir.

Mme Laetitia Avia, rapporteure. Je comprends votre intention mais l’amendement pose problème. Votre rédaction ne vise pas l’ensemble des infractions concernées par la proposition de loi. Que couvre-t-on ? L’injure, l’injure discriminatoire, l’incitation ou la provocation à la haine ? C’est très lourd… Je crois à la vertu de la pédagogie et de l’éducation. Je vous demanderai de bien vouloir retirer l’amendement. À défaut, mon avis sera défavorable.

M. Erwan Balanant. Je ne vois pas en quoi le fait de disposer d’informations claires sur ce qu’est l’infraction d’injure ou d’incitation à la haine serait problématique. Vous parlez de pédagogie : la pédagogie, c’est l’art de la répétition ! Plus on répétera, plus il est probable que les utilisateurs – jeunes ou moins jeunes – percevront la signification des mots. M. Cédric O, secrétaire d’État chargé du numérique, nous l’a dit : certaines personnes n’ont pas conscience de la teneur de leurs propos… Nous devons faire un travail de fond, et celui-ci passe par la multiplication des alertes. Je ne retire pas mon amendement.

La Commission rejette l’amendement.

Puis elle adopte l’amendement CL106 de précision de la rapporteure.

Elle en vient à l’amendement CL269 de Mme Caroline Abadie.

Mme Caroline Abadie. L’amendement concerne également l’obligation d’information du public. Nous souhaitons indiquer aux personnes qui notifient des contenus quels sont leurs délais de recours en justice. En effet, ils sont courts. Il est donc utile de disposer de l’information dès la notification.

Mme Laetitia Avia, rapporteure. Mon avis est favorable. Cette information est nécessaire.

La Commission adopte l’amendement.

Elle passe à l’amendement CL86 de M. Hervé Saulignac.

M. Hervé Saulignac. Là encore, il s’agit de mieux informer les usagers. Nous proposons de supprimer la mention de l’alinéa 1 qui distingue les victimes « de contenus mentionnés à l’article 1er ». Même si les contenus signalés dépassent le champ d’application de la présente proposition de loi, il est impératif que les opérateurs informent de leurs droits les victimes qui ont procédé à un signalement.

Mme Laetitia Avia, rapporteure. Je comprends parfaitement votre objectif. Mais je l’ai déjà rappelé ce matin : toutes les obligations de moyens prévues par la proposition de loi sont soumises à la régulation du Conseil supérieur de l’audiovisuel (CSA). Son pouvoir de sanction étant extrêmement important, nous devons rester dans le champ restreint fixé par le Conseil d’État – contenus haineux, injurieux ou offensants.

En outre, d’un point de vue pratico-pratique, j’imagine difficilement les plateformes mettre en place des mécanismes de réponse uniquement sur un certain nombre de contenus. Les bonnes pratiques que nous cherchons à mettre en place vont sans doute permettre de développer un système vertueux.

M. Hervé Saulignac. Le problème n’est ni pratico-pratique ni technique, il s’agit simplement d’un signalement qui ne correspond pas au contenu mentionné à l’article 1er. Mais il peut néanmoins avoir du sens et être fondé. Une réponse – même automatique – pourrait parfaitement indiquer à celui qui se considère comme victime quels sont ses droits. Le pire serait de le laisser seul et sans réponse…

Mme Laetitia Avia, rapporteure. Je me suis sans doute mal exprimée : en pratique, vous avez raison, c’est faisable. La difficulté est d’ordre juridique – nous ne pouvons aller au-delà du champ visé par le texte –, celui soumis à la régulation. Nous avions initialement envisagé de demander aux plateformes de répondre à tout signalement dans un délai de sept jours, mais le Conseil d’État l’a refusé, au motif que cela ne concernait pas les contenus visés dans la proposition de loi. Hors de ce périmètre, il est impossible de fixer des obligations aux plateformes.

J’aimerais beaucoup aller plus loin, mais je ne veux pas mettre en danger la constitutionnalité et la conventionnalité du texte – nous y serions tous perdants. En pratique, je le répète, il serait plus intelligent que les plateformes répondent pour tous les contenus – et non uniquement pour ceux prévus par la proposition de loi. Espérons qu’elles le fassent, encourageons-les à le faire, mais nous ne pouvons pas l’écrire dans la loi.

La Commission rejette l’amendement.

Elle adopte ensuite l’amendement de coordination CL107 puis l’amendement rédactionnel CL108 de la rapporteure.

Elle en vient à l’amendement CL165 de Mme Michèle Victory.

M. Hervé Saulignac. Cet amendement reprend une recommandation du rapport de la commission d’enquête sur la lutte contre les groupuscules d’extrême droite en France, afin de valoriser davantage le rôle des associations qui luttent contre la propagation des discours haineux. Il aurait peut-être été bienvenu de prendre le temps nécessaire pour intégrer dans la proposition de loi certaines recommandations de cette commission d’enquête.

Mme Laetitia Avia, rapporteure. Je crains que l’amendement n’alourdisse la rédaction. La formulation retenue est volontairement générale – « les acteurs en mesure d’assurer leur accompagnement » – et permet de s’adapter à la pluralité des victimes, tout en incluant les associations d’aide aux victimes.

La Commission rejette l’amendement.

Puis elle examine l’amendement CL280 de Mme Caroline Abadie.

Mme Caroline Abadie. Nous l’avons abordé lors de la discussion générale, l’amendement vise à informer la personne qui notifie des risques qu’elle encourt en cas de notification abusive. Il ne s’agit pas d’empêcher un notifiant de bonne foi de signaler un contenu illicite, mais de limiter les notifications abusives – celles faites en parfaite connaissance de cause du caractère non-illicite du contenu.

Mme Laetitia Avia, rapporteure. Mon avis est favorable car cette précision vient compléter le dispositif voté ce matin concernant les notifications abusives.

La Commission adopte l’amendement.

Elle passe à l’amendement CL109 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement vise à compléter le devoir d’information des plateformes : elles doivent informer les utilisateurs auteurs de contenus retirés des voies de recours – internes et judiciaires – dont ils disposent, et pas seulement les victimes de ces contenus.

La Commission adopte l’amendement.

Puis elle en vient à l’amendement CL19 rectifié de Mme Brigitte Kuster.

Mme Brigitte Kuster. L’article 3 impose à dessein aux opérateurs d’informer leurs utilisateurs qui s’estiment victimes de contenus haineux sur leurs recours, y compris judiciaires. Mais, par parallélisme des formes, l’amendement propose que les opérateurs communiquent auprès des utilisateurs qui publient lesdits contenus sur les sanctions qu’ils encourent. Une telle disposition présenterait un caractère dissuasif. C’est pourquoi nous proposons de compléter l’article 3 par l’alinéa suivant : « Ils mettent à disposition une information publique, claire et détaillée sur les sanctions, y compris judiciaires, que leurs utilisateurs encourent en cas de publication de contenus mentionnés au même article ».

Mme Laetitia Avia, rapporteure. Vous aviez également déposé cet amendement lors des débats en commission des Affaires culturelles et de l’éducation. Il est pertinent et complète utilement le dispositif d’information.

La Commission adopte l’amendement.

Elle examine l’amendement CL270 rectifié de Mme Albane Gaillot.

Mme Albane Gaillot. Le testing des différentes plateformes réalisé par le Haut Conseil à l’égalité entre les femmes et les hommes dans le cadre de son rapport de février 2018 « En finir avec l’impunité des violences faites aux femmes en ligne : une urgence pour les victimes » a mis en lumière le manque de clarté des règles de modération transmises aux équipes de modération des plateformes qui sont chargées de décider si un contenu est conforme au règlement de la plateforme. C’est pourquoi le présent amendement vise à imposer aux plateformes de rendre publiques leurs règles de modération.

Mme Laetitia Avia, rapporteure. C’est une information importante en termes de transparence – selon quelles règles les contenus sont-ils retirés ? L’information est aujourd’hui asymétrique sur les différentes plateformes.

La Commission adopte l’amendement.

La Commission passe à l’amendement CL126 de M. Jean-François Cesarini.

M. Jean-François Cesarini. L’amendement vise à sanctionner les abus de dénonciation de contenus litigieux. Certaines plateformes disposent déjà de moyens de signalement et certains utilisateurs se regroupent pour signaler en bloc des contenus, dans le seul objectif d’empêcher l’autre de communiquer. S’il faut protéger ceux qui sont injuriés, il faut aussi sanctionner pénalement ceux qui signalent de manière malhonnête.

Mme Laetitia Avia, rapporteure. Nous avons voté ce matin un amendement similaire au vôtre, mais avec des peines cohérentes avec les dispositions de la loi pour la confiance dans l’économie numérique (LCEN) – 15 000 euros d’amende. Je vous remercie de bien vouloir le retirer.

L’amendement est retiré.

La Commission examine l’amendement CL110 de la rapporteure qui fait l’objet des sous-amendements CL141 de Mme Isabelle Florennes, CL293 de Mme Laure de La Raudière et CL164 de Mme Isabelle Florennes.

Mme Laetitia Avia, rapporteure. L’amendement CL110 reprend une des préconisations du Conseil d’État en matière de modération et de lutte contre les contenus haineux. Il vise à obliger les plateformes à rendre compte de l’organisation interne et des moyens qu’elles mettent en œuvre pour se conformer à l’obligation de retrait et de leurs moyens et actions dans la lutte contre les contenus illicites.

Le CSA fixera la liste des informations que les plateformes rendent publiques – certaines seront simplement transmises au CSA, d’autres communiquées au grand public.

Mme Isabelle Florennes. Les sous-amendements CL141 et CL164 sont de précision. Il s’agit de prévoir que les informations transmises devront notamment contenir les données quantitatives relatives aux contenus signalés, retirés, aux comptes suspendus ou supprimés, et les motifs ayant conduit à cette décision, ainsi que les actions de prévention mises en œuvre pour lutter contre la haine sur internet et le harcèlement, en particulier celles à destination des utilisateurs mineurs. Nous précisons en outre que les données devront être traitées et intégrées au rapport annuel d’activité du CSA.

Mme Laure de La Raudière. Le sous-amendement CL293 vise à préciser que la communication de ces informations se fera dans le respect du secret des affaires. Bien sûr, le CSA devra disposer d’un pouvoir d’audit des moyens mis en œuvre par les plateformes et comprendre dans le détail le fonctionnement des algorithmes. Mais, pour que la coopération avec les plateformes soit efficace et afin qu’elles soient rassurées, il conviendrait de préciser que la communication des données recueillies respectera le secret des affaires.

Mme Laetitia Avia, rapporteure. Madame de la Raudière, concernant le secret des affaires, je partage votre objectif, mais il va de soi. Les membres et agents du CSA sont astreints à un secret professionnel pour les faits, actes et renseignements dont ils peuvent avoir connaissance dans le cadre de leurs fonctions. Je crains que la rédaction de votre sous-amendement n’entraîne des conséquences mal évaluées. Je vous propose de vérifier si l’état actuel du droit permet d’éviter d’apporter cette précision. Dans l’attente, je vous demanderai de bien vouloir retirer le sous-amendement CL293.

Madame Florennes, le sous-amendement CL141 me semble trop restrictif. En effet, si certaines informations ont vocation à être transmises seulement une fois par an, d’autres pourraient être transmises mensuellement, trimestriellement ou semestriellement. La relation entre le CSA et les plateformes impliquera peut-être des échanges infra-annuels.

Le sous-amendement CL164 précise les informations à transmettre au CSA. Mais le mieux est parfois l’ennemi du bien… S’agissant des données quantitatives relatives aux contenus signalés, retirés, aux comptes suspendus ou supprimés, cela va de soi. Si les rapports de transparence ne contiennent pas ces informations, ils seront inutiles.

Vous souhaitez également la transmission des motifs ayant conduit à la décision – c’est lourd –, les actions de prévention mises en œuvre pour lutter contre la haine sur internet – c’est très large – et le harcèlement – ce n’est pas dans le champ de la loi – en particulier celles à destination des mineurs. Je vous propose soit de mettre à profit le temps qui nous reste avant la séance pour trouver une rédaction satisfaisante, en prenant en compte les préconisations du rapport de Benoit Loutrel, soit de rectifier le sous-amendement en ne le conservant que jusqu’au mot « supprimés ».

Mme Isabelle Florennes. S’agissant du sous-amendement CL141, vous m’indiquez que les informations seront bien intégrées au rapport annuel, et que des rendez-vous réguliers et la mise à jour des informations sont prévus.

S’agissant du sous-amendement CL164, notre groupe est très attaché à la prévention. Mais compte tenu des différentes modifications de la proposition de loi que vous avez opérées par amendement, il était complexe d’intégrer ce volet dans le dispositif. Il serait donc intéressant de réfléchir avec vous sur cet aspect qui nous tient à cœur, pour la séance.

Mme Laetitia Avia, rapporteure. Je m’y engage.

Mme Cécile Untermaier. Comme toute autorité administrative indépendante, le CSA rend un rapport annuel, qui comprendra une partie spécifique relative à ses nouvelles missions. Mais pourriez-vous nous en dire plus sur ce rapport ? S’agira-t-il d’un rapport numérique régulier, qui permettrait à chacun de savoir où en sont les signalements ?

M. Erwan Balanant. Ma question concerne notre sous-amendement CL141. Les autorités administratives indépendantes ont-elles l’obligation de rendre compte annuellement ? Si ce n’était pas le cas, il faudrait rectifier le sous-amendement pour indiquer « a minima annuellement ». Ainsi, nous aurions la certitude de disposer d’un rapport annuel, mais il pourrait y en avoir plus régulièrement. La proposition de Mme Untermaier est également intéressante. Peut-être peut-on y réfléchir pour la séance ?

Mme Laetitia Avia, rapporteure. Je suis toujours prête à faire plaisir à Erwan Balanant ! On peut prévoir dans la loi « au moins annuellement ». Pourquoi pas ?

Pour répondre à la question de Mme Untermaier, il faut distinguer la transparence vis-à-vis du CSA et la transparence vis-à-vis du public. Actuellement, pour ce dernier, la transparence est au moins annuelle. J’espère que, demain, elle pourra être plus régulière. Initialement, j’avais utilisé le terme « périodique » pour l’encourager, mais le Conseil d’État a souhaité qu’une périodicité précise soit indiquée. En pratique, les rapports de transparence seront bien plus réguliers, car la matière évolue rapidement.

Mme Fabienne Colboc, rapporteure pour avis. Peut-être le CSA pourra-t-il nous indiquer la périodicité. En effet, il rédigera les bilans en collaboration avec les plateformes.

Mme Laure de La Raudière. Notre discussion souligne que la rédaction mérite d’être clarifiée, en séparant clairement les informations à destination du public de celles nécessaires au travail du CSA avec les plateformes. Le secret des affaires pourrait ainsi être intégré.

Les sous-amendements CL141, CL293 et CL164 sont retirés.

Mme la présidente Yaël Braun-Pivet. Je prends note de l’engagement de la rapporteure à travailler avec vous sur ces différentes thématiques.

La Commission adopte l’amendement CL110.

La Commission examine l’amendement CL11 de la commission des Affaires culturelles et de l’éducation, qui fait l’objet des sous-amendements CL285 et CL286 de la rapporteure.

Mme Fabienne Colboc, rapporteure pour avis. Afin de renforcer l’efficacité de la lutte contre les contenus haineux en ligne, notre amendement propose d’imposer aux plateformes qui permettent à des mineurs de moins de quinze ans de s’inscrire de délivrer à ces derniers, ainsi qu’à leurs parents, une sensibilisation à l’utilisation civique et responsable de leur service, ainsi qu’une information sur les risques juridiques encourus par le mineur et ses parents en cas de diffusion de contenus haineux.

Mme Laetitia Avia, rapporteure. Le sous-amendement CL285 vise à déplacer votre amendement dans le champ du devoir de coopération des opérateurs de plateforme prévu par l’article 6-3 de la LCEN.

Le sous-amendement CL286 vise à supprimer la seconde phrase de l’amendement. Cette nouvelle obligation figurant à l’article 6-3 précité, dans le champ du devoir de coopération des opérateurs de plateforme, il n’y a pas lieu de faire référence au CSA. En outre, vous souhaitez qu’elle concerne « chaque opérateur », ce qui est très lourd. Nous préférons conserver l’obligation générale, liée au devoir de coopération à la charge des opérateurs.

Mme Fabienne Colboc, rapporteure pour avis. L’objectif de la commission des Affaires culturelles et d’éducation me semble satisfait par vos sous-amendements. Pour autant, et même s’il n’est pas utile de l’inscrire dans la loi, il faudra que cette sensibilisation prenne une forme active, impliquant la participation des utilisateurs, et ne se réduise pas à la diffusion discrète d’un message rapidement oublié…

M. Hervé Saulignac. Je vous avoue que je suis assez étonné, madame la rapporteure. Tout à l’heure, vous avez refusé un amendement visant à donner une simple information aux internautes faisant un signalement qui n’était pas dans les clous. Et là, vous donnez un avis favorable à un amendement qui vise à obliger les plateformes à délivrer des informations pour sensibiliser les parents de mineurs de moins de quinze ans, disposition aussi inutile que difficile à mettre en œuvre. J’ai l’impression que vous faites un tri sélectif dans les amendements et que vous voulez ici faire plaisir à une collègue, ce que je peux comprendre mais il faut le dire clairement.

Mme Fabienne Colboc, rapporteure pour avis. Il est important de rappeler que les parents sont responsables juridiquement de leurs enfants mineurs. Dans le cadre de la prévention, il est important de les impliquer. Ce n’est pas pour me faire plaisir que Mme la rapporteure a donné un avis favorable mais parce que cet amendement est étayé par les arguments avancés par plusieurs des personnes que nous avons auditionnées.

Mme Danièle Obono. Ce qui est en jeu, c’est l’opérationnalité du texte.

Mme Fabienne Colboc, rapporteure pour avis. Les parents étant censés autoriser l’inscription de leurs enfants de moins de quinze ans, autant leur fournir tous les renseignements nécessaires. Beaucoup de parents ne prennent conscience des enjeux attachés à l’utilisation des plateformes qu’une fois que les dégâts sont constatés.

Mme Laetitia Avia, rapporteure. Depuis le début de nos discussions, je donne des avis favorables sans qu’interviennent des considérations sur le groupe à l’origine de l’amendement. Je prends en compte les critères d’opérationnalité et je ne pense pas avoir fait preuve de sectarisme. Il ne s’agit pas de faire plaisir à qui que ce soit. Seules m’importent les dispositions qui vont dans le bon sens.

Par ailleurs, je rappelle que par mon sous-amendement, j’ai proposé de retirer le second alinéa de l’amendement CL11 qui ne me paraît pas opérationnel. J’ai suggéré de faire rentrer le premier alinéa dans l’article 6-3 de la LCEN, c’est-à-dire dans le champ des obligations de moyens imposées aux plateformes. Elles seraient soumises à l’obligation de mettre en œuvre des dispositifs d’information et de sensibilisation des parents.

Au titre du RGPD, les mineurs de moins de treize ans ne peuvent donner leur consentement pour créer un compte sur les réseaux sociaux et ceux qui sont âgés de treize à quinze ans doivent recueillir l’autorisation parentale pour s’inscrire. Concrètement, c’est à cette étape que les informations seraient délivrées aux parents pour les mettre en garde contre les dangers possibles de l’utilisation de la plateforme. Cela me semble aller dans le bon sens.

La Commission adopte successivement les sous-amendements CL285 puis CL286.

Elle adopte ensuite l’amendement CL11 sous-amendé.

La Commission est saisie de l’amendement CL111 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement reprend, dans le régime instauré par la proposition de loi, l’obligation faite aux opérateurs de plateforme de rendre compte aux autorités publiques des activités haineuses prévue dans la LCEN.

La Commission adopte l’amendement.

La Commission adopte ensuite l’article 3 modifié.

Après l’article 3

La Commission examine ensuite l’amendement CL112 de la rapporteure.

Mme Laetitia Avia, rapporteure. Il s’agit, par cet amendement, de transférer après l’article 3 une partie des dispositions de l’article 5 relatives à la coopération des acteurs numériques avec l’autorité judiciaire. Cela concerne l’aggravation des sanctions pénales en cas de non-coopération, qui passeraient de 75 000 euros à 250 000 euros pour les personnes physiques et à 1,25 million d’euros pour les personnes morales.

Le reste des dispositions de l’article 5 a vocation à figurer au sein de l’article 3, parmi les obligations de moyens auxquelles seront soumis les opérateurs de plateforme visés par la proposition de loi. Je parle ici de l’obligation faite aux plateformes de désigner un représentant légal sur le territoire français, interlocuteur référent du régulateur chargé de répondre aux demandes de l’autorité judiciaire, notamment celles qui portent sur l’identification de ceux de leurs utilisateurs qui commettent des délits.

La Commission adopte l’amendement.

En conséquence, l’article 3 bis est ainsi rédigé.

Puis elle examine l’amendement CL273 de Mme Caroline Abadie.

Mme Caroline Abadie. Cet amendement vise le cyber-harcèlement. Nous souhaiterions que les victimes puissent notifier les contenus en cause aux plateformes qui auraient obligation de conserver l’ensemble des données afin de faciliter les actions en justice.

Cette obligation est davantage une obligation de moyens qu’une obligation de résultat. Nous essayons par ce biais de permettre aux victimes de s’armer mieux, de limiter les attaques et de se préparer aux poursuites judiciaires.

Mme Laetitia Avia, rapporteure. Le harcèlement moral a été évoqué à de nombreuses reprises depuis ce matin. Il est important de travailler à des mécanismes qui permettraient de le rendre plus détectable, notamment lorsqu’il prend la forme de « raids numériques ». Le faire entrer dans le champ du texte pose toutefois problème. Nous savons que le périmètre des obligations de moyens est limité pour respecter l’exigence de conventionnalité soulignée par le Conseil d’État. Par ailleurs, il faudrait retravailler la rédaction concernant la conservation des données.

Je vous demande donc de bien vouloir retirer votre amendement, madame Abadie.

Mme Caroline Abadie. Nous avons conscience des points de faiblesse de cet amendement et nous essaierons de trouver un point de convergence avec ceux de nos collègues qui ont la même préoccupation que nous. J’accepte donc de le retirer.

L’amendement CL273 est retiré.

La Commission est saisie de l’amendement CL182 de M. Michel Larive.

Mme Danièle Obono. Cet amendement vise à éviter que les algorithmes utilisés par les plateformes aient pour conséquence de perpétuer, de produire ou de renforcer des préjugés justifiant et instituant des discriminations entre les personnes en raison de ce qu’elles sont.

Nous savons que les grandes plateformes produisent des biais algorithmiques, qui ont fait l’objet de plusieurs études. Pensons aux analyses de Cathy O’Neil dans son ouvrage Weapons of Math Destruction, dont l’édition française Algorithmes, la bombe à retardement a été préfacée par notre collègue Cédric Villani. Elle y démontre que derrière l’objectivité et la neutralité proclamée des algorithmes se cachent les opinions et les intérêts subjectifs des personnes qui les créent ou qui les utilisent.

Si l’on cherche sur de grands moteurs de recherche les termes « jeune noire », « jeune asiatique » ou « jeune arabe », les premières propositions renvoient à des sites pornographiques tout comme pour le mot « lesbienne ». Certaines associations ont fait récemment campagne pour que ces biais soient corrigés afin d’éviter la perpétuation de stéréotypes et de discriminations.

Ces biais ont des conséquences concrètes. Il a été révélé qu’un système de tri de curriculum vitae (CV) au profit d’entreprises proposé par Amazon pénalisait les CV contenant le mot « femme », soit en les mettant de côté, soit en proposant des salaires plus bas pour elles.

Les preuves s’accumulent et nous voulons obliger les plateformes à rendre publics les moyens qu’elles mettent en œuvre pour que leurs algorithmes ne discriminent plus.

Mme Laetitia Avia, rapporteure. Le problème que vous pointez est réel mais votre amendement soulève plusieurs difficultés.

Le premier alinéa se situe hors du champ du texte.

Par ailleurs, la législation actuelle, qu’il s’agisse de celle applicable au traitement de données à caractère personnel – RGPD, loi « Informatique et libertés » – ou du code pénal, comprend déjà des dispositions qui prohibent les traitements discriminatoires que vous visez. Il appartient aux régulateurs compétents, comme la CNIL ou demain le CSA avec les nouveaux pouvoirs d’enquête dont il sera doté, de s’assurer que l’interdiction des pratiques discriminatoires est respectée.

Avis défavorable donc.

Mme Danièle Obono. Cet amendement fait partie des rares amendements de notre groupe qui n’ont pas été déclarés irrecevables.

Cette proposition de loi se donne pour objectif de lutter contre l’incitation à la haine sur internet, qu’elle ait un caractère raciste, sexiste ou homophobe. Si nous voulons nous attaquer aux sources du problème et non pas seulement à ses manifestations, il nous faut légiférer sur les algorithmes qui propagent des pratiques discriminatoires. Nous sommes donc bien dans le champ du texte.

En outre, cet amendement tend à rendre transparents les ressorts des algorithmes. Nous connaissons le rôle crucial que jouent en ce domaine des lanceuses et lanceurs d’alerte et des associations. Grâce à cette disposition, ils pourraient d’autant mieux contribuer à corriger ces biais.

Cela n’a rien à voir avec le travail des régulateurs. C’est aux plateformes d’agir et la transparence est une manière de les responsabiliser.

La Commission rejette l’amendement.

Elle examine ensuite l’amendement CL180 de M. Ugo Bernalicis.

Mme Danièle Obono. Par cet amendement, nous proposons que les plateformes numériques mettent en place des dispositifs d’information et de communication visant à lutter contre la haine en ligne. Le régime de responsabilité et les obligations qui reposent sur les plateformes ne reflètent pas l’importance de la part qu’elles prennent dans les usages numériques des citoyens. Aujourd’hui, 40 % des jeunes disent avoir été victimes d’une agression en ligne. Pourtant les plateformes, notamment les grandes plateformes de réseaux sociaux, jouent sur l’ambiguïté inhérente à leur statut juridique d’hébergeur et laissent se développer une culture de l’impunité.

Des campagnes ont été diffusées sur les réseaux sociaux pour sensibiliser les utilisateurs aux pratiques discriminatoires. Il est nécessaire d’intensifier ce travail d’information et d’impliquer les plateformes. L’une des pistes possibles pourrait être l’allocation d’une partie de l’espace publicitaire disponible à ces campagnes.

Mme Laetitia Avia, rapporteure. Votre amendement est satisfait par les dispositions que nous avons votées à l’article 3 : « Les opérateurs de plateforme mettent à disposition une information publique, claire et détaillée sur les dispositifs de recours internes, judiciaires, ainsi que sur les délais de recours dont disposent les victimes de contenus mentionnés au premier alinéa de l’article 6-2 et sur les acteurs en mesure d’assurer l’accompagnement de ces victimes ».

Je vous demande donc de retirer votre amendement, madame Obono.

La Commission rejette l’amendement.

Elle est saisie de l’amendement CL210 de Mme Géraldine Bannier.

Mme Géraldine Bannier. Cet amendement prévoit d’obliger les opérateurs de plateforme à mettre en place, outre le dispositif de signalement, un dispositif de prévention afin d’informer leurs utilisateurs des conséquences néfastes de la diffusion de contenus haineux. Le travail de pédagogie n’incombe pas seulement aux familles et à l’école. Les opérateurs doivent aussi y contribuer.

Mme Laetitia Avia, rapporteure. Je vous demanderai de bien vouloir retirer cet amendement car il est trop imprécis. On ne sait pas ce que recouvrent les termes « dispositifs de prévention » ou « conséquences sur les victimes ». Il faut savoir ce que nous pouvons demander comme obligations de moyens aux plateformes. Elles s’exposent en cas de manquement, nous le savons, à des sanctions pouvant aller jusqu’à 4 % de leur chiffre d’affaires.

Mme Géraldine Bannier. Nous tenons à cette disposition sur laquelle nous retravaillerons avec mon groupe d’ici à la séance.

L’amendement CL210 est retiré.

Avant l’article 4

La Commission est saisie de l’amendement CL113 de la rapporteure, qui fait l’objet d’un sous-amendement CL294 de Mme Laure de La Raudière.

Mme Laetitia Avia, rapporteure. L’amendement CL113 insère un troisième chapitre relatif au « Rôle du Conseil supérieur de l’audiovisuel dans la lutte contre les contenus haineux en ligne ».

Mme Laure de La Raudière. Mon sous-amendement vise à remplacer les mots « haineux en ligne » par « manifestement illicites ».

Mme Laetitia Avia, rapporteure. Avis défavorable au sous-amendement : par cohérence avec les autres intitulés de chapitre de la proposition de loi, il faut maintenir les mots « contenus haineux en ligne », plus précis que « contenus manifestement illicites ».

Mme Laure de La Raudière. En ce cas, je retire mon sous-amendement.

Le sous-amendement est retiré.

La Commission adopte l’amendement.

Article 4 (art. 17-3 [nouveau] de la loi n° 86-1067 du 30 septembre 1986
relative à la liberté de communication) : Rôle du Conseil supérieur de l’audiovisuel dans la lutte contre la haine sur internet

La Commission examine l’amendement CL5 de la commission des Affaires culturelles et de l’éducation, qui fait l’objet d’un sous-amendement CL287 de Mme la rapporteure.

Mme Fabienne Colboc, rapporteure pour avis. L’amendement CL5 vise à renvoyer de façon précise aux dispositions de la loi, dans l’attente d’une refonte plus large des missions du CSA, plutôt que de lui donner une compétence générale en matière de haine en ligne.

Mme Laetitia Avia, rapporteure. Le sous-amendement CL287 procède à une coordination.

La Commission adopte le sous-amendement.

Puis elle adopte l’amendement CL5 sous-amendé.

En conséquence, les amendements CL32 de Mme Emmanuelle Anthoine, CL 39 de Mme Valérie Bazin-Malgras, CL34 et CL35 de Mme Emmanuelle Anthoine, CL41 de M. Jacques Marilossian, CL75 de Mme George Pau-Langevin, CL140 de M. Belkhir Belhaddad, CL200 de M. Erwan Balanant, CL248 et CL250 de Mme Aude Bono-Vandorme, CL208 de Mme George Pau-Langevin, CL154 de Mme Aude Luquet, CL47 de M. Christophe Blanchet, CL251 de Mme Aude Bono-Vandorme, CL271 de M. Jacques Marilossian, CL225 de M. Buon Tan, CL67 de Mme Barbara Bessot Ballot, CL196 et CL177 de M. Erwan Balanant, CL230 de M. Buon Tan, CL63 de M. Guillaume Chiche, CL226 de M. Buon Tan, CL138 de Mme Anne Genetet et CL146 de M. Philippe Dunoyer tombent.

Mme Laetitia Avia, rapporteure. L’amendement de la rapporteure pour avis a procédé à une simplification de la rédaction concernant les pouvoirs du CSA. Il fait référence aux dispositions que nous avons votées à l’article 1er, ce qui évite de l’intégrer à cet article.

M. Erwan Balanant. Certains amendements ont été votés ce matin.

Mme Laetitia Avia, rapporteure. Ils seront pris en compte puisqu’ils sont intégrés dans la description que nous avons établie ce matin et à laquelle l’amendement renvoie.

Mme la présidente Yaël Braun-Pivet. Tout vous paraîtra plus clair quand nous disposerons d’une version globale du texte modifié par la commission.

La Commission est saisie de l’amendement CL76 de Mme George Pau-Langevin.

Mme Cécile Untermaier. Cet amendement vise à intégrer dans le champ des missions du CSA le contrôle de la mise en œuvre des moyens technologiques et humains par les opérateurs visés par l’article 1er. L’effectivité des dispositions du texte découle en effet des moyens mis en œuvre par ces plateformes.

Mme Laetitia Avia, rapporteure. Je comprends le sens de votre amendement. Il est satisfait puisque nous avons inclus dans les obligations de moyens qui incombent aux plateformes l’obligation de mettre en œuvre les moyens humains ou technologiques pour traiter les signalements. Par ailleurs, nous venons de préciser que le CSA doit veiller à la bonne application de ces dispositions.

L’amendement CL76 est retiré.

La Commission en vient à l’amendement CL265 de Mme Laure de La Raudière.

Mme Laure de La Raudière. Nous proposons de donner au CSA des pouvoirs d’enquête et d’audit nécessaires à l’exercice de ses missions auprès des opérateurs de plateformes.

Mme Laetitia Avia, rapporteure. Votre amendement m’a permis d’identifier une lacune. Le CSA dispose déjà de pouvoirs d’enquête au titre de l’article 19 de la loi de 1986 mais ce dernier n’intègre pas les plateformes. Une mise à niveau serait donc nécessaire. C’est en ce sens qu’il faudrait proposer une modification en séance, madame de La Raudière.

Mme Laure de La Raudière. Je devrais venir plus souvent à la commission des Lois. Merci de m’y accueillir, madame la présidente. (Sourires.)

L’amendement CL265 est retiré.

La Commission en vient à l’amendement CL247 de M. François Pupponi.

M. François Pupponi. Les discussions sur la définition de l’antisémitisme sont récurrentes et le débat sur la proposition de résolution visant à lutter contre l’antisémitisme a été récemment reporté. Il faut être précis pour permettre que certains propos soient sanctionnés.

Mme Laetitia Avia, rapporteure. Il ne s’agit pas d’expliciter ou de redéfinir les notions de notre droit mais de s’assurer que notre droit puisse bel et bien s’appliquer. La proposition de résolution reviendra bientôt en débat et ce sera le cadre adéquat pour mener cette discussion.

La Commission rejette l’amendement.

Elle est saisie de l’amendement CL261 de Mme Laure de La Raudière.

Mme Laure de La Raudière. La liberté d’expression est une matière délicate et il me paraît audacieux de doter la même autorité indépendante du pouvoir d’enquêter, de constater, de définir la norme et la règle, et du pouvoir de sanctionner. Je considère qu’il revient au juge judiciaire d’assurer la sanction des contenus haineux. Nous devons laisser le CSA améliorer les pratiques et vérifier le respect des normes établies.

Mme Laetitia Avia, rapporteure. Nous laissons le pouvoir de sanction des contenus illicites au juge judiciaire. Je vous renvoie à l’article 1er : nous avons créé un délit pour sanctionner les plateformes qui ne retirent pas les contenus manifestement haineux sous vingt-quatre heures.

Le CSA est doté d’un pouvoir de supervision générale qui porte sur l’accompagnement dans la mise en œuvre de l’obligation de retrait, le contrôle des obligations de moyens et du comportement des plateformes. Seule l’autorité judiciaire peut rentrer dans une approche au cas par cas et statuer sur les relations entre un utilisateur et la plateforme.

Avis défavorable à cet amendement qui va à l’encontre de l’architecture du dispositif de la proposition de loi.

La Commission rejette l’amendement.

Elle examine ensuite l’amendement CL6 de la commission des Affaires culturelles et de l’éducation.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement vise à établir un lien plus clair entre la transmission d’informations régulières de la part des plateformes au CSA et les recommandations que ce dernier peut prendre dans le domaine de la lutte contre les contenus haineux.

Je sais que cet ajout n’est pas compatible avec les amendements qui viennent d’être adoptés mais il me paraît important d’obliger les plateformes à transmettre régulièrement des informations.

Mme Laetitia Avia, rapporteure. Votre amendement établit un lien direct entre informations transmises par les plateformes et recommandations. Or le CSA peut en émettre sans se fonder sur cette base.

Je vous demande de bien vouloir retirer cet amendement.

L’amendement CL6 est retiré.

La Commission adopte ensuite l’amendement de coordination CL114 de la rapporteure.

Puis elle examine, en discussion commune, les amendements CL115 de la rapporteure et CL170 de Mme Céline Calvez.

Mme Laetitia Avia, rapporteure. L’amendement CL115 propose de permettre au CSA de formuler non seulement des recommandations mais aussi des bonnes pratiques et des lignes directrices pour la bonne application des obligations mentionnées aux articles 6-2 et 6-3 de la LCEN que nous avons créés. Nous renforçons le rôle d’accompagnement du CSA.

M. Thomas Rudigoz. L’amendement CL170 est défendu.

Mme Laetitia Avia, rapporteure. Je vous demanderai, monsieur Rudigoz, de le retirer au profit de mon amendement.

M. Frédéric Reiss. L’accent mis sur les bonnes pratiques et les lignes directrices va dans le bon sens. Il satisfera ceux qui insistent sur le travail de prévention que doivent aussi mener les plateformes.

Ces nouvelles tâches entraîneront pour le CSA, qui œuvre avant tout dans le domaine audiovisuel, beaucoup de travail supplémentaire. Il devra mobiliser des moyens financiers supplémentaires. Comment cela va-t-il se traduire dans la prochaine loi de finances ?

La Commission adopte l’amendement CL115.

En conséquence, les amendements CL170 et CL7 de la commission des Affaires culturelles et de l’éducation tombent.

La Commission en vient à l’amendement CL147 de M. Philippe Dunoyer.

Mme Laure de La Raudière. L’amendement ouvre la possibilité pour le CSA d’enjoindre sous astreinte les opérateurs qui ne se conformeraient pas aux recommandations qu’il a édictées.

Mme Laetitia Avia, rapporteure. Dans le dispositif actuellement prévu, les opérateurs font l’objet d’une mise en demeure s’ils n’exécutent pas les recommandations du CSA. Il n’est pas prévu de dispositif d’astreinte. Le système est déjà assez lourd et dissuasif car si les plateformes ne s’exécutent pas dans le délai imparti, elles s’exposent à une sanction pouvant aller jusqu’à 4 % de leur chiffre d’affaires mondial. Avis défavorable.

La Commission rejette l’amendement.

Elle examine, en discussion commune, l’amendement CL8 de la commission des Affaires culturelles et de l’éducation, qui fait l’objet d‘un sous-amendement CL288 de la rapporteure, et les amendements identiques CL178 de M. Erwan Balanant et CL237 de M. Paul Molac.

Mme Fabienne Colboc, rapporteure pour avis. L’amendement CL8 tend à rendre explicitement annuelle la publication du bilan du CSA.

Mme Laetitia Avia, rapporteure. Le sous-amendement CL288 vise à préciser que le bilan porte non seulement sur l’application des dispositions par les opérateurs mais aussi sur l’effectivité des obligations qui s’imposent à eux.

M. Erwan Balanant. L’amendement CL178 est défendu.

M. Jean-Félix Acquaviva. Tout comme l’amendement CL237.

La Commission adopte le sous-amendement.

Puis elle adopte l’amendement CL8 sous-amendé.

En conséquence, les amendements CL178 et CL237 tombent.

La Commission en vient à l’amendement CL9 de la commission des Affaires culturelles et de l’éducation.

Mme Fabienne Colboc, rapporteure pour avis. Il s’agit de permettre au CSA de rendre publiques tout ou partie des informations que les opérateurs de plateforme seront tenus de lui transmettre mensuellement.

Mme Laetitia Avia, rapporteure. Je vous demande de bien vouloir retirer votre amendement qui n’est pas cohérent avec l’équilibre auquel nous sommes parvenus.

L’amendement CL9 est retiré.

La Commission examine, en discussion commune, l’amendement CL116 deuxième rectification de la rapporteure et CL10 de la commission des Affaires culturelles et de l’éducation.

Mme Laetitia Avia, rapporteure. Cet amendement décrit la procédure que devra suivre le CSA avant de prononcer une sanction à l’encontre des opérateurs qui n’auraient pas respecté leurs obligations.

La première version de la proposition de loi se contentait d’un paragraphe, à l’article 1er. J’ai fait le choix d’entrer dans les détails pour que l’on puisse bien comprendre ce qui se passe lorsqu’une personne informe le CSA d’un manquement.

Nous précisons d’abord que le CSA intervient en cas de manquement par un opérateur au devoir de coopération résultant de l’article 6-3 modifié par les dispositions que nous avons votées – obligations en termes de moyens humains et technologiques proportionnés, obligations en matière de signalement, d’information, de coopération judiciaire, respect des recommandations émises par le CSA en matière d’obligations de retrait.

La décision du CSA se fondera sur deux éléments.

Il s’agit, d’une part, du respect des obligations détaillées dans le nouvel article 6-3.

Il s’agit, d’autre part, des conditions dans lesquelles l’opérateur se conforme aux recommandations que le CSA a émises. Il appréciera le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait des contenus.

Fort des informations qu’il aura reçues, il se saisira pour engager une procédure.

Il enverra d’abord une mise en demeure pour que les opérateurs se conforment aux recommandations. C’est à ce stade qu’ils pourront rectifier le tir. C’est là où nous nous éloignons du système allemand où la sanction est directement appliquée.

Si une fois le délai imparti écoulé, le CSA doit à nouveau se saisir, il peut prononcer une sanction pouvant aller jusqu’à 4 % du chiffre d’affaires mondial.

Il peut rendre publiques à la fois les mises en demeure et les sanctions prononcées. Il peut également ordonner leur insertion dans des publications, journaux ou tout support qu’il désignera.

Par coordination, cet amendement transfère au CSA le contrôle de la mise en œuvre des dispositions de l’article 6-1 de la LCEN, relatives notamment au blocage de sites terroristes, qui relève aujourd’hui de la compétence d’une personnalité qualifiée désignée au sein de la Commission nationale de l’informatique et des libertés.

Mme Fabienne Colboc, rapporteure pour avis. Mon amendement CL10 étant satisfait par celui de la rapporteure, je le retire.

L’amendement CL10 est retiré.

Mme Laure de La Raudière. J’aimerais avoir quelques précisions. Cet article ayant subi plusieurs réécritures, je ne suis pas certaine d’avoir bien compris le dispositif. Les recommandations du CSA ont pour mission de lutter contre la diffusion de contenus manifestement illicites, mais il faut veiller aussi à ce que les plateformes ne remettent pas en cause la liberté d’expression. Cette préoccupation a-t-elle sa place dans votre texte ?

Imaginons qu’une plateforme supprime trop de contenus : dans ce cas, appliquera-t-on la même méthodologie ? Qui va contrôler les recommandations du CSA dans ce domaine ? La jurisprudence relative aux contenus manifestement illicites est assez précise. En revanche, il est parfois plus difficile de qualifier les atteintes à la liberté d’expression. Mes questions sont nombreuses, mais c’est une manière de clarifier les choses en vue du débat en séance.

M. Frédéric Reiss. L’amendement de la rapporteure, qui détaille la procédure que le CSA devra suivre avant le prononcé d’une sanction, rend sans objet l’amendement que nous avons adopté en commission des Affaires culturelles. Le problème, c’est que nous n’avons aucune idée du nombre de situations que le CSA aura à examiner, ni du nombre de mises en demeure qu’il devra prononcer. Ce qui est sûr, c’est qu’il aura beaucoup de travail. J’aimerais donc savoir s’il aura aussi les moyens humains pour y faire face.

Mme Laetitia Avia, rapporteure. Madame de La Raudière, une décision du CSA pourra faire l’objet d’un recours administratif devant le Conseil d’État.

Vous posez également la question des plateformes qui procéderaient à des retraits excessifs : je pensais m’être expliquée clairement à ce sujet, mais je vais y revenir. Le CSA se fondera sur deux éléments pour constater un manquement : la méconnaissance des obligations de moyens et le non-respect de ses recommandations relatives au retrait des contenus illicites, ainsi que des bonnes pratiques qui doivent orienter les plateformes. Le CSA a surtout vocation à sanctionner les plateformes qui n’exercent pas des contrôles suffisants – c’est l’objet de cette loi – mais il pourra évidemment sanctionner celles qui procèdent à des retraits excessifs. Son rôle est d’analyser la conformité de la plateforme aux règles prescrites, dans une logique de régulation administrative.

Monsieur Reiss, il est vrai que la mission du CSA, aujourd’hui, consiste essentiellement à émettre des recommandations. Il devra effectivement être à la hauteur des nouvelles missions que nous lui confions. Le ministre pourra sans doute vous donner des précisions sur ce sujet en séance.

La Commission adopte l’amendement CL116, deuxième rectification.

Elle examine ensuite l’amendement CL77 de Mme George Pau-Langevin.

Mme George Pau-Langevin. Avec cet amendement, nous proposons que le CSA crée une base de données compilant l’ensemble des décisions rendues par les opérateurs mentionnés à l’article 1er sur le fondement de ce même article. Cet amendement rejoint certaines des dispositions que vous avez introduites dans ce texte : il s’agit de disposer d’une collection de bonnes pratiques et de créer des références pour aider les plateformes à prendre les bonnes décisions.

Mme Laetitia Avia, rapporteure. C’est déjà l’objet des recommandations du CSA, qui seront publiques. Votre amendement me paraissant satisfait, je vous invite à le retirer. À défaut, j’émettrai un avis défavorable.

La Commission rejette l’amendement.

Puis elle adopte l’amendement de cohérence CL117 de la rapporteure.

En conséquence, les amendements identiques CL59 de M. M’Jid El Guerrab et CL282 de M. Paul Molac tombent.

La Commission en vient à l’examen de l’amendement CL169 de Mme Céline Calvez.

M. Thomas Rudigoz. Avec cet amendement, nous proposons que les plateformes soient obligées de signaler aux autres plateformes les contenus haineux qu’elles auront repérés, afin d’éviter leur propagation.

Mme Laetitia Avia, rapporteure. Votre amendement vise à renforcer la coopération des plateformes dans la lutte contre la diffusion des contenus haineux, notamment des vidéos en direct. L’attentat de Christchurch a montré combien ce type de coopération était nécessaire pour éviter la propagation de ces contenus.

Cela étant, la rédaction de votre amendement présente plusieurs problèmes. Par ailleurs, il porte sur l’article 4, qui est relatif aux pouvoirs du CSA. Or ce n’est pas son objet, à moins que vous ne souhaitiez confier au CSA l’organisation de la coopération des plateformes… Quoi qu’il en soit, je vous invite à retirer cet amendement.

L’amendement est retiré.

La Commission en vient à l’amendement CL222 de M. Buon Tan.

M. Buon Tan. Cet amendement propose d’appliquer à la lutte contre la haine sur internet le principe du « name and shame ».

L’idée est de doubler les sanctions financières d’une sanction atteignant directement la réputation des sites condamnés. Certaines entreprises, parce qu’elles sont très riches, sont peu sensibles aux sanctions financières, mais elles le sont davantage à celles qui touchent leur réputation. Nous proposons donc que les sanctions prononcées par le CSA soient publiées sur son site internet et, aux frais de l’entreprise sanctionnée, sur d’autres supports.

Mme Laetitia Avia, rapporteure. Votre amendement est partiellement satisfait. L’amendement CL116 deuxième rectification, que nous venons de voter, prévoit déjà la publication des sanctions prononcées par le CSA. Vous proposez d’aller jusqu’à l’astreinte journalière, mais le dispositif que nous proposons me semble déjà suffisamment lourd et dissuasif. Je vous invite donc à retirer votre amendement.

L’amendement est retiré.

La Commission adopte l’article 4 modifié.

Après l’article 4

La Commission examine l’amendement CL132 de M. Éric Ciotti.

M. Éric Ciotti. Je n’ai pas eu l’occasion de le faire ce matin, mais je veux saluer l’esprit de ce texte, l’objectif qu’il poursuit et son exigence. Aujourd’hui, un grand nombre de réseaux sociaux sont devenus des vecteurs de haine et il importait d’agir. J’avais moi-même déposé une proposition de loi sur ce sujet, qui rejoignait totalement vos préoccupations.

Je voterai donc ce texte, mais je pense qu’il y manque une disposition relative à la fin de l’anonymat. Certains réseaux sociaux, notamment Twitter, sont le lieu d’un déferlement de propos haineux absolument insupportables, où s’expriment notamment l’antisémitisme et la propagande islamiste, et dont les auteurs restent anonymes. Il me semblerait donc opportun – je sais que le débat a été ouvert et que vous l’avez envisagé – de mettre fin à l’anonymat. Tel est l’objet de cet amendement.

À partir d’un certain volume d’utilisateurs, dont le seuil pourrait être fixé par décret, nous proposons que les plateformes soient obligées de vérifier l’identité de leurs utilisateurs. Toute personne souhaitant ouvrir un compte sur Twitter ou Facebook devrait déclarer son identité et fournir une déclaration de responsabilité.

Cet amendement mettrait fin à l’anonymat, qui permet de diffuser des discours haineux en toute impunité.

Mme Laetitia Avia, rapporteure. Vous soulevez un point important, qui va me donner l’occasion de corriger une idée reçue. Si certains utilisateurs croient effectivement être anonymes, c’est parce qu’ils méconnaissent les informations dont les plateformes disposent à leur sujet. Nombre d’entre eux profèrent leur discours sans aucune retenue parce qu’ils se croient anonymes. Or le système actuel n’est pas celui de l’anonymat, mais du pseudonymat. L’anonymat véritable est extrêmement rare sur les réseaux sociaux et, plus globalement, sur internet, parce que les plateformes ont les moyens d’identifier les utilisateurs au titre de la LCEN.

En effet, lorsqu’elles font l’objet d’une réquisition judiciaire, les plateformes doivent transmettre, non seulement l’adresse IP, mais des informations relatives à l’identité de la personne qui a commis un délit. Dans certaines matières, par exemple la lutte contre le terrorisme, le taux de réponse aux réquisitions judiciaires est extrêmement élevé, de l’ordre de 95 %. C’est la preuve que les dispositions de la LCEN sont appliquées et qu’elles fonctionnent dans ce domaine. En revanche, face aux types de contenus haineux que nous évoquons depuis ce matin, le taux de réponse est bien moins élevé. C’est la preuve que cela relève de la bonne volonté des plateformes.

Le dispositif que j’ai proposé et que nous avons voté tout à l’heure, en matière de coopération judiciaire, comprend deux volets. Premièrement, nous renforçons la sanction pénale qui s’applique aux plateformes qui ne coopèrent pas, en la faisant passer à 1 250 000 euros. Deuxièmement, nous les obligeons à avoir un référent légal, un interlocuteur sur le territoire national français, qui aura pour mission de recevoir les demandes de l’autorité judiciaire. Cela signifie que les plateformes auront un représentant en France chargé d’échanger avec nos autorités judiciaires. La combinaison de ces deux dispositifs doit nous permettre de régler le problème.

La proposition que vous faites de demander à chaque utilisateur une pièce d’identité présente, de mon point de vue, un risque disproportionné, puisque Facebook disposerait d’une base de données de toutes nos pièces d’identité. Or je ne veux pas aller dans ce sens-là.

M. Alexis Corbière. Bien sûr !

M. Erwan Balanant. La rapporteure a raison de souligner combien il serait dangereux qu’un opérateur privé puisse stocker nos cartes d’identité. Au-delà de la question de l’anonymat, dont elle a justement rappelé qu’il n’existe jamais vraiment, je voudrais appeler votre attention sur la question de l’éducation. Les gens, parce qu’ils pensent s’exprimer de façon anonyme, à visage couvert, se permettent sur internet, et particulièrement sur les réseaux sociaux, des choses qu’ils ne se permettraient jamais dans la vraie vie.

On compare souvent Facebook au café du commerce. Mais, au café du commerce, on ne se permet pas les mêmes choses que sur internet, d’abord parce que cela peut finir en bagarre. Il faut éduquer les gens, leur rappeler ce qui se fait et ce qui ne se fait pas. Vous avez dit, madame la rapporteure, que l’on ne pouvait pas tout interdire et que les simples injures ne seraient pas sanctionnées. Mais dans le monde réel, on ne tolère pas les injures. Il faut donc trouver le moyen qu’elles deviennent également intolérables dans le monde virtuel. Votre texte introduit de belles avancées, mais elles ne suffiront pas, car il faudrait relier tout cela à la question de l’éducation et du savoir-vivre sur internet.

M. Alexis Corbière. Ce débat est intéressant. Nous savons notre collègue Éric Ciotti très attaché à la sécurité de nos concitoyens et nous pouvons partager sa préoccupation, mais j’invite chacun à prendre la mesure de ce dont nous parlons. On ne peut pas accepter qu’un grand opérateur privé, qui maîtrise un réseau social et qui est même en train de lancer une monnaie virtuelle, possède la pièce d’identité de l’ensemble de nos concitoyens, connaisse leurs opinions politiques et leurs modes de consommation… Vous qui êtes attaché à la sécurité, ne fabriquez pas une pieuvre, un monstre qui remettrait en cause nos libertés individuelles. Il faut évidemment que la justice puisse intervenir lorsque c’est nécessaire, mais la mesure que vous proposez aurait des conséquences désastreuses. Sur ce sujet, je marche sur les pas de la rapporteure.

M. Hervé Saulignac. Nous sommes au cœur du débat. Jusqu’ici, nous nous sommes intéressés à la haine et aux messages haineux, mais assez peu à leurs auteurs. Or notre objectif ne doit pas être de condamner une pensée, ce qui serait grave, mais un acte, celui qui consiste à produire un contenu et à le diffuser sur les réseaux sociaux.

L’anonymat est certes relatif, mais il existe des moyens de le préserver. On peut se cacher derrière un réseau privé virtuel – Virtual Private Network (VPN) – ou utiliser une adresse à l’étranger, par exemple aux États-Unis. Il ne faut pas sous-estimer les moyens qui permettent, aujourd’hui, de préserver son anonymat.

J’aimerais réagir aux propos de notre collègue Erwan Balanant. Facebook, c’est tout, sauf le café du commerce ! Ne laissons pas croire une bêtise pareille ! Quand je suis au café du commerce avec mes amis, je peux leur proposer de changer de café. Or ce n’est pas possible avec Facebook, puisqu’il s’agit d’un système captif. Il faudrait que nous ayons un débat sur l’interopérabilité des réseaux sociaux, et ce n’est pas le lieu, mais nous n’arriverons à briser ce système fou que lorsqu’il sera possible de quitter un réseau social avec ses amis pour aller sur un autre réseau social. On se rapprochera un peu, alors, du café du commerce, mais on en est encore très loin… Toute la valeur de Facebook – si je puis dire –, c’est précisément d’avoir réussi à capturer, non seulement une masse considérable de personnes, mais aussi d’informations et de contenus relatifs à leur vie privée.

Mme Caroline Abadie. Il faut faire preuve d’un peu de pragmatisme. On ne peut pas imaginer que les réseaux sociaux mettent brutalement fin au pseudonymat et à l’anonymat. Lorsque Cédric O, le secrétaire d’État chargé du numérique, est venu devant notre commission au début du mois de juin, il a pris plusieurs exemples très parlants, notamment celui des enfants qui jouent à des jeux vidéo en ligne : il a rappelé que c’était une bonne chose qu’ils continuent de s’identifier avec des pseudonymes du type bisounours767.

Si certains internautes ont effectivement un sentiment d’impunité, je pense que cette loi va aider à le combattre. Lorsque plusieurs jugements auront été rendus publics et que des personnes auront été prises la main dans le sac, en train de proférer des injures discriminatoires sur internet, je pense que le message passera.

M. Robin Reda. Je voulais introduire dans notre débat la question de l’usurpation d’identité, qui est aujourd’hui très mal sanctionnée sur un certain nombre de réseaux sociaux, notamment sur le plus connu d’entre eux. L’amendement d’Éric Ciotti aurait le double avantage de renforcer la responsabilité pénale des acteurs qui utilisent les plateformes et de faciliter la lutte contre un certain nombre d’abus, y compris l’usurpation d’identité.

J’ajouterai avec un peu de malice que sur un site qui est très à la mode en ce moment – je veux parler de celui du référendum sur la privatisation des Aéroports de Paris –, à la fin d’un long formulaire, on vous demande votre numéro de carte d’identité ou de passeport, ainsi que d’autres informations. Je ne sais pas si ce site est géré par un prestataire ayant reçu une délégation de l’État, mais cela montre que les dispositifs existent déjà et que l’on peut, en toute confidentialité, vérifier l’identité de ceux qui remplissent le formulaire.

M. Alexis Corbière. C’est le principe ! Il faut déclarer son identité.

M. Robin Reda. Bien sûr, mais si l’on considère que les plateformes sont des lieux d’expression démocratique, des places publiques et qu’un citoyen s’exprime aussi…

M. Alexis Corbière. J’ai plus confiance en Christophe Castaner qu’en Facebook !

M. Robin Reda. Je m’arrête là, car la phrase d’Alexis Corbière conclut magnifiquement ce propos. (Sourires.)

M. Éric Ciotti. Madame la rapporteure, mes chers collègues, j’ai bien entendu vos arguments. Vous avez voté ce matin des dispositions qui renforcent les sanctions pénales applicables, en les portant à 1 250 000 euros, et cela va dans le bon sens. Il est vrai que tout est traçable aujourd’hui et qu’une enquête judiciaire poussée permet d’identifier les auteurs de messages criminels ou les organisateurs d’un attentat. Tout cela est vrai, mais nous sommes déjà, dans ces cas-là, dans le cadre de l’enquête judiciaire et de la sanction pénale. Vous renforcez les outils existants, en imposant une sanction pénale aux plateformes qui ne coopéreraient pas. Je l’avais proposé sous la précédente législature : c’est ce que l’on avait appelé « l’amendement IPhone », parce que je proposais d’interdire la commercialisation des appareils dont les opérateurs ou les constructeurs refusaient de collaborer avec la justice, comme cela était arrivé aux États-Unis, après un attentat.

Je rejoins un peu Erwan Balanant sur l’aspect éducatif : il faut renforcer la prévention et responsabiliser les gens. En revanche, je ne partage pas la crainte, exprimée par plusieurs collègues, de voir se constituer un fichier. Malheureusement, ces réseaux ont déjà des outils beaucoup plus intrusifs et dangereux, qui leur permettent d’influer sur les pratiques et les modes de pensée et de consommation. Ils ont déjà créé un fichier mondial de 2,5 milliards d’utilisateurs qui est tout à fait terrifiant.

J’ai bien conscience que mon amendement peut être difficile à appliquer et qu’il n’est pas parfait. Il me semblerait pourtant opportun de mettre fin à l’anonymat et de responsabiliser les gens.

La Commission rejette l’amendement CL132.

Article 5 (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Renforcement de l’obligation de coopération des opérateurs numériques avec l’autorité judiciaire en matière de lutte contre les contenus illicites

La Commission examine l’amendement CL118 de la rapporteure tendant à supprimer l’article 5.

Mme Laetitia Avia, rapporteure. Cet amendement tend à supprimer les dispositions relatives à la coopération judiciaire, car nous les avons déplacées dans le chapitre relatif au devoir de coopération des plateformes, où nous avons créé un article additionnel, après l’article 3.

La Commission adopte l’amendement.

En conséquence, l’article 5 est supprimé et les amendements identiques CL211 de Mme Marie-France Lorho et CL238 de M. Jean-Félix Acquaviva tombent, ainsi que les amendements CL241 de M. Jean-Félix Acquaviva, CL60 de M. M’Jid El Guerrab, CL79 de Mme George Pau-Langevin, CL24 de M. Nicolas Démoulin et CL80 de Mme George Pau-Langevin.

Après l’article 5

La Commission examine l’amendement CL119 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement vise à créer le chapitre IV de cette loi, qui s’intitulera : « Amélioration de la lutte contre la diffusion de contenus haineux en ligne ». Il concerne, non plus les plateformes, mais les sites à caractère haineux.

La Commission adopte l’amendement.

Elle examine ensuite l’amendement CL23 de M. Nicolas Démoulin.

M. Nicolas Démoulin. Je vous remercie, madame la présidente, de m’accueillir dans cette belle commission. Cet amendement concerne les mineurs, un public particulièrement concerné par le cyber-harcèlement, notamment dans le cadre scolaire. Entre 2010 et 2014, la proportion de jeunes âgés de 9 à 16 ans concernés par le cyber-harcèlement est passée de 8 à 12 %.

Dans la mesure où le fait qu’une infraction soit commise sur un mineur constitue une circonstance aggravante en matière pénale, il apparaît logique d’alourdir les sanctions, notamment financières, lorsqu’un opérateur manque à son obligation de retirer un contenu haineux impliquant un ou plusieurs mineurs. Je propose ainsi de porter la peine financière à 300 000 euros.

Mme Laetitia Avia, rapporteure. Je comprends votre objectif et j’y souscris, puisqu’il s’agit de protéger davantage les mineurs. Cela étant, votre amendement me semble poser un double problème, à la fois juridique et opérationnel – et je vous garantis que j’ai passé beaucoup de temps à y réfléchir ! Au moment où un commentaire est publié, une plateforme n’a aucun moyen de savoir s’il vise un mineur. Il faudrait donc prendre en compte les infractions signalées par des mineurs, mais cela n’existe pas en droit : une circonstance aggravante est toujours liée à la victime, et non à la personne qui signale un fait répréhensible.

En dépit du temps que j’y ai passé, je n’ai pas trouvé de solution pour rendre votre amendement opérationnel. Je suis donc au regret de vous demander de le retirer. À défaut, j’émettrai un avis défavorable.

M. Nicolas Démoulin. Je suis ravi que vous ayez passé du temps à trouver une solution. Puis-je continuer à travailler sur le sujet ?

Mme Laetitia Avia, rapporteure. Évidemment !

L’amendement est retiré.

Article 6 (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Simplification de la procédure de blocage et de déréférencement des sites haineux et possibilité pour l’autorité administrative d’enjoindre le blocage de sites miroirs

La Commission est saisie de l’amendement CL188 de Mme Muriel Ressiguier, tendant à supprimer l’article 6.

M. Alexis Corbière. L’amendement CL188 tend à supprimer l’article 6 qui, d’après nous, présente quelques problèmes, s’agissant de la garantie des droits.

Il attribue à une autorité administrative indéterminée un pouvoir d’injonction, alors que les décisions de justice ont déjà force exécutoire. Cette disposition nous semble être de nature à réduire les libertés fondamentales. Le pouvoir d’injonction accordé à l’autorité administrative semble supplanter les compétences actuellement attribuées au pouvoir judiciaire. Je ne développe pas davantage mon argumentation, car nous avons déjà débattu de cette question.

Suivant l’avis défavorable de la rapporteure, la Commission rejette l’amendement.

Puis elle examine l’amendement CL239 de M. Jean-Félix Acquaviva.

M. Jean-Félix Acquaviva. Cet amendement propose une nouvelle rédaction de l’article 6. Dans sa rédaction actuelle, il supprime en effet de grands principes du droit de l’internet, sans garantir l’efficacité du nouveau dispositif.

L’alinéa 2 prévoit la suppression du principe de subsidiarité, un principe fondamental du droit de l’internet assurant, notamment dans un souci d’efficacité, l’équilibre des responsabilités des acteurs de l’internet. Ce principe dispose que, dans le cas où un juge constate la nécessité de faire disparaître un contenu illicite, il se tourne de manière préalable vers celui qui aura été le plus actif, à savoir l’auteur ou l’éditeur, puis vers celui qui est apte à retirer le contenu ou à en rendre l’accès impossible, à savoir l’hébergeur du site et, enfin, vers le fournisseur d’accès, qui ne fait que transporter passivement des contenus sans pouvoir les supprimer à la source. Ce n’est qu’en cas d’inaction de la part de l’hébergeur, qui est le mieux à même d’agir de façon efficace en cas d’inaction de l’auteur ou de l’éditeur, que le juge judiciaire peut ordonner au fournisseur d’accès de bloquer l’accès au site internet.

Ce principe trouve son fondement dans la nécessité d’agir de la manière la plus proportionnée et efficace possible en matière de retrait de contenus. Il donne la possibilité à l’hébergeur de retirer le contenu illicite, sans impacter les autres contenus hébergés. Les faits incriminés par la présente proposition de loi interviennent, dans la plupart des cas, sur des plateformes hébergeant de très grandes quantités de contenus, auxquels le blocage par le fournisseur d’accès conduirait à empêcher tout accès, ce qui est évidemment disproportionné.

Le présent amendement propose donc le maintien du principe de subsidiarité, en prévoyant la mise en demeure préalable de l’éditeur du contenu haineux illicite par l’autorité administrative et, en cas d’inaction de celui-ci, une saisine de l’autorité judiciaire par l’autorité administrative. Le juge pourra alors demander le retrait du contenu haineux illicite à l’hébergeur ou, à défaut, se tourner vers le fournisseur d’accès en dernier recours.

L’article 6 donne également le pouvoir à l’autorité administrative de décider du blocage d’un site miroir par un fournisseur d’accès, à partir du moment où une décision de justice a déjà été rendue pour des contenus similaires. Or, selon l’avis rendu par le Conseil d’État le 16 mai 2019 sur cette proposition de loi, les exigences constitutionnelles ne permettent pas de procéder à l’interdiction des contenus miroirs, quels que soient le degré et la gravité de leur illicéité, sans l’intervention d’un juge.

Cet amendement propose donc que l’autorité administrative puisse également saisir l’autorité judiciaire par requête – une voie beaucoup plus rapide que le référé, car non contradictoire – pour que le juge ordonne le retrait du contenu illicite miroir ou, à défaut, le blocage de sites miroirs.

Ce modèle de blocage judiciaire sur demande de l’autorité administrative en cas d’inaction des éditeurs et hébergeurs était d’ailleurs mentionné dans le rapport « Renforcer la lutte contre le racisme et l’antisémitisme sur internet », qui a été remis au Premier ministre le 20 septembre 2018, en amont de la présente proposition de loi.

Mme Laetitia Avia, rapporteure. Je vous remercie pour cette présentation exhaustive de votre amendement. Nous sommes d’accord sur de nombreux points, notamment sur le mécanisme de blocage judiciaire et sur le fait que l’autorité administrative ne peut intervenir qu’après décision du juge. Nous pensons également qu’elle doit pouvoir ressaisir le juge par voie de référé ou de requête, pour que le dispositif soit plus efficace. Nous sommes donc d’accord sur toute la deuxième partie de votre exposé.

Nous avons en revanche une divergence sur la première partie, relative au principe de subsidiarité. Je tiens à préciser que nous ne faisons pas évoluer ce principe en ce qui concerne l’éditeur : c’est évidemment à lui que nous nous adressons en tout premier lieu. Cela étant, nous proposons de ne pas retenir les trois étapes – éditeur, hébergeur puis fournisseur d’accès – car cela allonge considérablement les procédures. Pour obtenir la fermeture du premier site « Démocratie participative », il a par exemple fallu neuf mois de procédures. Or nous devons agir vite. C’est pourquoi nous proposons qu’hébergeurs et fournisseurs d’accès soient associés pour créer une barrière de protection sur le territoire national.

Nous visons d’abord l’éditeur. S’il ne répond pas, nous passons aux hébergeurs et aux fournisseurs d’accès, ainsi qu’aux moteurs de recherche, ce qui permet de créer une barrière de protection sur le territoire national. Si le juge prononce une interdiction de reprise de ces contenus, l’autorité administrative, à savoir l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), peut adresser une notification aux fournisseurs d’accès et aux hébergeurs, leur demandant de dupliquer cette décision à chaque fois qu’un site miroir se créera.

Du fait de notre désaccord sur la subsidiarité, je vous invite à retirer votre amendement. À défaut, j’émettrai un avis défavorable.

L’amendement est retiré.

La Commission adopte l’amendement rédactionnel CL120 de la rapporteure.

En conséquence, les amendements CL51 de Mme Laurence Vichnievsky et CL227 de M. Buon Tan tombent.

La Commission examine ensuite l’amendement CL121 rectifié de la rapporteure, qui fait l’objet des sous-amendements CL216 et CL217 de M. Jean-Michel Mis.

Mme Laetitia Avia, rapporteure. Cet amendement précise le dispositif que je viens d’exposer dans ma réponse à M. Acquaviva.

M. Jean-Michel Mis. Les sous-amendements CL216 et CL217 visent à inscrire dans le champ des dispositions relatives aux sites miroirs, respectivement le cyber-harcèlement et les vidéos postées dans un esprit de vengeance pornographique, qui concernent parfois des mineurs.

Mme Laetitia Avia, rapporteure. J’ai deux interrogations au sujet de vos sous-amendements. Premièrement, l’article que nous examinons ne concerne pas les obligations qui s’appliquent aux plateformes. Deuxièmement, il me semble que nous sortons ici du champ qui a été défini par le Conseil d’État. Je vous invite donc à retirer votre amendement, pour me laisser le temps d’interroger le Conseil d’État sur ce deuxième point.

Les sous-amendements sont retirés.

La Commission adopte l’amendement CL121 rectifié.

En conséquence, les amendements CL82 et CL81 de M. Hervé Saulignac, CL262 de Mme Laure de La Raudière et CL83 M. Hervé Saulignac tombent.

La Commission en vient à l’examen de l’amendement CL189 de M. Ugo Bernalicis.

M. Alexis Corbière. Cet amendement vise à introduire une possibilité de recours en cas de blocage, lorsqu’il existe un risque d’entrave à la liberté d’expression. On l’a souvent, dit, le premier bilan de la loi allemande du 1er janvier 2018 montre que les plateformes pratiquent une forme de censure très sévère qui, avec le recul, s’avère souvent abusive.

Avec votre texte, les plateformes vont être amenées à jouer un rôle qui est plutôt dévolu aux juridictions, ce qui aura pour effet de limiter la liberté d’expression. Nous entendons, avec cet amendement, nous prémunir de ce danger.

Mme Laetitia Avia, rapporteure. Monsieur Corbière, j’avais un doute en lisant votre amendement, que votre exposé a confirmé : l’article 6 ne concerne pas les plateformes, mais les sites haineux. Nous ne sommes donc pas dans le champ de ce que visait la loi allemande. Nous cherchons seulement à rendre plus effectives certaines dispositions du droit français.

J’insiste sur le fait qu’il s’agira d’une décision judiciaire : c’est un juge qui décidera du blocage ou du déréférencement d’un site. Pour reprendre l’exemple de « Démocratie participative », ce site a utilisé successivement un grand nombre de noms de domaine, comme.bis,.org,.website ou.host. L’auteur de ce site a d’ailleurs twitté qu’il avait acheté plus de 200 noms de domaines : cela signifie qu’il y a 200 sites miroirs à bloquer. Notre objectif est de pouvoir les bloquer plus rapidement, mais le juge interviendra en amont et en aval.

M. Alexis Corbière. Ma collègue Danièle Obono me dit que cela ne correspond pas à la lecture que nous faisons des choses. Je lui fais confiance et vais donc maintenir mon amendement.

La Commission rejette l’amendement.

Puis elle adopte l’article 6 modifié.

Après l’article 6

La Commission examine, en discussion commune, les amendements CL12 de la commission des Affaires culturelles et de l’éducation, CL179 de M. Erwan Balanant, CL131 de M. Raphaël Gérard, CL151 de M. Philippe Dunoyer, CL203 de M. Michel Larive et CL150 de M. Philippe Dunoyer.

Mme Fabienne Colboc, rapporteur pour avis. L’amendement CL12 vise à préciser que la lutte contre la diffusion de messages haineux en ligne, que ce soit en tant qu’émetteur ou que simple utilisateur, doit impérativement faire partie du programme scolaire, en particulier de la formation à l’utilisation responsable des outils et ressources numériques.

M. Erwan Balanant. Dans la continuité des débats que nous avons eus et des propositions que je vous ai faites sur le cyber-harcèlement et le harcèlement scolaire, l’amendement CL179 vise à renforcer la prévention autour de la haine sur internet, en en faisant une partie intégrante de la mission d’information sur les violences, qui incombe aux écoles, aux collèges et aux lycées, au sens de l’article L. 121-1 du code de l’éducation.

En effet, un collégien sur cinq est concerné par la cyber-violence. Expliquer ce qui peut constituer un acte entrant dans le champ de la proposition de loi qui nous est soumise, ainsi que le dispositif créé par cette dernière, permettrait indéniablement d’augmenter les prises de conscience et de dissuader certains auteurs de diffuser des contenus susceptibles d’être effacés. Plus généralement, cela renforcerait la prévention autour des violences commises sur internet.

M. Raphaël Gérard. L’amendement CL131 vise à compléter celui que vient de présenter Mme Fabienne Colboc, en faisant de l’éducation au signalement et aux conséquences de celui-ci un élément du programme éducatif des jeunes dans le cadre du code de l’éducation.

Aujourd’hui, on s’aperçoit que les jeunes ont peu tendance à signaler et que, lorsqu’ils le font, c’est surtout en manifestant leur « dislike » – par opposition au « like ». Nous proposons de faire du signalement un acte citoyen, qui donnerait lieu à une formation et qui permettrait de pallier la méconnaissance des conséquences que peut avoir le signalement. Cela nous ramène au débat de ce matin. Nous devons faire œuvre de pédagogie sur ce sujet. Certaines associations, comme InitiaDroit, pourraient par exemple présenter des cas concrets pour asseoir cette éducation au bon usage du signalement et à ses conséquences.

Mme Laure de La Raudière. La lutte contre les propos haineux en ligne passe en effet par la pédagogie et la prévention. L’amendement CL151 propose de sensibiliser les jeunes aux discours de haine sur internet, et donc d’inscrire cet objectif dans le code de l’éducation.

L’amendement CL150 complète, quant à lui, le code de l’éducation en ajoutant un module de formation consacré à la sensibilisation aux discours de haine en ligne.

M. Alexis Corbière. Nous souhaitons que les plus jeunes soient formés à l’aide d’outils efficaces pour se protéger des discours et de la propagande raciste, antisémite, sexiste et homophobe. Ils sont plus facilement exposés aux contenus haineux et il nous paraît essentiel de leur permettre d’acquérir le discernement nécessaire pour se prémunir face à ces violences.

L’amendement CL203 complète donc le code de l’éducation en prévoyant l’enseignement des mesures visant à lutter contre tout type de propagande raciste, sexiste ou antisémite en ligne, ainsi que des modules contre le cyberharcèlement.

Mme Laetitia Avia, rapporteure. Tous ces amendements ont pour objet d’agir dans le cadre du code de l’éducation afin que les jeunes soient formés et sensibilisés à la question de la haine en ligne. Je souscris pleinement à cet objectif.

Il faut arbitrer parmi les différentes propositions et déterminer où ces enseignements auront la meilleure efficacité.

La rédaction proposée par la commission des Affaires culturelles et de l’éducation, qui ajoute la mention de la lutte contre la haine en ligne à l’article L. 312-9 du code de l’éducation, me semble la meilleure solution car elle a une portée générale. Je suis donc favorable à l’amendement CL12.

L’amendement CL131, pour sa part, est trop précis et il serait satisfait par l’adoption du CL12. L’amendement CL179 modifie les principes généraux du code de l’éducation, et il semble étrange d’y mentionner la haine sur internet alors que d’autres éléments n’y figurent pas. L’amendement CL150 est de moindre portée que l’amendement CL12 et concerne uniquement le second degré. Quant aux amendements CL151 et CL203, ils sont tous deux satisfaits.

L’objectif de tous ces amendements est de sensibiliser les plus jeunes à cette question en l’insérant dans les programmes scolaires : il sera atteint par l’adoption de l’amendement CL12.

La Commission adopte l’amendement CL12.

Puis elle rejette successivement les amendements CL179, CL131, CL151, CL203 et CL150.

En conséquence, l’article 6 bis est ainsi rédigé.

La Commission est saisie de l’amendement CL13 de la commission des Affaires culturelles et de l’éducation.

Mme Fabienne Colboc, rapporteure pour avis. Cet amendement a pour objet de renforcer la formation des enseignants en matière de lutte contre les contenus haineux en ligne, qui nécessite l’acquisition d’un savoir spécifique et technique que les enseignants, en formation initiale ou continue, n’ont pas nécessairement.

Mme Laetitia Avia, rapporteure. Il est important de s’assurer de la formation des enseignants. Avis favorable.

La Commission adopte l’amendement.

En conséquence, l’article 6 ter est ainsi rédigé.

Elle est saisie de l’amendement CL130 de M. Raphaël Gérard.

M. Raphaël Gérard. Il est proposé de qualifier juridiquement la notion de « cyberharcèlement scolaire » dans le code de l’éducation pour donner une légitimité à agir au chef d’établissement. Le phénomène de haine en ligne est souvent lié au cyberharcèlement, et prolonge souvent le harcèlement scolaire. Des dispositions sont déjà prévues par le code pénal, mais une sanction judiciaire est peu dissuasive pour un public de mineurs, et le temps de la justice n’est pas comparable au temps scolaire.

Les travaux de Jean-Pierre Bellon, président de l’Association pour la prévention des phénomènes de harcèlement entre élèves, ont montré qu’une sanction n’est pas toujours efficace, même lorsqu’elle est prononcée par un juge. C’est pourquoi cet amendement prévoit les procédures disciplinaires, qui incluent des mesures de responsabilisation de l’élève, et pas uniquement les sanctions disciplinaires.

Notons qu’il existe bien une circulaire du ministère de l’éducation nationale en matière de prévention et de traitement de la cyberviolence entre les élèves, mais elle est insuffisamment appliquée et ne repose pas sur une définition juridique du harcèlement scolaire, c’est la raison pour laquelle je propose de clarifier cette notion.

Mme Laetitia Avia, rapporteure. Les dispositions relatives à la commission éducative et au règlement intérieur sont de nature réglementaire. En outre, cet amendement est d’ores et déjà satisfait.

M. Raphaël Gérard. Les dispositions réglementaires existent bien, mais dans la réalité, elles sont très mal appliquées et les chefs d’établissements ne s’en sont pas toujours emparés.

La Commission rejette l’amendement.

La Commission est saisie de l’amendement CL149 de M. Philippe Dunoyer.

Mme Laure de La Raudière. En Nouvelle-Calédonie, un référent en matière de lutte contre la haine et de harcèlement sur internet a été désigné au sein de chaque établissement scolaire, et les résultats sont probants. Il est proposé de généraliser cette expérience.

Cette fonction pourrait être confiée au responsable du centre de documentation et d’information : il ne s’agit pas de créer un nouveau poste dans les établissements mais de confier une responsabilité spécifique identifiée à une personne référente.

Mme Laetitia Avia, rapporteure. La création d’un référent au sein de chaque établissement du second degré serait assez lourde. De plus, des référents égalité ont été mis en place sans disposition législative ou réglementaire.

Je prends note du succès de cette expérience en Nouvelle-Calédonie, nous verrons ce qu’il est possible de faire pour la généraliser, mais ce n’est pas du domaine de la loi.

La Commission rejette l’amendement.

La Commission est saisie de l’amendement CL42 de M. Éric Bothorel.

M. Éric Bothorel. Cet amendement vise à empêcher la prolifération de contenus haineux sur internet en privant leurs auteurs de l’incitation financière que constitue la monétisation de leur audience par la publicité en ligne.

Pour le dire sous une autre forme, des crapules gagnent de l’argent grâce aux publicités déposées sur leur site, cet amendement cherche à assécher les revenus qu’ils peuvent tirer de leurs viles activités.

Mme Laure de La Raudière. Excellent !

Mme Laetitia Avia, rapporteure. Excellente idée, mais je ne pense pas que le dispositif que vous proposez soit suffisamment abouti. Je ne sais pas si une telle mesure relève de la loi. En outre, aux termes de votre rédaction, dès qu’un contenu haineux apparaîtrait, il serait impossible d’afficher de la publicité. Tout ce qui existe actuellement sur internet ne pourrait plus fonctionner. Il faut y retravailler et attendre la réponse du Gouvernement sur cette question.

M. Éric Bothorel. C’est sage et raisonnable car je conçois que la rédaction que je propose soulève quelques problèmes. J’en veux pour preuve les nombreuses sollicitations que je reçois depuis deux jours de la part d’organisations qui insistent sur le fait que chacun sait à qui il s’adresse et qu’il n’y a pas de secret dans le monde de la publicité en ligne. Il reste que, dès que l’on brandit une menace de ce type, les choses deviennent plus compliquées.

Madame la rapporteure, j’ai beaucoup de respect pour la ténacité dont vous faites preuve pour lutter contre la haine sur internet : j’aurais la même pour m’assurer que ceux qui l’utilisent ne puissent plus en tirer le moindre profit.

L’amendement est retiré.

Avant l’article 7

La Commission est saisie de l’amendement CL122 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement insère un dernier chapitre consacré aux dispositions finales.

La Commission adopte l’amendement.

Article 7 : Rapport sur l’exécution de la loi et les moyens consacrés à la lutte contre les contenus illicites

La Commission est saisie de l’amendement CL174 de Mme Danièle Obono.

M. Alexis Corbière. Les cyberagressions commencent de plus en plus tôt. Certaines plateformes dédiées à ce jeune public sont souvent les lieux dans lesquels les agressions ciblées contre une personne sont les plus fortes.

Or le harcèlement scolaire, qui passe souvent par des « raids » sur internet, a des conséquences dramatiques. Il faut absolument diagnostiquer ce phénomène pour être en mesure de mettre en œuvre la prévention adaptée : c’est ce que nous proposons dans cet amendement.

Mme Laetitia Avia, rapporteure. Votre amendement aurait pour effet de limiter le champ du rapport demandé au Gouvernement, en le cantonnant aux victimes de cyberagressions et de harcèlement scolaire en ligne, alors que ce rapport doit traiter de l’ensemble de la question de la haine en ligne.

La Commission rejette l’amendement.

La Commission est saisie de l’amendement CL209 de Mme Muriel Ressiguier.

M. Alexis Corbière. Cet amendement est proposé par Mme Ressiguier, qui a présidé une commission d’enquête parlementaire sur les groupuscules d’extrême droite. Il a été établi que ces groupuscules sont particulièrement actifs sur les réseaux sociaux, qui constituent leur moyen de communication privilégié. Nous souhaitons donc que le Gouvernement inclue dans son rapport annuel au Parlement contre la cyberhaine un volet sur la propagande xénophobe des groupuscules d’extrême droite.

Mme Laetitia Avia, rapporteure. Cette disposition s’insérerait mal dans l’ensemble du texte. Sur le fond, le rapport porte sur tous les contenus illicites, donc il inclut déjà ces éléments.

La Commission rejette l’amendement.

Elle est ensuite saisie de l’amendement CL144 de M. Philippe Dunoyer.

Mme Laure de La Raudière. La pratique de la commission des Lois lors des précédents mandats était de supprimer toutes les demandes de rapport au Gouvernement. Je suis donc étonnée qu’une proposition de loi déposée par une commissaire aux lois contienne une telle demande de rapport, d’autant qu’il sera redondant avec le rapport du CSA sur les moyens consacrés à la lutte contre les contenus illicites. En outre, j’entends souvent dire dans l’hémicycle qu’il faut non pas demander de rapport au Gouvernement, mais procéder nous-mêmes au contrôle de l’application de la loi. Cela étant, je défends l’amendement CL144.

Mme Laetitia Avia, rapporteure. Moi, j’aime bien les rapports. Mais peut-être que Mme la présidente ne partage pas mon avis. Quant à l’amendement présenté, j’y suis défavorable car PHAROS n’a pas d’existence légale.

Mme la présidente Yaël Braun-Pivet. S’agissant des demandes de rapport, je suis plus nuancée que mes prédécesseurs et j’ai notamment intégré de telles demandes dans le projet de loi sur la justice pour évaluer l’efficacité des peines.

La Commission rejette l’amendement.

Puis elle adopte l’article 7 sans modification.

Après l’article 7

La Commission est saisie de l’amendement CL168 de Mme Michèle Victory.

Mme George Pau-Langevin. Il est défendu.

Suivant l’avis défavorable de la rapporteure, la Commission rejette l’amendement.

Article 8 : Gage financier

La Commission est saisie de l’amendement CL296 du Gouvernement tendant à supprimer l’article 8.

Mme Laetitia Avia, rapporteure. Le Gouvernement propose de supprimer le gage financier, j’y suis évidemment favorable.

La Commission adopte l’amendement.

En conséquence, l’article 8 est supprimé.

Après l’article 8

La Commission est saisie de l’amendement CL124 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement prévoit une entrée en vigueur immédiate des dispositions relatives à l’obligation de retrait en vingt-quatre heures des contenus manifestement haineux. Le reste du texte entrera en vigueur au 1er janvier 2020, et au 1er janvier 2021 s’agissant des mesures portant sur la personnalité qualifiée chargée de contrôler l’application des dispositions relatives au blocage des contenus terroristes et pédopornographiques sur demande de l’autorité administrative.

La Commission adopte l’amendement.

En conséquence, l’article 9 est ainsi rédigé.

Titre

La Commission est saisie de l’amendement CL68 de Mme Michèle Victory.

M. Hervé Saulignac. Cet amendement n’est pas anodin. Le titre proposé n’est pas conforme, selon nous, à l’objectif réel de ce texte. En effet, on ne peut pas lutter contre la haine, qui est un sentiment – si méprisable soit-il – et non une notion juridique. Si je ressentais de la haine pour certains d’entre vous dans cette salle – ce qui n’est évidemment pas le cas –, rien ne vous permettrait de me condamner. En revanche, si j’exprime publiquement cette haine sur internet, l’acte pourrait être condamné.

Il faut donc corriger le titre, pour ne pas laisser penser que nous légiférons sur un sujet relevant de la conscience. Ce serait extrêmement dangereux. Cet amendement vise donc à substituer au mot « haine », les mots « diffusion de contenus haineux ».

Mme Laetitia Avia, rapporteure. Il est difficile de changer le titre de sa proposition de loi… J’entends vos arguments mais je ne peux pas prendre une décision tout de suite. Je vais y réfléchir et je vous propose, en attendant, de retirer votre amendement.

M. Hervé Saulignac. Je préfère le maintenir, et j’invite chacun à réfléchir à ce sujet. Ne donnons pas le sentiment que l’Assemblée nationale s’ingère dans ce qui relève de la pensée intime. Nous souhaitons tous combattre la haine, mais ce n’est pas une notion juridique. Penser est une chose, agir en est une autre. Condamnons les mauvais actes.

La Commission rejette l’amendement.

Puis elle adopte l’ensemble de la proposition de loi ainsi modifiée.

*

* *

En conséquence, la commission des Lois constitutionnelles, de la législation et de l’administration générale de la République vous demande d’adopter la proposition de loi visant à lutter contre la haine sur internet (n° 1785) dans le texte figurant dans le document annexé au présent rapport.

ANNEXE N° 1 : AVIS DU CONSEIL D’ÉTAT

CONSEIL D’ETAT

 

Assemblée générale

_________

 

Séance du jeudi 16 mai 2019

Section de l’intérieur

N° 397368

M. TUOT,

M. SCHIRA,

rapporteurs

 

EXTRAIT DU REGISTRE

DES DELIBERATIONS

AVIS SUR LA PROPOSITION DE LOI

visant à lutter contre la haine sur Internet

1. Le Conseil d’État a été saisi le 25 mars 2019, sur le fondement du cinquième alinéa de l’article 39 de la Constitution, de la proposition de loi n° 1785 enregistrée le 20 mars 2019 à la présidence de l’Assemblée nationale. Cette proposition de loi, présentée par Mme Laetitia Avia, députée, a pour objectif de lutter contre la haine sur Internet, en mettant en œuvre les principales recommandations du rapport intitulé « Renforcer la lutte contre le racisme et l’antisémitisme » remis au Premier ministre le 20 septembre 2018. Le Conseil d’Etat, après en avoir examiné le contenu, formule les observations et suggestions qui suivent.

I. Cadre juridique en vigueur.

2. Au-delà des fondements constitutionnels et conventionnels protégeant la liberté de la communication et des instruments législatifs l’ayant mise en œuvre d’abord pour la presse (loi du 29 juillet 1881) puis pour l’audiovisuel (loi n° 82-652 du 29 juillet 1982 sur la communication audiovisuelle et loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication), le législateur de l’Union européenne puis le législateur national sont intervenus spécifiquement pour gouverner les obligations des opérateurs sur Internet.

3. La directive 2000/31/CE du 8 juin 2000, plus connue sous le nom de directive e-commerce, pose plusieurs principes dans un objectif de création d’un marché unique du commerce électronique :

–  les prestataires de services de la société de l’information (fournisseurs d’accès à Internet et hébergeurs) dont l’activité revêt un caractère purement technique, automatique et passif ne peuvent être tenus responsables à raison du contenu, édité par leurs utilisateurs, qu’ils se bornent à transmettre ou stocker qu’à partir du moment où ils acquièrent une connaissance effective du caractère illicite de ce contenu (art. 12 à 14) ;

–  aucun État membre ne peut imposer à ces prestataires une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ni une obligation générale de rechercher activement les faits ou les circonstances révélant des activités illicites (art. 15) ;

–  chaque État membre veille à ce que les services de la société de l’information fournis par un prestataire établi sur son territoire respectent, dans les limites de la directive, ses dispositions nationales, et aucun État membre ne peut restreindre la libre circulation des services de la société de l’information en provenance d’un autre Etat membre de l’Union européenne (1 et 2 de l’art. 3) ;

–  lorsqu’un motif d’ordre public, de santé publique, de sécurité publique ou de protection des consommateurs l’exige, la réglementation de l’activité d’un prestataire de services établi dans un autre État membre n’est possible qu’en cas de carence ou d’insuffisance de celui-ci, et après notification à la Commission, qui appréciera la conformité des restrictions apportées aux objectifs de la directive (4 à 6 de l’art. 3).

4. C’est dans le cadre de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) que la directive e-commerce a été transposée.

5. En premier lieu, l’article 6 de la loi, qui étend la loi de 1881 et les infractions prévues par celle-ci aux contenus diffusés par voie électronique, transpose le principe de responsabilité allégée des prestataires de services de communication au public en ligne, qu’ils soient fournisseurs d’accès ou hébergeurs. S’agissant de ces derniers, il n’admet l’engagement de leur responsabilité civile ou pénale à raison des contenus qu’ils stockent que si, après avoir été informés de leur caractère illicite par un dispositif de signalement enserré dans de strictes conditions de forme (5 du I), ils n’ont pas promptement agi pour les retirer ou en interdire l’accès (2 et 3 du I). Dans sa décision n° 2004-496 DC du 10 juin 2004, le Conseil constitutionnel a souligné, par une réserve d’interprétation, que ces dispositions ne sauraient avoir pour effet d’engager la responsabilité d’un hébergeur qui n’a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n’a pas été ordonné par un juge. Les pratiques abusives de signalement sont par ailleurs spécifiquement réprimées (4 du I de l’article 6).

6. Outre l’obligation de conservation et de communication des données d’identification des utilisateurs de leurs services qui leur incombe (II et III), la loi pose également le principe d’une coopération de ces prestataires à la lutte contre les contenus les plus gravement réprimés, dits « contenus odieux » (telles que l’apologie des crimes contre l’humanité, la provocation au terrorisme, l’incitation à la haine raciale, ou à l’égard de personnes à raison de leur sexe, de leur orientation sexuelle, de leurs opinions religieuses ou de leur handicap, la pornographie enfantine, l’incitation à la violence notamment envers les femmes et les autres atteintes à la dignité humaine). Ce devoir de concours les oblige à disposer d’un mécanisme de signalement aisément accessible de ces contenus, à informer les autorités publiques de leurs signalements, et à rendre publics les moyens qu’ils consacrent à la prévention de leur diffusion (7 du I de l’article 6). Le manquement à l’ensemble de ces obligations est pénalement réprimé (VI de l’article 6).

7. En deuxième lieu, deux dispositions particulières peuvent contraindre à un retrait de contenu ou un blocage d’accès au service de communication au public en ligne : d’une part (8 du I de l’article 6), l’autorité judiciaire peut prescrire en référé ou sur requête toute mesure propre à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne, ce qui peut aller jusqu’au blocage temporaire de l’accès à un site (art. 50-1 de la loi du 29 juillet 1881 sur la liberté de presse) ; d’autre part (art. 6-1), l’autorité administrative peut demander aux fournisseurs de contenus ou aux hébergeurs de retirer les contenus relatifs à la provocation ou à l’apologie du terrorisme ou à la pédopornographie et, en cas de refus de retrait ou de défaut de réponse, peut, sous le contrôle d’une personnalité qualifiée membre de la CNIL, enjoindre aux fournisseurs d’accès à Internet de couper l’accès à ces sites. La méconnaissance de cette injonction entraîne les mêmes sanctions pénales que celles prévues au VI de l’article 6. Ce dispositif, dans sa rédaction issue de la loi n° 2011-267 du 14 mars 2011, a été déclaré conforme à la Constitution par la décision n° 2011-625 DC du Conseil constitutionnel en date du 10 mars 2011.

8. L’apparition de nouveaux acteurs (réseaux sociaux et moteurs de recherche) qui, en tant qu’intermédiaires actifs permettant le partage de contenus et en accélérant l’accès par leurs processus algorithmiques de hiérarchisation et d’optimisation, ne se bornent pas à un rôle purement technique, sans pour autant pouvoir être qualifiés d’éditeurs de contenus, rend le régime actuel, fondé sur la neutralité des prestataires de services de communication au public en ligne à l’égard des contenus, en partie dépassé.

9. La loi n° 2016-1321 du 7 octobre 2016 pour une République numérique a cherché à répondre à cette difficulté en introduisant un article L. 111-7 dans le code de la consommation. Celui-ci impose à une catégorie particulière de services de communication au public en ligne reposant sur un service de classement, de référencement ou de mise en relation en vue de la fourniture de biens, de services ou la diffusion de contenus, appelés opérateurs de plateforme en ligne, des obligations renforcées de clarté, de transparence et de loyauté au titre de la protection des consommateurs dans les activités de commerce en ligne. La conformité de ces dispositions législatives au droit de l’Union européenne comme aux exigences constitutionnelles est établie ou du moins à ce stade n’a pas été remise en cause. C’est à ces mêmes opérateurs de plateforme en ligne que la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information impose des obligations de loyauté et de transparence renforcées en période électorale.

10. Les limites de cette distinction binaire entre prestataires purement techniques et éditeurs de contenus ont également été atténuées dans un secteur voisin par la directive 2018/1808 du 14 novembre 2018 modifiant la directive 2010/13 du 10 mars 2010, dite directive « services médias audiovisuels » (SMA). Tout en concernant principalement le secteur de l’audiovisuel, cette directive fait obligation aux États membres de veiller à ce que les opérateurs de plateforme de partage de vidéos établis sur leurs territoires ou réputés y être établis prennent les mesures appropriées pour protéger le grand public des vidéos et programmes créés par l’utilisateur comportant une incitation à la violence ou à la haine visant un groupe de personnes fondée sur l’un des motifs visés à l’article 21 de la Charte des droits fondamentaux.

11. Reste que, limitée par les moyens disponibles de police et de justice, par les difficultés de qualifier l’intention pénale des organes dirigeants des prestataires concernés souvent domiciliés à l’étranger, par les possibilités de contournement des décisions de justice propres aux technologies des réseaux en ligne et par les contraintes des exigences procédurales qui lui sont propres, la répression de la diffusion des contenus haineux demeure insuffisante et insatisfaisante.

12. Confronté aux mêmes questions, le législateur allemand a cherché à imposer aux plateformes de partage de contenus en ligne comportant plus de deux millions d’utilisateurs enregistrés en Allemagne un large éventail d’obligations de signalement de contenus illicites, de transparence et de coopération administrative avec les autorités compétentes dans la loi « NetzDG » du 1er septembre 2017. Cette loi met notamment à la charge des plateformes une obligation de retrait de tout contenu illicite dans un délai de sept jours, et de tout contenu manifestement illicite dans un délai de 24 heures. Seul le juge, susceptible d’être saisi par l’autorité administrative (Office fédéral de la justice), peut obliger au retrait. La loi prévoit que des amendes financières peuvent être infligées aux plateformes par l’Office en cas de comportement globalement non coopératif. La conformité au droit de l’Union européenne de ce dispositif, notifié à la Commission, ne semble pas avoir été remise en cause à ce stade. Il convient de relever que celle-ci a, le 1er mars 2018, adopté une recommandation sur les mesures destinées à lutter de manière efficace contre les contenus illicites en ligne.

II. Contenu et objectifs de la proposition de loi.

13. La proposition de loi s’assigne les quatre objectifs suivants :

–  créer, pour les plateformes en ligne à fort trafic, une obligation positive de retrait des contenus manifestement illicites comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ;

–  faciliter et aggraver la répression pénale déjà prévue par la loi du 21 juin 2004 pour la confiance dans l’économie numérique ;

–  mettre en place une régulation administrative visant à prévenir la diffusion de tels contenus, en soumettant ces mêmes grandes plateformes à des obligations d’organisation, de coopération et de transparence ;

–  créer des mécanismes assurant, lorsqu’une décision judiciaire a interdit un contenu ou un site, que leur duplication puisse être efficacement combattue.

14. Pour mettre en œuvre ces objectifs, la proposition de loi comprend les dispositions suivantes :

–  l’article 1er définit un nouveau régime de régulation administrative des opérateurs de plateformes à fort trafic, défini par référence à un seuil de connexion mensuel sur le territoire français qui sera déterminé par décret. Il prévoit une obligation de retrait sous 24 heures des contenus odieux manifestement illicites visés aux 5ème, 7ème et 8ème alinéas de l’article 24 de la loi de 1881 et des injures réprimées par les 3ème et 4ème alinéas de l’article 33 de la même loi ainsi que la possibilité de sanctions administratives des refus irréguliers de retrait par le CSA ;

–  l’article 2 simplifie les modalités de signalement de contenus illicites ;

–  l’article 3 impose aux opérateurs de plateformes en ligne de mettre à disposition du public une information claire et détaillée sur les dispositifs de recours ;

–  l’article 4 confie au CSA la mission de régulation ;

–  l’article 5 oblige les plateformes visées à avoir un représentant légal en France, et quadruple les sanctions pénales aux obligations existantes ;

–  l’article 6 aligne la lutte contre les sites miroirs sur celle contre les sites interdits par des injonctions administratives de retrait ;

–  l’article 7 prévoit un rapport annuel au Parlement.

15. Le Conseil d’État estime légitime, compte tenu de l’ampleur atteinte par la diffusion rapide et massive de contenus en ligne reposant sur le racisme, l’antisémitisme ou la discrimination qui restent très largement impunis, la poursuite de ces objectifs. Toutefois, l’intervention du législateur se heurte :

–  d’une part, dans le choix du champ d’application territorial des nouvelles obligations prévues, à de très sérieux obstacles au regard de la directive 2000/31/CE, même s’il pourrait exister, comme le législateur allemand a semblé l’emprunter dans sa loi « NetzDG » du 1er septembre 2017, une voie permettant de la regarder, malgré tout, comme raisonnablement fondée (III) ;

–  d’autre part, dans l’articulation des sanctions judiciaires et administratives, à des exigences constitutionnelles dont la satisfaction conduit le Conseil d’État à proposer des précisions quant à la rédaction des dispositions relatives à la répression judiciaire (IV) et à la régulation et la répression administratives (V).

III. Champ d’application des mesures envisagées.

Sur les opérateurs concernés

16. La nouvelle obligation spécifique de retrait sous 24 heures vise, dans la proposition, les seuls opérateurs de plateforme de mise en relation de plusieurs parties en vue du partage de contenus publics mentionnés au 2° du I de l’article L. 111-7 du code de la consommation. Le champ organique de la proposition de loi exclut donc ceux des opérateurs visés au 2° du I dont l’activité repose sur la mise en relation en vue de la vente d’un bien, de la fourniture d’un service, et de l’échange ou du partage d’un bien ou d’un service, ce qui se justifie au regard de leur objet, mais aussi les opérateurs visés au 1° du I du même article dont l’activité repose sur le classement ou le référencement, au moyens d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers.

17. Au regard de l’objet que s’assigne la proposition de loi, qui vise à réprimer la diffusion rapide et potentiellement massive de contenus manifestement illicites, la fixation d’un seuil de connexions en France (que les auteurs proposent de fixer à deux millions par mois) pour délimiter le champ d’application de la loi est en rapport avec cet objet et ne se heurte à aucune difficulté de principe. Cependant, dans la mesure où la proposition de loi entend regarder les opérateurs qu’elle désigne responsables à raison de leur interaction active avec les contenus, dont ils favorisent la diffusion accélérée, la question de l’exclusion de son champ d’application des opérateurs dont l’activité aboutit à des résultats voisins, doit être examinée par rapport aux principes d’égalité et de non-discrimination au regard de l’objectif poursuivi. Par conséquent, la référence aux opérateurs de l’article L. 111-7 du code de la consommation dont l’activité repose sur le classement ou le référencement de contenus au moyen d’algorithmes, ou la mise en relation de plusieurs parties en vue de l’échange ou du partage d’un contenu mis en ligne par des tiers, limitée à ceux d’une certaine taille, définie par un seuil de connexions mensuelles sur le territoire français, afin de ne viser que ceux dont l’impact est le plus important, apparaît plus sûre. Le Conseil d’État souligne par ailleurs la nécessité de veiller à ce que des mécanismes de lutte contre les contournements abusifs de ce seuil soient envisagés.

Sur les contenus concernés

18. Par souci de clarté, le champ des contenus concernés par l’article 1er de la présente proposition de loi pourrait être rattaché à celui des contenus concernés par les obligations spécifiques de concours des prestataires de services de communication au public en ligne visées au 7 du I de l’article 6 de la loi du 21 juin 2004 (contenus dits « odieux »), qui visent notamment l’apologie du terrorisme, des crimes contre l’humanité ou des crimes d’esclavage, l’incitation à la haine à l’égard de personnes à raison de leur origine ou de leur appartenance ou non appartenance à une ethnie, une nation, une race ou une religion, de leur sexe, de leur orientation ou identité sexuelle, de leur handicap, ou encore la diffusion de la pornographie enfantine, en incluant les injures visées aux 3ème et 4ème alinéas de l’article 33 de la loi de 1881 lorsqu’elles ont un contenu odieux de même nature que ceux mentionnés ci-dessus.

19. Pour assurer la cohérence et l’efficacité de l’ensemble du dispositif, l’obligation de retrait ou de déréférencement des contenus visés au point 18 du présent avis imposée aux grandes plateformes devrait être intégrée à la loi pour la confiance dans l’économie numérique, et la coordination avec les obligations qu’elle prévoit déjà mieux assurée. Le Conseil d’État recommande la création d’une nouvelle disposition dans la loi pour la confiance dans l’économie numérique, applicable aux seuls opérateurs visés par la présente proposition de loi, et dont le régime pourra utilement, en tant que de besoin, renvoyer aux dispositions de droit commun applicables à l’ensemble des services de communication au public en ligne établis en France.

Sur le champ territorial

20. Quels que soient les opérateurs et les comportements visés, une lecture stricte de l’article 3 de la directive e-commerce, dont le mécanisme a été confirmé, en ce qui concerne les plateformes de partage de vidéos, par la directive SMA modifiée, limite aux opérateurs établis en France ceux auxquels la loi nationale pourrait imposer de nouvelles obligations. À supposer même que les opérateurs établis hors de l’Union européenne puissent cependant aussi être visés par la loi nationale, il leur suffirait de s’établir dans un autre pays de l’Union – ce qui est d’ailleurs le cas de la plupart des réseaux sociaux – pour paralyser l’effet de ces dispositions.

21. Or, la proposition de loi prévoit d’imposer des obligations spécifiques aux opérateurs de plateforme en ligne en fonction, non de leur établissement sur le territoire français, mais d’un seuil déterminé de nombre de connexions mensuelles, sur le territoire français, à leurs services. À supposer que les dispositions envisagées relatives à la répression pénale de l’obligation renforcée de retrait puissent être regardées comme relevant de la seule loi pénale, plutôt que comme une réglementation spécifique des opérateurs de plateforme en ligne entrant dans le champ de la directive 2000/31/CE, auquel cas l’État sur le territoire duquel l’infraction a été commise serait alors compétent pour la réprimer, le régime de régulation administrative des grandes plateformes entre en tout état de cause directement dans le champ de la directive 2000/31/CE et constitue, à ce titre, une entrave à la libre prestation des services de la société de l’information, y compris ceux en provenance d’un autre État membre. La proposition de loi pourrait alors être regardée comme incompatible avec l’article 3 de la directive 2000/31/CE.

22. Toutefois, le Conseil d’État estime qu’un fondement juridique peut être trouvé à la dérogation à la libre prestation de service que nécessitent les dispositions envisagées en la rattachant à l’exception générale de protection des droits fondamentaux. Le déferlement de contenus particulièrement odieux par le biais de plateformes en ligne mondialisées et ses conséquences graves, autant pour la vie démocratique que par ses impacts sur les comportements ou la vie des utilisateurs, constituent une atteinte à la dignité humaine protégée par l’article premier de la Charte des droits fondamentaux ainsi qu’une méconnaissance du principe de non-discrimination protégé par l’article 21 de cette Charte. Or une protection effective des droits fondamentaux suppose que soient mis en place, quel que soit le lieu d’établissement des opérateurs, des mécanismes permettant, de manière urgente et efficace, le retrait de contenus qui portent manifestement atteinte aux valeurs qu’expriment ces droits fondamentaux.

L’analyse présentée ci-dessus peut se réclamer des précédents à l’occasion desquels la Cour de justice des Communautés européennes, après avoir dégagé cette exception de façon prétorienne dans son arrêt Eugen Schmidberger (12 juin 2003, C-112/00) à propos de la libre circulation des marchandises, a admis, dans l’arrêt Omega (14 octobre 2004, C-36/02), qu’elle s’appliquait à la libre prestation de services. Dans ces arrêts, la Cour précise que, si les mesures envisagées ne sont pas prises sur le fondement d’un critère de nationalité, la protection des droits fondamentaux constitue, notamment lorsqu’elle est assise sur des dispositions constitutionnelles nationales, et même si elles ne sont propres qu’à certains Etats membres, un intérêt légitime de nature à justifier, en principe, une restriction à la libre prestation de services. Dans l’ordre constitutionnel français, si la Déclaration des droits de l’homme et du citoyen énonce en son article 11 que la liberté d’expression et de communication est l’un des « droits les plus précieux de l’homme » et si toute atteinte à cette liberté fondamentale doit être, sous le contrôle du juge, nécessaire, adaptée et proportionnée, la préservation de l’ordre public et des droits des tiers peut justifier de telles atteintes. La sauvegarde de la dignité de la personne humaine contre toute forme d’asservissement ou de dégradation, principe constitutionnel plus particulièrement affirmé dans le préambule de la Constitution de 1946, est une composante de l’ordre public.

23. Si l’objectif poursuivi par la proposition de loi est ainsi regardé comme relevant de la protection des droits fondamentaux, les autres conditions auxquelles la jurisprudence de la Cour de justice de l’Union européenne subordonne la validité des mesures prises sur son fondement semblent satisfaites. En effet, d’une part, ni la directive e-commerce, ni la directive SMA modifiée, dans ses dispositions portant spécifiquement sur les plateformes de partage de vidéos en ligne, ne sont d’harmonisation exhaustive. D’autre part, les dispositions prévues par la proposition de loi, limitées à certains seulement des opérateurs de plateformes en ligne parmi les prestataires de services de la société de l’information, et uniquement à ceux qui dépassent un seuil élevé de connexions mensuelles sur le territoire français, ne visent aucun opérateur à raison de sa nationalité et paraissent nécessaires pour la protection des intérêts qu’elle vise à garantir, sans que cette protection ne puisse être atteinte par des mesures moins restrictives dès lors qu’aucun dispositif directement applicable dans l’Union européenne ne permet d’assurer la répression et la régulation effectives de ces comportements condamnables. Le Conseil d’État souligne au surplus que le dispositif de la directive e-commerce est antérieur de plusieurs années à la création des réseaux sociaux et que l’ampleur du déferlement de contenus odieux appelle une action urgente de défense des personnes que le processus d’adoption de nouveaux textes par l’Union, mentionné au point 38 du présent avis, ne permet pas aisément.

24. Pour ces motifs, l’adoption de nouvelles dispositions, qu’elles soient de nature pénale ou se rattachent à la régulation administrative, centrées sur la prévention et la répression de la diffusion de contenus mentionnés au point 18 du présent avis, peut raisonnablement, comme l’exemple allemand l’a montré, être regardée comme ne méconnaissant pas les exigences du droit de l’Union européenne. Le Conseil d’État précise que cette proposition de loi devrait, en raison de ces enjeux, faire l’objet d’une information aux services compétents de la Commission européenne.

IV. L’obligation de retrait renforcée et le renforcement de la répression judiciaire

Sur la sanction du refus de retrait

25. Une lecture littérale de la proposition de loi laisserait entendre qu’elle envisage de faire sanctionner par le Conseil supérieur de l’audiovisuel le refus, opposé au cas par cas, de retirer des contenus odieux manifestement illicites. Le Conseil d’État relève qu’une telle hypothèse se heurte à un obstacle constitutionnel. La suppression d’un contenu odieux sur Internet est un acte particulièrement radical au regard de la protection dont jouit la liberté d’expression consacrée à l’article 11 de la Déclaration des droits de l’homme et du citoyen. Le retrait de contenu ne peut donc généralement être opéré que par le juge judiciaire ou à tout le moins sous son contrôle : c’est l’équilibre traditionnel que valide le Conseil constitutionnel, qui n’a accepté des injonctions administratives que lorsqu’elles portent sur un blocage d’adresses Internet pour des sujets en relation avec des crimes graves (pédopornographie et terrorisme) et sont prononcées sous le contrôle étroit du juge (10 mars 2011, 2011-625 DC), mais a en revanche exclu un dispositif de sanctions administratives pouvant interdire un accès à Internet (10 juin 2009, 2009-580 DC).

26. Le Conseil d’État estime que l’objectif poursuivi serait mieux servi par la création d’un délit autonome incriminant le refus de retrait ou de déréférencement des contenus décrits au point 18 du présent avis, puni au titre du VI de l’article 6 de la loi pour la confiance dans l’économie numérique. L’instauration d’un tel délit, qui ne viendrait que donner une portée effective aux dispositions des articles 12 à 14 de la directive e-commerce, ne soulèverait pas de difficulté au regard du droit constitutionnel et des obligations conventionnelles de la France. Le Conseil d’État précise toutefois, pour les raisons mentionnées au III et celles qui précèdent, que l’instauration d’une même obligation de retrait ou de déréférencement de contenus simplement illicites dans un délai de sept jours sans intervention préalable d’une autorité judiciaire ne paraît pas conforme aux exigences constitutionnelles.

Sur l’exigence de voies de recours internes

27. Le Conseil d’État estime nécessaire l’obligation faite aux opérateurs de plateforme en ligne visés par la proposition de loi de prévoir un dispositif de recours internes permettant à l’auteur du signalement de contester un éventuel refus de retrait et symétriquement à l’auteur du contenu litigieux de contester un éventuel retrait. Il note que ce dispositif suppose que l’auteur du contenu litigieux soit systématiquement informé du signalement de son contenu, ce qu’il conviendrait de préciser explicitement. Ces garanties sont justifiées par le caractère fondamental de la liberté d’expression au regard des risques élevés de censure excessive par les opérateurs de plateforme. La proposition de loi pourrait utilement prévoir qu’il incombe à l’opérateur de plateforme en ligne de s’expliquer sur les motifs de sa décision, quel qu’en soit le sens, dans les sept jours qui suivent l’expiration du délai de 24 heures, et de faire explicitement mention de l’existence de voies de recours, internes et contentieuses, contre ces décisions, y compris au bénéfice de l’auteur dont le contenu serait supprimé.

Sur le contenu des signalements

28. Le Conseil d’État estime appropriées et conformes au droit constitutionnel et au droit de l’Union européenne les évolutions envisagées, consistant à quadrupler les sanctions financières pénales applicables prévues au VI de l’article 6 de la loi pour la confiance dans l’économie numérique en cas de méconnaissance par les prestataires de services de communication en ligne de leurs obligations de concours à la lutte contre l’ensemble des contenus mentionnés au point 18 du présent avis et à faciliter le signalement de ces contenus, tel qu’il est décrit au 5 du I du même article. Toutefois, sur ce dernier point, au regard des exigences du principe de légalité des délits et pour éviter une incompétence négative du législateur, il estime que la loi devrait préciser, sans pouvoir renvoyer au pouvoir réglementaire le soin de le faire, que le signalement, qui marque le début d’une éventuelle phase judiciaire, doit indiquer la description des faits litigieux et les motifs pour lesquels, aux yeux de son auteur, le contenu qu’il signale lui paraît relever de ceux décrits au point 18 du présent avis. De plus, le Conseil d’Etat suggère que l’obligation de prévoir un dispositif de signalement simple et lisible soit plus clairement étendue aux opérateurs de plateforme en ligne visés par la proposition de loi que n’envisage de le faire, en l’état, le second alinéa du II de son article 2.

Autres commentaires

29. Pour assurer l’effectivité de la procédure judiciaire, la proposition reproduit, à l’instar du législateur allemand, des dispositions adoptées dans la loi relative à la lutte contre la manipulation de l’information, imposant aux opérateurs concernés de désigner un représentant sur le seul territoire français (II de l’article 5 de la proposition de loi). Des précisions quant au rôle attendu de ce représentant légal paraissent nécessaires.

30. De manière plus générale et au service d’un même objectif d’effectivité et de clarification, la proposition pourrait utilement préciser les délais dans lesquels l’ensemble des prestataires de services de communication au public en ligne concernés par l’article 6 de la loi pour la confiance dans l’économie numérique sont tenus de retirer les autres contenus manifestement illicites sous peine d’engager leur responsabilité civile et pénale en vertu des 2 et 3 du I. du même article, ou de communiquer les données d’identification (II du même article) ou encore d’informer les autorités des signalements de certains contenus particulièrement graves (7 du I du même article). Elle pourrait également prévoir des délais de conservation des données supprimées, en vue de faciliter les enquêtes pénales.

V. Régulation administrative

31. Le seul volet judiciaire de l’action publique ne suffira pas à traiter entièrement un problème dont l’ampleur dépassera toujours les capacités et moyens de la répression. La mise en place d’une régulation pour les seuls opérateurs relevant du champ de la répression judiciaire du refus de retrait ou de déréférencement sous 24 heures, visant à prévenir la diffusion des contenus manifestement illicites décrits au point 18 du présent avis et à en traiter rapidement l’occurrence, complète utilement l’action publique. Son insertion dans la loi n° 86-1067 du 30 septembre 1986 est appropriée. Le choix, comme dans la loi sur la manipulation d’informations électorales, de confier cette régulation au Conseil supérieur de l’audiovisuel, du reste cohérent au regard de la directive SMA, ne paraît pas critiquable dès lors que la création d’un nouveau régulateur est écartée. Il conviendra dans ce cas de modifier l’article 6-1 de la loi pour la confiance dans l’économie numérique qui prévoit l’intervention d’un membre de la Commission nationale de l’informatique et des libertés pour la supervision des retraits en matière de terrorisme.

Sur la nature des obligations administratives imposées aux grandes plateformes

32. Le Conseil d’État recommande que les obligations administratives pesant sur les seuls opérateurs visés par la proposition de loi et susceptibles de faire l’objet d’une sanction par le Conseil supérieur de l’audiovisuel soient précisées et clarifiées. Elles pourraient utilement se fonder sur le devoir de coopération administrative que le 7 du I de l’article 6 impose déjà aux services de communication au public en ligne établis en France (dispositifs de signalement, d’information des autorités publiques et de transparence) en supprimant, pour les seuls opérateurs visés par la proposition de loi, la répression pénale dont il est assorti. Ce devoir pourrait être complété par une liste des obligations que la proposition de loi envisage de prescrire : instauration de voies de recours internes (III de l’article premier), respect des obligations de retrait, des modalités de traitement des signalements et des délais de réponse (II de l’article 2), engagement de moyens proportionnés pour traiter ces signalements (III de l’article 2), mise à disposition du public des informations sur les dispositifs de recours, y compris judiciaires, dont disposent les victimes de contenus et leurs auteurs (article 3), reddition de comptes au Conseil supérieur de l’audiovisuel et transparence au public (article 4), et désignation d’un représentant légal exerçant les fonctions d’interlocuteur référent (II de l’article 5). La proposition de loi pourrait également rendre obligatoire la communication au régulateur de l’organisation interne adoptée pour procéder au retrait en 24 heures des contenus mentionnés au point 18 du présent avis et des moyens qu’y sont consacrés.

Sur l’exercice par le CSA d’un pouvoir de sanction

33. Le Conseil supérieur de l’audiovisuel devrait pouvoir disposer de la compétence pour fixer des orientations, diffuser des bonnes pratiques, et adopter des lignes directrices. Il pourrait également procéder à des investigations, dont il conviendrait de s’assurer qu’elles n’appellent pas un renforcement de ses pouvoirs d’enquête, à ce stade plus restreints que ceux de régulateurs analogues.

34. Le Conseil d’État souligne également la nécessité de rendre publique, dans un rapport annuel, l’appréciation critique du Conseil supérieur de l’audiovisuel sur la manière dont les opérateurs se conforment à leurs obligations mentionnées au point 32, tant l’effet de cette appréciation sur l’image commerciale des opérateurs constitue un levier puissant d’influence et d’incitation.

35. La crédibilité de la régulation administrative confiée au CSA repose sur un pouvoir de sanction dont le Conseil d’État estime qu’il devra cibler, après mise en demeure et dans le respect des garanties prévues dans la loi n° 86-1067 du 30 septembre 1986, l’attitude systémique non coopérative de l’opérateur, après prise en compte des moyens qu’il met en œuvre pour prévenir la diffusion des contenus odieux manifestement illicites et la faire cesser. Dans cette appréciation qui sera soumise au contrôle du juge, il appartiendra au CSA de tenir également compte de comportements répétés de refus de retrait ou de retraits timorés, pusillanimes, ou au contraire excessifs. Le plafond de la sanction, fixé à 4 % du chiffre d’affaires mondial, n’appelle pas de réserves. Il sera cependant nécessaire de préciser explicitement que son montant tiendra compte de la gravité des manquements commis et de leur éventuelle réitération. En outre, la proposition de loi gagnerait, d’une part, à préciser plus clairement si la mise en conformité des opérateurs de plateforme à la mise en demeure qui leur a été adressée doit les exonérer de toute sanction et, d’autre part, à décrire les modalités de saisine du Conseil supérieur de l’audiovisuel, y compris éventuellement d’une saisine d’office.

VI. Prévention du contournement des injonctions judiciaires.

36. Après l’intervention d’une décision judiciaire aboutissant au retrait d’un contenu ou à la fermeture d’un site, il est fréquent de voir réapparaître, quasi instantanément, tout ou partie de ceux-ci sous une autre dénomination. Il n’existe aujourd’hui pas d’autre manière de réprimer ces résurgences que de recommencer la même procédure judiciaire.

37. Les exigences constitutionnelles ne permettent pas de procéder à l’interdiction de ces « contenus miroirs », quels que soient le degré et la gravité de leur illicéité, sans l’intervention d’un juge. Le droit de l’Union européenne pourrait par ailleurs s’opposer à l’obligation générale de surveillance susceptible d’incomber, en conséquence de cette interdiction, aux prestataires de services de la société de l’information en raison du caractère général et indéterminé de ce qui constitue un « contenu miroir » en matière de délits de presse. Aussi, pour atteindre l’objectif que s’assigne la proposition, le Conseil d’État, plutôt que de prévoir une injonction administrative, propose que le juge saisi de conclusions visant au retrait de contenu ou à l’interdiction d’accès à un site puisse également être saisi d’une demande d’interdiction de toute reprise partielle ou totale de ce qu’il aura interdit. S’il y fait droit, les autorités et services administratifs compétents, le cas échéant saisis par toute personne, pourraient intervenir auprès d’un hébergeur en indiquant que tout ou partie des données qu’il stocke relève de cette interdiction et en lui demandant de procéder immédiatement à leur retrait. À défaut, le juge initial serait saisi et pourrait, par ordonnance, confirmer l’obligation de retrait. Une réflexion pourrait également être engagée afin de responsabiliser, par la création d’un nouveau délit, les opérateurs de plateforme dans la suppression des contenus miroirs qui leur sont signalés comme ayant déjà fait l’objet d’une condamnation.

VII. Considérations finales.

38. Le Conseil d’État souligne enfin, comme il l’avait déjà fait dans son étude annuelle de 2017, « Puissance publique et plateformes numériques : accompagner l’ubérisation », invitant à l’adoption d’un ensemble de normes européennes traitant de la mise en œuvre de la charte des droits fondamentaux dans le numérique, que seule l’adoption de nouvelles dispositions par l’Union européenne donnerait un fondement commun et une efficacité considérablement accrue à une lutte que les valeurs inscrites dans les Traités imposent de conduire en même temps que le marché se développe.

Cet avis a été délibéré par l’assemblée générale du Conseil d’État dans sa séance du jeudi 16 mai 2019.

ANNEXE N° 2 : SYNTHÈSE DE LA CONSULTATION

Pour préparer l’examen de la présente proposition de loi, la commission des Lois, à l’initiative de sa présidente, a organisé, sur le site internet de l’Assemblée nationale, une consultation.

Ouverte du 18 avril au 12 mai 2019, cette consultation a donné la possibilité aux personnes interrogées de partager leur expérience face aux contenus haineux en ligne et de donner leur avis à propos de la lutte contre ces contenus. 1 415 personnes ont participé à cette consultation, dont 1 322 ont répondu à l’ensemble des questions posées, y compris celles n’appelant pas obligatoirement une réponse.

Les principaux résultats de la consultation sont présentés ci-après (141), l’ensemble des réponses à la consultation étant rendu public sur le site open data de l’Assemblée nationale (142).

A. LE PROFIL DES PARTICIPANTS


Parmi les 1 317 participants ayant donné leur tranche d’âge, 80 % ont entre 18 et 59 ans, les 25-39 ans et les 40-59 ans étant les classes d’âge les plus représentées.


Sur les 1 238 personnes ayant indiqué leur genre, près des deux tiers ont déclaré être un homme (762 hommes contre 476 femmes).


B. L’EXPOSITION AUX CONTENUS HAINEUX OU INJURIEUX

Question n° 1 : Avez-vous été confronté, que ce soit en tant que victime ou témoin, à des contenus haineux ou injurieux sur internet ?

Une nette majorité des personnes interrogées (86 % au total) a répondu avoir déjà été confrontée à des contenus haineux ou injurieux sur internet, 43 % d’entre elles indiquant même être souvent confrontés à de tels contenus.

Question n° 2 : De quelle nature étaient-ils ?

75 % des personnes interrogées ont qualifié les contenus dont ils ont été victimes ou témoins d’injurieux, 50 % de diffamatoires et 39 % ont jugé qu’ils relevaient de la menace. Les contenus auxquels ont été exposées ces personnes étaient, selon elles, racistes à 63 %, sexistes à 51 %, LGBTphobes à 40 %, xénophobes à 38,5 % et antisémites à 38 %. Les participants ayant répondu « Autre » à cette question estiment avoir été confrontés, en tant que victimes ou témoins, majoritairement à des contenus négationnistes. Dans une moindre mesure, ils ont également affirmé avoir été confrontés à des contenus anti-blancs et anti-athéistes. Une part résiduelle d’entre eux considère avoir été confrontés à des contenus grossophobes.

C. LES POURSUITES ENGAGÉES

Questions nos 3, 4 et 5 : Les avez-vous signalés au site qui les hébergeait ? Si oui, quelle suite a été donnée à votre signalement ? Si non, pourquoi ? 

Le signalement à la plateforme d’hébergement a été effectué par 51 % des internautes interrogés. Parmi ces personnes, une minorité considère avoir obtenu une véritable réponse du site hébergeur.

La majorité des réponses libres (« Autre ») a formulé la réponse suivante : « Cela dépend ». Il est possible d’en déduire que la suite donnée au signalement a pu déboucher sur une réponse de la part du site hébergeur mais que celle-ci n’est pas systématique. D’autres personnes ont précisé que leur signalement avait entraîné la suspension du compte de l’auteur du contenu litigieux.

77 % des internautes interrogés qui ont indiqué ne pas avoir signalé les contenus haineux ou injurieux au site hébergeur ont fait valoir leur méconnaissance de l’existence, de l’effectivité ou du fonctionnement d’un dispositif de signalement.

Questions nos 6, 7 et 8 : Les avez-vous signalés à la justice ? Si oui, une réponse judiciaire satisfaisante vous a-t-elle été apportée ? Si non, pourquoi ? 

Parmi les personnes ayant déclaré avoir déjà été victimes ou témoins de contenus odieux en ligne, seules 8 % ont effectué un signalement à la justice, dont une faible part (12 %) estime avoir reçu une réponse judiciaire satisfaisante.

17 % d’entre elles ont choisi la réponse « Autre ». Il ressort de leurs commentaires que la plateforme PHAROS a grandement été sollicitée. Néanmoins, aucune ne précise si une réponse judiciaire a pu finalement leur être apportée.

D’autres internautes, par la mention « En cours », semblent signifier que la justice est toujours saisie de leur demande.

Parmi les internautes interrogés n’ayant pas signalé à la justice les contenus haineux ou injurieux dont ils auraient été témoins ou victimes, près de 81 % d’entre eux ne l’ont pas fait par méconnaissance de l’existence, de l’effectivité, ou du fonctionnement du dispositif de signalement.

Question n° 9 : Connaissez-vous la plateforme PHAROS, qui permet de signaler à la police et à la gendarmerie certains contenus et comportements illégaux observés sur internet ?

40 % des internautes interrogés affirment avoir connaissance de l’existence de la plateforme PHAROS, contre 59 % ignorent son existence, ce qui témoigne de la relative méconnaissance de cette structure.

D. LES PISTES D’AMÉLIORATION

Question n° 10 : Comment, selon vous, mieux identifier les contenus haineux ou injurieux sur internet et leurs auteurs ? 

L’amélioration des dispositifs de signalement en vue de les rendre plus accessibles et simples d’usage (41 %) constitue la piste privilégiée par les personnes interrogées pour renforcer l’identification des contenus odieux en ligne et leurs auteurs. La mise en place par les opérateurs numériques d’outils de détection automatique et la suppression de l’anonymat sur internet arrivent, loin derrière, en deuxième position.

Les 10 % de réponses libres (« Autre ») expriment majoritairement les craintes des internautes concernant l’automatisation de la modération. Ces réponses invitent également à préserver l’anonymat aussi bien pour la protection des victimes que la liberté d’expression. Certains internautes appellent à améliorer la prévention et l’éducation, notamment auprès des mineurs, ainsi que les outils de détection existants.

Question n° 11 : Qui doit, selon vous, réguler les contenus haineux ou injurieux sur internet ? 

Selon les internautes consultés, la régulation des contenus haineux ou injurieux sur internet doit être de la compétence, dans une proportion similaire :

––  d’une autorité indépendante (42 %) ;

––  des opérateurs eux-mêmes (40 %) ;

––  de l’autorité judiciaire (38 %).

Dans les commentaires libres (« Autre ») les internautes ont évoqué l’idée d’une régulation « citoyenne » par les utilisateurs eux-mêmes mais également la création d’une « police dédiée » à ces questions. Étaient également exprimés, de la part de certaines personnes, une crainte de déléguer ce pouvoir à une entité privée ou à une autorité administrative mais également, de la part d’autres personnes, le souhait de renforcer la modération par les plateformes.

E. LA RÉPRESSION

Question n° 12 : Quelles sanctions doivent être prioritairement prononcées contre les auteurs de contenus haineux ou injurieux sur internet ?

Les personnes consultées semblent montrer une préférence pour l’interdiction temporaire d’accéder à internet ou à un ou plusieurs sites internet (47 %), pour la peine de mise à l’épreuve, de travail d’intérêt général ou de stage (45 %) et pour la peine d’amende (40 %). La peine de prison a, en revanche, été peu soutenue par les internautes.

Les réponses dans l’espace de commentaires libres (« Autre ») formulaient notamment une demande de proportionnalité de la sanction en fonction de la gravité du contenu et, dans une moindre mesure, comportaient des propositions de sensibilisation à la citoyenneté et au vivre ensemble.

Les réponses évoquaient également le recours à la suspension de compte. Certains internautes ont déclaré qu’aucune sanction n’était nécessaire, alors que d’autres ont préféré rappeler que le droit français actuel comportait déjà des sanctions.

Question n° 13 : Quelles sanctions doivent être prioritairement prononcées contre les opérateurs numériques ne respectant pas leurs obligations en matière de lutte contre les contenus haineux ou injurieux sur internet ?

Les personnes interrogées ont massivement plébiscité la peine d’amende comme peine adéquate à l’égard des opérateurs numériques ne respectant pas leurs obligations. Un grand nombre de personnes s’est également prononcé en faveur de l’interdiction temporaire d’exercer leur activité. En revanche, les peines de prison ou de mise à l’épreuve ont recueilli peu de suffrages.

Dans l’espace de commentaires libres (« Autre »), la majorité des internautes indiquait ne vouloir « Aucune sanction » et paraissait défendre l’idée que la présence de contenus haineux ou injurieux sur internet ne relève pas de la responsabilité des sites hébergeurs, aucune faute ne devant donc leur être imputée.

L’absence de sanctions à l’encontre des sites hébergeurs et l’irresponsabilité de ces derniers sont également revenues à de très nombreuses reprises dans les réponses libres à cette question et à la précédente.

D’autres personnes interrogées, en plus faible nombre, préconisaient une publicité de la sanction pour altérer l’image des plateformes ou proposaient une amende particulièrement sévère à leur encontre.

PERSONNES ENTENDUES

ASSOCIATIONS

• Association E-Enfance

Mme Justine Atlan, directrice générale

• Coexister

M. Théophile Grzybowski, vice-président de Coexister France

• FLAG

M. Mickaël Bucheron, président

M. Johan Cavirot, vice-président

• Fondation des Femmes

Mme Sylvie Pierre Brossolette, membre

Mme Saskia Lux, membre de la force juridique de la fondation et de son comité de pilotage

• Génération Numérique

M. Cyril di Palma, délégué général

• La Quadrature du Net

M. Martin Drago, juriste salarié de l’association

M. Alexis Fitzjean O’Cobhthaigh, avocat, membre de l’association

M. Arthur Messaud, juriste salarié de l’association

• Ligue des droits de l’Homme

Mme Maryse Artiguelong, vice-présidente

• Ligue internationale contre le racisme et l’antisémitisme

Mme Ilana Soskin, avocat à la Cour

M. Stéphane Nivet, directeur de la communication

Mme Mireille Flam, 1ère vice-présidente

Mme Claire Lopez, permanente de la commission juridique

• Respect zone

M. Philippe Coen, président

M. Eric Lauvaux, juriste

Mme Anne-Charlotte Gros, membre

• SOS Racisme

M. Dominique Sopo, président

M. Michaël Ghnassia, avocat au Conseil d’État et à la Cour de cassation

• Stop Homophobie

Mme Valérie Ple, présidente

M. Lyes Alouane, délégué Île-de-France

M. Etienne Deshoulières, avocat

• Union des étudiants juifs de France

M. Sacha Ghozlan, président

M. Stéphane Lilti, avocat

AUTORITÉS ADMINISTRATIVES INDÉPENDANTES ET ORGANISMES PUBLICS

• Défenseur des droits

M. Jacques Toubon, Défenseur des droits

Mme Nepheli Yatropoulos, conseillère internationale

• Autorité de régulation des communications électroniques et des postes

M. Sébastien Soriano, président

M. Serge Abiteboul, membre du collège

M. Jean Cattan, conseiller du président

• Commission nationale de l’informatique et des libertés

M. Jean Lessi, secrétaire général

Mme Guilda Rostama, juriste au service des affaires économiques

• Conseil supérieur de l’audiovisuel

M. Roch-Olivier Maistre, président

M. Yannick Faure, directeur de cabinet du président

• Commission nationale consultative des droits de l’homme

M. Jean-Marie Delarue, président

Mme Ophélie Marrel, conseillère juridique

• Conseil national du numérique

Mme Annie Blandin, membre

M. Théodore Christakis, membre

M. Charles-Pierre Astolfi, sécrétaire général

Mme Marylou Le Roy, rapporteure

• Haut Conseil à l’égalité entre les femmes et les hommes

Mme Claire Guiraud, secrétaire générale

Mme Marion Muracciole, chargée des travaux de la commission violences

ACTEURS NUMÉRIQUES

• Bing (Microsoft (*))

Mme Camille Vaziaga, responsable des affaires publiques

• Bodyguard

M. Charles Cohen, fondateur et président

• Cdiscount (*)

Mme Marie Even, secrétaire générale

• Daily Motion (*)

M. Clément Reix, chargé des affaires publiques et règlementaires

• E Bay (*)

Mme Charlotte Cheynard, responsable des affaires institutionnelles

• EDIMA

Mme Siada El Ramly, directrice générale

M. Romain Digneaux, chargé de mission « Affaires publiques »

• Facebook (*)

M. Anton Maria Battesti, responsable de la stratégie

Mme Béatrice Oeuvrard, responsable des affaires publiques

Mme Clotilde Briend, chargée des affaires publiques

• Fédération du e-commerce et de la vente à distance (*)

M. Marc Lolivier, secrétaire général

Mme Marie Audren, responsable des affaires publiques

• Fédération française des télécoms (FFT) (*)

M. Olivier Riffard, directeur des affaires publiques de la FFT

Mme Alexandra Laffitte, chargée de mission « Contenus et usages » à la FFT

Mme Claire Chalvidant, directrice des relations institutionnelles d’Orange

Mme Marie Liane Lekpeli, chargée des affaires réglementaires d’EITelecoms

Mme Claire Perset, directrice des relations institutionnelles de SFR

• Jeuxvideos.com

Mme Isabelle Jacquemet, directrice des opérations gaming

• Google France (*)

M. Thibault Guiroy, chargé des relations institutionnelles

• IAB France

M. Jean-Marie Le Guen, directeur général

• Le Bon Coin (*)

Mme Servane Forest, directrice juridique

M. Arnaud Jacques, responsable des affaires publiques

• Netino By Webhelp

Mme Chloé de Mont Serrat, directrice générale

M. Jean-Marc Royer, fondateur

• Pointdecontact.net

M. Quentin Aoustin, directeur des opérations

Mme Louise Florand, juriste analyste

• Qwant (*)

M. Sébastien Ménard, conseiller stratégie

M. Guillaume Champeau, directeur juridique et éthique

• Rakuten France (*)

M. Benjamin Moutte-Caruel, directeur des affaires juridiques et réglementaires

• Snapchat

M. Jean Gonié, directeur Europe

• Tech in France

M. Loïc Rivière, délégué général

Mme Marjorie Volland, responsable des affaires publiques

Mme Nina Gosse, avocate

• TripAdvisor

Mme Véronique Corduant, directrice des politiques publiques Europe

• Twitter (*)

Mme Audrey Herblin Stoop, directrice des affaires publiques France et Russie

• Wikimédia France (*)

M. Pierre-Yves Beaudoin, membre

• Youtube (Google (*))

M. Thibault Guiroy, chargé des relations institutionnelles

AVOCATS SPÉCIALISÉS

• Barreau de Paris

M. Basile Ader, vice-bâtonnier

M. Paul Rechter, directeur de la communication et des affaires publiques

• Conférence des bâtonniers (*)

Mme Hélène Moutardier, membre

• Conseil national des barreaux (*)

Mme Sophie Ferry, membre de la commission « Droit et entreprise »

M Jacques-Edouard Briand, directeur des affaires législatives

MAGISTRATS SPÉCIALISÉS

• 17ème chambre du tribunal de grande instance (TGI) de Paris

M. Thomas Rondeau, président

• Parquet de Paris

M. Rémi Heitz, procureur de la République près le TGI de Paris

Mme Aude Duret, vice-procureure, cheffe de la section de la presse et de la protection des libertés publiques au parquet de Paris

ADMINISTRATIONS

• Délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT

M. Frédéric Potier, délégué interministériel

(*) Ces représentants d’intérêts ont procédé à leur inscription sur le registre de la Haute Autorité pour la transparence de la vie publique, s’engageant ainsi dans une démarche de transparence et de respect du code de conduite établi par le Bureau de l’Assemblée nationale.

DÉPLACEMENT

• Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC)

M. Benoît Nau, adjoint au chef de l’OCLCTIC

Mme Aude Signourel, conseillère juridique à la sous-direction de la lutte contre la cybercriminalité

© Assemblée nationale

1 () J-P. Sartre, Le Diable et le Bon Dieu, Gallimard.

2 () Déclaration de M. Emmanuel Macron, Président de la République, sur la lutte contre l’antisémitisme, à Paris, le 7 mars 2018.

3 () K. Amellal, L. Avia et G. Taïeb, Renforcer la lutte contre le racisme et lantisémitisme sur internet, rapport remis au Premier ministre le 20 septembre 2018.

4 () Avis n° 397368 du 16 mai 2019 sur la proposition de loi visant à lutter contre la haine sur Internet, annexé au présent rapport.

5 () L’ensemble des réponses à la consultation est rendu public sur le site open data de l’Assemblée nationale : http://data.assemblee-nationale.fr/autres/consultations-citoyennes.

6 () Directive 2000/31/CE du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur.

7 () Mission « Régulation des réseaux sociaux – Expérimentation Facebook », Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne, mai 2019.

8 () Article XI de la Déclaration des droits de l’Homme et du citoyen de 1789.

9 () CEDH, 7 décembre 1976, Handyside c. Royaume-Uni, n° 5493/72.

10 () Source : CNCDH, Rapport sur la lutte contre le racisme, lantisémitisme et la xénophobie : les essentiels (année 2018), avril 2019 ; CNCDH, Rapport sur la lutte contre le racisme, l’antisémitisme et la xénophobie (année 2017), avril 2018.

11 () Commission nationale consultative des droits de l’homme, La lutte contre le racisme, lantisémitisme et la xénophobie (année 2017), mai 2018, pp. 38-50.

12 () P-A. Taguieff, La force du préjugé, essai sur le racisme et ses doubles, La Découverte, 1987 ; P-A. Taguieff (dir.), Dictionnaire historique et critique du racisme, PUF, 2013.

13 () P-A. Taguieff, La nouvelle judéophobie, Fayard, 2002.

14 () V. Geisser, La nouvelle islamophobie, La Découverte, 2003.

15 () Interstats, Les victimes d’atteintes à caractère raciste, antisémite ou xénophobe dans l’enquête Cadre de vie et sécurité, Info rapide n° 9, mars 2018.

16 () Rapport n° 2018-01-07-STER-038 du 17 janvier 2019 du Haut Conseil à l’égalité entre les femmes et les hommes, 1er état des lieux du sexisme en France, pp. 6-7.

17 () SOS Homophobie, Rapport sur l’homophobie 2019, mai 2019.

18 () Proportion des affaires donnant lieu à poursuites ou à une mesure alternative aux poursuites.

19 () Source : ministère de la justice / SG-SDSE-SID pénal, traitement DACG-PEPP, 2018.

20 () Source : rapports de transparence de Facebook (https://transparency.facebook.com/community-standards-enforcement#hate-speech).

21 () Source : rapports de transparence de Google (https://transparencyreport.google.com/youtube-policy/removals?hl=fr&total_channels_removed=period:Y2018Q3&lu=videos_by_reason&channels_by_reason=period:Y2018Q3&videos_by_reason=period:Y2018Q3).

22 () Au troisième trimestre 2018, Youtube avait supprimé près de 3 300 chaînes et 10 400 vidéos incitant à la violence ou à l’extrémisme violent et 1 750 chaînes ainsi que 18 850 vidéos pour harcèlement et cyberintimidation, auxquelles il faut ajouter les 94 400 vidéos violentes et les 6 200 vidéos avec des contenus offensants ou haineux retirées.

23 () Relevant de l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication, cette plateforme permet de signaler en ligne certains contenus et comportements illicites observés sur internet (pédophilie, pédopornographie, racisme, antisémitisme, xénophobie, incitation à la haine raciale, ethnique ou religieuse, terrorisme et apologie du terrorisme, escroqueries et arnaques financières en ligne).

24 () Mission « Régulation des réseaux sociaux – Expérimentation Facebook », Créer un cadre français de responsabilisation des réseaux sociaux : agir en France avec une ambition européenne, mai 2019, pp. 11-13.

25 () La loi n° 2018-703 du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes a assimilé au harcèlement sexuel ou moral « les propos ou comportements (…) imposés à une même victime par plusieurs personnes, de manière concertée ou à l’instigation de l’une d’elles, alors même que chacune de ces personnes n’a pas agi de façon répétée » ou « les propos ou comportements (…) imposés à une même victime, successivement, par plusieurs personnes qui, même en l’absence de concertation, savent que ces propos ou comportements caractérisent une répétition ».

26 () Directive 2000/31/CE du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur.

27 () Avis n° 397368 du 16 mai 2019 sur la proposition de loi visant à lutter contre la haine sur Internet, § 8.

28 () Le Conseil supérieur de l’audiovisuel s’agissant de la lutte contre les fausses informations, la Commission nationale de l’informatique et des libertés en matière de protection des données personnelles, l’Autorité de régulation des communications électroniques et des postes à l’égard des opérateurs de communications électroniques ou encore la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet pour la lutte contre le piratage.

29 () Enquête conduite par Renaissance numérique et Génération numérique en association avec la DILCRAH et le Comité interministériel à la prévention de la délinquance et de la radicalisation sur lexposition des jeunes aux contenus choquants sur internet, mars 2018.

30 () Avis n° 397368 du 16 mai 2019 précité, § 22.

31 () Respectivement aux articles 1er, 21 et 23.

32 () https://www.interieur.gouv.fr/Actualites/Communiques/G7-des-ministres-de-l-Interieur.

33 () Proposition de règlement du Parlement européen et du Conseil relatif à la prévention de la diffusion de contenus à caractère terroriste en ligne.

34 () Article 28 ter de la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services et médias audiovisuels telle que modifiée par la directive (UE) 2018/1808 du 14 novembre 2018.

35 () Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken.

36 () Online Harms White Paper, avril 2019.

37 () Commission nationale consultative des droits de l’homme, op. cit., pp. 48-49.

38 () https://www.lejdd.fr/Medias/exclusif-mark-zuckerberg-quatre-idees-pour-reguler-internet-3883274.

39 () Rapport de la mission « Régulation des réseaux sociaux – Expérimentation Facebook » précité, p. 3.

40 () Lorsqu’ils ne contribuent pas à la lutte contre les contenus les plus gravement réprimés, les activités illégales d’argent en ligne, la provocation au terrorisme ou son apologie et la pédopornographie, lorsqu’ils ne conservent pas les éléments d’identification des contenus qu’ils transmettent ou hébergent ou lorsqu’ils ne défèrent pas à la demande d’une autorité judiciaire visant à obtenir communication de ces éléments.

41 () À titre d’exemple, Facebook a lancé en février 2019 un fonds pour le civisme en ligne destiné à soutenir des projets contre le harcèlement et la haine et en faveur de l’esprit critique.

42 () Cette voie procédurale permet au ministère public qui choisit de l’employer de communiquer le dossier de la poursuite et ses réquisitions au président de la juridiction, qui statue sans audience ni débat par une ordonnance portant relaxe ou condamnation à une amende et, le cas échéant, à une peine complémentaire.

43 () http://www.justice.gouv.fr/bo/2019/20190430/JUSD1910196C.pdf.

44 () Avis n° 397368 du 16 mai 2019 précité, § 38.

45 () Déclaration de M. Emmanuel Macron, Président de la République, sur la lutte contre l’antisémitisme, à Paris, le 7 mars 2018.

46 () Les observations formulées par le Conseil d’État dans son avis, qui figure en annexe du présent rapport, sont détaillées dans le commentaire de chaque article de la proposition de loi.

47 () 1° du nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

48 () 2° du même article.

49 () 3° du même article.

50 () 4° du même article.

51 () 5° du même article.

52 () 6° du même article.

53 () 7° du même article.

54 () 8° du même article.

55 () 9° du même article.

56 () 10° du même article.

57 () Ils ne sont soumis à aucune obligation de déclaration préalable ou d’autorisation. Ils doivent désigner un directeur de publication (III) et un droit de réponse de la personne mentionnée par cet éditeur sur son site est prévu (IV). Les limites à leur liberté d’expression sont définies par le chapitre IV de la loi du 29 juillet 1881 ; elles sont poursuivies et réprimées dans les conditions définies par le chapitre V de cette loi (V).

58 () Il s’agit des personnes assurant une activité de transmission de contenus sur un réseau de communications électroniques ou de fourniture d’accès à un réseau de communications électroniques ou assurant, dans le seul but de rendre plus efficace leur transmission ultérieure, une activité de stockage automatique, intermédiaire et temporaire des contenus qu’un prestataire transmet.

59 () Loi n° 2016-1321 du 7 octobre 2016 pour une République numérique.

60 () CJUE, 23 mars 2010, Google c. Louis Vuitton Malletier, nos C-236/08 à C-238/08.

61 () La responsabilité de ces opérateurs peut être engagée s’ils ont modifié ces contenus, ne se sont pas conformés à leurs conditions d’accès et aux règles usuelles concernant leur mise à jour ou ont entravé l’utilisation licite et usuelle de la technologie utilisée pour obtenir des données ainsi que s’ils n’ont pas agi promptement pour retirer les contenus stockés ou pour en rendre l’accès impossible, dès qu’ils avaient effectivement eu connaissance du fait que les contenus avaient été retirés du réseau, que l’accès aux contenus avait été rendu impossible ou que la justice avait ordonné de retirer du réseau les contenus ou d’en rendre l’accès impossible.

62 () Décision n° 2004-496 DC du 10 juin 2004, Loi pour la confiance dans l’économie numérique, cons. 9.

63 () CEDH, 16 juin 2015, Delfi AS c. Estonie n° 64569/09 et 2 février 2016, Index.hu c. Hongrie, n° 22947/13.

64 () Groupe de travail interministériel sur la lutte contre la cybercriminalité, Protéger les internautes : rapport sur la cybercriminalité, février 2014, p. 185.

65 () CJUE, 24 novembre 2011, Scarlet Extended c. SABAM, n° C-70/10 et 16 février 2012, Netlog c. SABAM, n° C-360/10.

66 () Cass. Civ. 1ère, 12 juillet 2012, n° 11-13.666.

67 () 8 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.

68 () Voir infra, le commentaire de l’article 3.

69 () Avis n° 397368 du 16 mai 2019 précité, § 17.

70 () Ce principe figure à l’article 3 de la directive « e-commerce » et a été repris aux articles 28 bis et 28 ter de la directive 2010/13/UE du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels, telle que modifiée par la directive 2018/1808/UE du 14 novembre 2018.

71 () Avis n° 397368 du 16 mai 2019 précité, § 22.

72 () Même avis, § 25.

73 () Même avis, § 35.

74 () Même avis, § 27.

75 () Même avis, § 35.

76 () La fixation, l’enregistrement ou la transmission de l’image ou de la représentation pornographique d’un mineur en vue de sa diffusion ainsi que l’offre, la mise à disposition, la diffusion, l’importation ou l’exportation d’une telle image ou représentation.

77 () La fabrication, le transport ou la diffusion d’un message à caractère violent, incitant au terrorisme, pornographique ou de nature à porter gravement atteinte à la dignité humaine ou à inciter des mineurs à se livrer à des jeux les mettant physiquement en danger ainsi que le commerce d’un tel message lorsqu’il est susceptible d’être vu ou perçu par un mineur.

78 () Amendement de votre rapporteure.

79 () Amendement de M. Jacques Marilossian (La République en marche).

80 () Amendement de M. Belkhir Belhaddad et des membres du groupe La République en marche.

81 () Amendement de M. Jacques Marilossian et des membres du groupe La République en marche.

82 () Amendement de M. Buon Tan (La République en marche).

83 () Amendement de Mme George Pau-Langevin et des membres du groupe Socialistes et apparentés.

84 () Trois amendements identiques de la commission des Affaires culturelles et de l’éducation, de M. Erwan Balanant (Mouvement Démocrate et apparentés) et de M. Buon Tan (La République en marche).

85 () Votre rapporteure renvoie au commentaire de l’article 2 pour plus de précisions.

86 () Décision n° 2004-496 DC du 10 juin 2004, Loi pour la confiance dans l’économie numérique, cons. 9.

87 () CEDH, 16 juin 2015, Delfi AS c. Estonie, n° 64569/09.

88 () Loi n° 2007-297 du 5 mars 2007 relative à la prévention de la délinquance.

89 () Loi n° 2016-444 du 13 avril 2016 visant à renforcer la lutte contre le système prostitutionnel et à accompagner les personnes prostituées.

90 () Loi n° 2010-769 du 9 juillet 2010 relative aux violences faites spécifiquement aux femmes, aux violences au sein des couples et aux incidences de ces dernières sur les enfants.

91 () Loi n° 2014-873 du 4 août 2014 pour l’égalité réelle entre les femmes et les hommes.

92 () Loi n° 2014-1353 du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme.

93 () Loi n° 2018-703 du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes.

94 () Pour plus de précisions sur les infractions concernées, voir supra, le commentaire de l’article 1er.

95 () Loi n° 2007-297 du 5 mars 2007 précitée.

96 () Groupe de travail interministériel sur la lutte contre la cybercriminalité précité, pp. 186-187.

97 () Avis n° 397368 du 16 mai 2019 précité, § 28.

98 () Voir supra, le commentaire de l’article 1er.

99 () Votre rapporteure renvoie au commentaire de l’article premier pour plus de précisions.

100 () Voir supra, le commentaire des articles 1er et 2.

101 () 1 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.

102 () Loi n° 2007-297 du 5 mars 2007 relative à la prévention de la délinquance.

103 () Cinquième alinéa du 7 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.

104 () Loi n° 2018-898 du 23 octobre 2018 relative à la lutte contre la fraude.

105 () Avant-dernier alinéa du 7 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 précitée.

106 () Votre rapporteure renvoie au commentaire de l’article 3 pour plus de précisions.

107 () Votre rapporteure renvoie au commentaire de l’article 5 pour plus de précisions.

108 () Ils sont énoncés à l’article 3-1 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

109 () Article 13 de la loi n° 86-1067 du 30 septembre 1986 précitée.

110 () Article 14 de la loi n° 86-1067 du 30 septembre 1986 précitée.

111 () Article 15 de la loi n° 86-1067 du 30 septembre 1986 précitée.

112 () L’article 11 de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information prévoit que ces opérateurs :

–  mettent en place un dispositif facilement accessible et visible permettant à leurs utilisateurs de signaler de telles informations ;

–  prennent des mesures complémentaires, notamment la transparence de leurs algorithmes, la promotion des contenus issus d’entreprises et d’agences de presse et de services de communication audiovisuelle, la lutte contre les comptes propageant massivement de fausses informations, l’information des utilisateurs sur l’identité de la personne leur versant des rémunérations en contrepartie de la promotion de contenus d’information se rattachant à un débat d’intérêt général, l’information des utilisateurs sur la nature, l’origine et les modalités de diffusion des contenus ainsi que l’éducation aux médias et à l’information ;

–  rendent publics ces mesures et les moyens qu’ils y consacrent, en adressant une déclaration annuelle au Conseil supérieur de l’audiovisuel.

113 () K. Amellal, L. Avia et G. Taïeb, Renforcer la lutte contre le racisme et lantisémitisme sur internet, rapport remis au Premier ministre le 20 septembre 2018, p. 18.

114 () Voir supra, le commentaire de l’article 1er.

115 () Avis n° 397368 du 16 mai 2019 précité, § 31.

116 () Même avis, § 34.

117 () Voir supra, le commentaire de l’article 2.

118 () Voir supra, le commentaire de l’article 3.

119 () Voir infra, le commentaire de l’article 9.

120 () Notamment la dissolution, l’interdiction d’exercer une activité professionnelle, le placement sous surveillance judiciaire, la fermeture d’un établissement, l’affichage de la décision prononcée ou la diffusion de celle-ci par la presse écrite ou tout moyen de communication au public par voie électronique.

121 () Quatrième et cinquième alinéas du 7 du I de l’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique.

122 () Article 6-1 de la loi n° 2004-575 du 21 juin 2004 précitée.

123 () II de l’article 6 de la loi n° 2004-575 du 21 juin 2004 précitée.

124 () III du même article.

125 () Cet article prévoit notamment que « le taux maximum de l’amende applicable aux personnes morales est égal au quintuple de celui prévu pour les personnes physiques par la loi qui réprime l’infraction ».

126 () Il existe également, à côté de ce référé « internet », un référé spécifique « droit d’auteur » dans le domaine de la lutte contre la contrefaçon de droits d’auteur ou de droits voisins, en application de l’article L. 336-2 du code de la propriété intellectuelle.

127 () Cass. Civ. 1ère, 19 juin 2008, n° 07-12.244.

128 () Voir, par exemple, TGI Paris, ord. Réf., 10 février 2012, n° 12/51224.

129 () CJUE, 24 novembre 2011, Scarlet c. SABAM, n° C-70/10 et 16 février 2012, SABAM c. Netlog, n° C-360/10.

130 () Article 50-1 de la loi du 29 juillet 1881 sur la liberté de la presse.

131 () Article 706-23 du code de procédure pénale.

132 () Lequel prévoit que le président du tribunal de grande instance « peut toujours, même en présence d’une contestation sérieuse, prescrire en référé les mesures conservatoires ou de remise en état qui s’imposent, soit pour prévenir un dommage imminent, soit pour faire cesser un trouble manifestement illicite ».

133 () Loi n° 2014-1353 du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme.

134 () A. Linden, Rapport dactivité 2018 de la personnalité qualifiée prévue par larticle 6-1 de la loi n° 2004-575 du 21 juin 2004 créé par la loi n° 2014-1353 du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme (mars 2018 – février 2019), mai 2019.

135 () Article 61 de la loi n° 2010-476 du 12 mai 2010 relative à l’ouverture à la concurrence et à la régulation du secteur des jeux d’argent et de hasard en ligne.

136 () Loi n° 2016-1691 du 9 décembre 2016 relative à la transparence, à la lutte contre la corruption et à la modernisation de la vie économique.

137 () Article L. 621-13-5 du code monétaire et financier.

138 () Loi n° 2014-344 du 17 mars 2014 relative à la consommation.

139 () Article L. 524-3 du code de la consommation.

140 () Avis n° 397368 du 16 mai 2019 précité, § 37.

141 () Certaines questions posées offraient la possibilité pour les internautes de rédiger librement une réponse. Pour chaque question de ce type, il a été dégagé les principales tendances des propositions formulées, à l’exception des réponses sans lien avec la question ou de celles répétant des éléments déjà mentionnés par le questionnaire.

142 () http://data.assemblee-nationale.fr/autres/consultations-citoyennes.