— 1 —
______
ASSEMBLÉE NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
QUINZIÈME LÉGISLATURE
Enregistré à la Présidence de l'Assemblée nationale le 19 juin 2019
RAPPORT
FAIT
AU NOM DE LA COMMISSION DES LOIS CONSTITUTIONNELLES, DE LA LÉGISLATION
ET DE L’ADMINISTRATION GÉNÉRALE DE LA RÉPUBLIQUE SUR LA PROPOSITION DE LOI,
APRÈS ENGAGEMENT DE LA PROCÉDURE ACCÉLÉRÉE,
visant à lutter contre la haine sur internet (n° 1785)
PAR MME Laetitia AVIA
Députée
——
Voir les numéros :
Assemblée nationale : 1785 et 1989.
— 1 —
SOMMAIRE
___
Pages
AVANT-PROPOS............................................ 7
I. UNE PROLIFÉRATION INACCEPTABLE DE CONTENUS HAINEUX SUR INTERNET
A. UN NIVEAU PRÉOCCUPANT DE RACISME, D’ANTISÉMITISME ET DE XÉNOPHOBIE DANS LA SOCIÉTÉ
1. Des comportements encore prégnants et dont les motifs évoluent…
a. Un racisme important malgré une progression de la tolérance
b. Un renouvellement des argumentaires du racisme ?
2. … qui se retrouvent dans la délinquance constatée
a. L’état de la délinquance raciste
B. UNE HAINE QUI PROLIFÈRE SUR INTERNET
1. Un nombre élevé de contenus haineux en ligne
a. Les signalements aux plateformes en ligne
2. Des progrès insuffisants dans le retrait de ces contenus et la répression de leurs auteurs
a. La marge de progression des plateformes
b. La montée en puissance des pouvoirs publics
1. L’inefficacité du dispositif de la loi pour la confiance dans l’économie numérique
b. Les insuffisances du dispositif actuel
2. Des initiatives en Europe pour améliorer la régulation d’internet
a. Une approche par le droit souple de plus en plus contestée
b. Une régulation renforcée soutenue par les plateformes et la société civile
II. PRÉSENTATION SYNTHÉTIQUE DE LA PROPOSITION DE LOI INITIALE
A. LES PRINCIPALES ORIENTATIONS DE LA PROPOSITION DE LOI
1. Renforcer l’obligation de retrait des contenus haineux par les grandes plateformes en ligne
3. Renforcer le devoir de coopération des grandes plateformes en ligne avec l’autorité judiciaire
4. Combattre efficacement la duplication des contenus jugés haineux
B. DES DISPOSITIONS COMPLÉMENTAIRES D’UN VASTE PLAN DE LUTTE CONTRE LA HAINE ET LES PRÉJUGÉS
1. Le plan national de lutte contre le racisme et l’antisémitisme
2. L’amélioration des moyens d’enquête et de jugement
3. La nécessaire révision du cadre européen applicable à la régulation des contenus en ligne
III. LA POSITION DE VOTRE COMMISSION DES LOIS
A. LE RENFORCEMENT DES OBLIGATIONS DES grandes PLATEFORMEs EN LIGNE
1. Une obligation renforcée de retrait des contenus manifestement haineux
2. Un devoir de coopération dans la lutte contre la haine en ligne
a. L’obligation de se conformer aux recommandations du CSA
b. Les obligations de traitement des notifications
c. Les obligations d’information, de transparence et de coopération
B. LA CLARIFICATION DU RÔLE DE SUPERVISION DU CONSEIL SUPÉRIEUR DE L’AUDIOVISUEL
C. LA SÉCURISATION DE LA PROCÉDURE DE LUTTE CONTRE LA DUPLICATION DES CONTENUS JUGÉS HAINEUX
D. L’INTRODUCTION D’UN VOLET RELATIF À LA PRÉVENTION
Chapitre Ier (nouveau) Obligation renforcée de retrait des contenus haineux en ligne
Chapitre IV (nouveau) Amélioration de la lutte contre la diffusion de contenus haineux en ligne
Chapitre V (nouveau) Dispositions finales
Article 9 Modalités d’entrée en vigueur
AUDITION DE M. CÉDRIC O, SECRÉTAIRE D’ÉTAT CHARGÉ DU NUMÉRIQUE
Réunion du mercredi 5 juin 2019 à 11 heures 15
Première réunion du mercredi 19 juin 2019
Seconde réunion du mercredi 19 juin 2019
ANNEXE N° 1 : AVIS DU CONSEIL D’ÉTAT
ANNEXE N° 2 : SYNTHÈSE DE LA CONSULTATION
— 1 —
S’« il suffit qu’un seul homme en haïsse un autre pour que la haine gagne de proche en proche l’humanité entière » ([1]), il y a lieu de s’inquiéter du nombre de messages de haine proliférant sur internet comme du sentiment d’impunité dont semblent profiter leurs auteurs.
Pourtant, ni l’ampleur de la haine en ligne, ni le relatif anonymat de ses auteurs ne sont des fatalités, dans l’espace numérique comme ailleurs. Resterait‑on inactif si, dans le monde « physique », une personne était l’objet, de manière répétée ou non, d’insultes ou d’attaques verbales haineuses ? Conditionnerait-on la poursuite des auteurs de ces actes au nombre de personnes qui y ont assisté ? Serait‑on indifférent au rôle de ceux qui, sans être à l’origine de ces insultes ou attaques, en auraient facilité la commission ou les auraient aggravées ?
Pour ne pas se résigner face à ce déferlement de contenus haineux sur les espaces de discussion qu’offre internet, il revient au législateur de mieux définir les moyens de combattre toutes les formes d’intolérance et de protéger nos concitoyens contre les effets délétères de cette haine sur la cohésion de la société.
Telle est l’ambition de la présente proposition de loi, que votre rapporteure et les membres du groupe La République en marche ont déposée sur le Bureau de l’Assemblée nationale le 20 mars 2019 au terme d’un long travail, entamé il y a plus d’une année, qui s’est poursuivi jusqu’à l’inscription de ce texte à l’ordre du jour de nos travaux.
Cette proposition est d’abord la concrétisation des engagements pris, dès le mois de mars 2018, par le Président de la République, convaincu de « l’absolue nécessité d’un combat ferme, constant, persévérant » contre toutes les formes de haine ([2]), et par le Premier ministre, lorsqu’il a présenté le nouveau plan de lutte contre le racisme et l’antisémitisme.
Elle est ensuite la traduction des recommandations formulées par votre rapporteure, avec MM. Karim Amellal, enseignant et écrivain, et Gil Taïeb, vice‑président du Conseil représentatif des institutions juives de France, à l’issue d’une mission de réflexion et de propositions sur le renforcement de la lutte contre le racisme et l’antisémitisme sur internet ([3]). Avant de rendre ses conclusions, cette mission avait lancé une consultation publique sur le sujet et mené une opération de testing sur le signalement de propos racistes ou antisémites aux principaux réseaux sociaux, moteurs de recherche et forums de discussion, qui avaient souligné la nécessité d’agir et de le faire rapidement.
Enfin, ce texte a bénéficié, après son dépôt, d’un travail préparatoire approfondi et participatif.
Faisant usage de la possibilité qui lui est offerte par le dernier alinéa de l’article 39 de la Constitution, le président de l’Assemblée nationale a soumis cette proposition de loi au Conseil d’État, qui a rendu son avis le jeudi 16 mai 2019. Cet avis, précieux pour votre rapporteure et soutenant pleinement les objectifs poursuivis par le texte, formule plusieurs observations et propositions permettant de mieux concilier l’exigence d’efficacité de la lutte contre la haine en ligne et le nécessaire respect des exigences constitutionnelles et conventionnelles applicables en la matière ([4]).
La commission des Lois, à l’initiative de sa présidente et pour la première fois de la législature, a par ailleurs initié une consultation citoyenne sur le sujet, à laquelle plus de 1 400 personnes ont participé durant près de trois semaines et dont les principaux résultats figurent en annexe de ce rapport ([5]). Dans le même souci, votre rapporteure a organisé, durant trois semaines, de nombreuses auditions et tables rondes qui lui ont permis de recueillir l’avis d’une soixantaine de personnes, d’institutions, d’associations ou d’entreprises.
Cette proposition de loi s’inscrit en cohérence avec les travaux de la mission sur la régulation des réseaux sociaux, qui préconise, en complément d’une politique répressive à l’égard des meneurs et auteurs de haine, une responsabilisation accrue des grandes plateformes de réseaux sociaux, sous le contrôle d’une autorité administrative indépendante, ainsi que la révision du cadre européen de régulation, fondé sur la directive du 8 juin 2000 relative au commerce électronique ([6]), dite « e-commerce » ([7]).
En conformité avec la directive « e-commerce », la présente proposition de loi vise à adapter la loi du 21 juin 2004 pour la confiance dans l’économie numérique, qui en transpose les règles, afin de tirer les conséquences du rôle d’accélérateur de contenus joué par certaines grandes plateformes numériques (réseaux sociaux, moteurs de recherche) dans la propagation de la haine en ligne, à travers leurs fonctions d’ordonnancement ou de référencement des contenus qu’elles hébergent. Elle s’insère dans un mouvement européen plus large, initié par l’Allemagne qui s’est doté, en 2017, avec la loi « NetzDG », d’une régulation spécifique des réseaux sociaux, prélude d’une révision plus vaste du cadre européen de réglementation des activités en ligne.
Le choix qui est fait est le suivant : renforcer les obligations de retrait des contenus haineux ; réguler l’activité des plateformes.
Si la proposition de loi ne comporte pas, au stade de son dépôt, de dispositions relatives à la poursuite et à la condamnation des auteurs de haine, les débats parlementaires seront l’occasion d’enrichir ce volet de la réforme, après les progrès permis dans ce domaine par la loi du 23 mars 2019 de réforme pour la justice (plainte en ligne, ordonnance pénale, enquête sous pseudonyme…). Il conviendra, en particulier, de mettre en place, sans tarder, un parquet spécialisé dans la poursuite de ces auteurs, structure dotée des moyens humains et techniques permettant de maîtriser les spécificités de la sphère numérique.
Votre rapporteure remercie Mme Fabienne Colboc, rapporteure pour avis de la commission des Affaires culturelles et de l’éducation, qui aura permis de compléter utilement certaines dispositions de ce texte, qu’il s’agisse du rôle dévolu au Conseil supérieur de l’audiovisuel dans la lutte contre la haine en ligne ou des actions de prévention et de sensibilisation à mener dans ce domaine.
Pour votre rapporteure, chaque personne susceptible d’être impliquée dans la lutte contre les propos haineux sur internet doit être mise à contribution, responsabilisée, voire sanctionnée à due proportion de son rôle dans l’émission et la diffusion de ces propos. Elle souhaite que cet objectif soit poursuivi dans le respect de l’équilibre entre la sauvegarde des intérêts fondamentaux des personnes et la protection de la liberté d’expression.
Mais si la libre communication des pensées et des opinions, l’« un des droits les plus précieux de l’Homme » ([8]) et fondement essentiel d’une société démocratique ([9]), doit évidemment être préservée, elle n’est toutefois pas sans limite. Ne sauraient s’en prévaloir celles et ceux qui tiennent des propos contrevenant aux valeurs fondamentales de notre société, comme c’est le cas des provocations à la discrimination, à la haine ou à la violence pour des raisons racistes ou sexistes.
— 1 —
I. UNE PROLIFÉRATION INACCEPTABLE DE CONTENUS HAINEUX SUR INTERNET
Le racisme, croyance dans une hiérarchie entre les groupes humains fondés sur des « races » et, par extension, attitude d’hostilité systématique à l’égard d’une catégorie déterminée de personnes, reste à un niveau préoccupant dans notre société, même s’il est de plus en plus condamné. En témoigne la prolifération des expressions de haine sur internet, dont le caractère viral, lorsque celle-ci s’exprime sur les réseaux sociaux, et la relative impunité dont bénéficient ses auteurs, ont de graves conséquences. Contraire aux principes d’égalité et de fraternité ainsi qu’aux droits et libertés de chacun, cette haine, qui nourrit les préjugés et les discriminations, nuit au « vivre ensemble ».
A. UN NIVEAU PRÉOCCUPANT DE RACISME, D’ANTISÉMITISME ET DE XÉNOPHOBIE DANS LA SOCIÉTÉ
1. Des comportements encore prégnants et dont les motifs évoluent…
a. Un racisme important malgré une progression de la tolérance
Dans ses deux derniers rapports sur la lutte contre le racisme, l’antisémitisme et la xénophobie ([10]), la Commission nationale consultative des droits de l’homme (CNCDH) dresse un constat mitigé de l’état du racisme dans notre pays. Si elle constate que la tolérance à l’égard des immigrés et des minorités n’a jamais été aussi élevée depuis 1990, « en tendance, les noirs (…) et les Roms voient la tolérance à leur égard régresser, à l’inverse des juifs, des musulmans et des Maghrébins où la situation est stable » :
– « la minorité noire est [celle à l’encontre de laquelle] s’exprime le racisme le plus cru, infériorisant et animalisant », dans le débat public, sur les réseaux sociaux et dans la vie de tous les jours ;
– les Roms sont l’objet d’un sentiment de rejet encore massif ;
– l’antisémitisme continue de reposer sur « la persistance de préjugés anciens fondés sur la croyance que les juifs auraient un pouvoir excessif, un rapport particulier à l’argent et une double allégeance (envers Israël et la France) » ;
– le recul des préjugés envers les musulmans n’empêche pas une partie de la société de développer une aversion à l’islam marquée par la perception d’une religion conquérante et le sentiment que des pratiques musulmanes sont peu compatibles avec le vivre ensemble.
Ces observations sont à mettre en perspective avec celles que la CNCDH formulait pour l’année 2017 ([11]), lorsqu’elle relevait, sur certaines thématiques, « un retour du raidissement identitaire en France ».
Évolution de la perception à l’égard de la notion de « race », de la perception « communautariste » de minorités et des préjugés antisémites
(de haut en bas et de gauche à droite)
Source : CNCDH, La lutte contre le racisme, l’antisémitisme et la xénophobie (année 2017), mai 2018, pp. 39, 42 et 47.
b. Un renouvellement des argumentaires du racisme ?
Ces évolutions posent plusieurs questions sur le renouvellement des argumentaires du racisme, thème qui fait l’objet de vives controverses :
– assiste-t-on au déclin de la croyance en une hiérarchie des « races » au profit de considérations identitaires et culturelles, pour reprendre la distinction de Pierre-André Taguieff entre racisme « biologique », fondé sur la croyance en l’existence de « races » inférieures, et racisme « différentialiste », selon lequel les manières de vivre et de penser de l’autre sont trop différentes ([12]) ?
– une « nouvelle judéophobie » émerge-t-elle comme l’a théorisée le même Pierre‑André Taguieff ([13]), s’appuyant moins sur un antijudaïsme, la croyance dans la supériorité d’une prétendue « race » aryenne ou un négationnisme mais davantage sur un antisionisme amalgamant juifs, israéliens et sionistes ?
– une « nouvelle islamophobie » ([14]) se développe-t-elle, comme le pense Vincent Geisser qui la conçoit distincte du racisme anti-immigrés, ciblant la religion musulmane et ses fondements au nom de la défense de la laïcité et des valeurs républicaines ?
2. … qui se retrouvent dans la délinquance constatée
a. L’état de la délinquance raciste
En 2018, près de 5 170 infractions en lien avec la « race », l’origine, l’ethnie ou la religion ont été constatées en France par la police et la gendarmerie. Bien qu’en baisse pour la troisième année consécutive, ce chiffre n’en demeure pas moins élevé et stable dans sa structure, 80 % de ces infractions concernant des provocations, des injures ou des diffamations.
Les atteintes à caractère raciste révèlent des traits préoccupants :
– les auteurs présumés des faits (genre, âge, nationalité…) présentent des caractéristiques démographiques nettement plus proches de la population générale que les mis en cause pour l’ensemble des crimes et délits, ce qui tendrait à accréditer la thèse d’un « racisme ordinaire » bien ancré dans notre société ;
– la baisse tendancielle du discours raciste pénalement réprimé cache une hausse d’actes violents à caractère antisémite et antimusulman et une augmentation de la violence de ces actes ;
– l’évolution sur le long terme, au cours des vingt-cinq dernières années, des actes racistes recensés demeure, en tout état de cause, inquiétante.
Ces chiffres sous-estiment cependant la réalité du racisme dans notre pays car trop peu de victimes portent plainte. Une comparaison des faits portés à la connaissance des forces de sécurité ou de la justice et des chiffres collectés au travers des enquêtes de victimation met en lumière le « chiffre noir » de la délinquance raciste, ou, selon la CNCDH, « un phénomène massif de sous‑déclaration du racisme ».
Les atteintes à caractère raciste, antisémite ou xénophobe s’élèveraient en moyenne, chaque année entre 2012 et 2016, à 700 000 victimes d’injures, 125 000 victimes de menaces et 45 000 victimes de violences, dont une faible partie aurait porté plainte (6 % dans le cas d’injures, 17 % dans le cas de menaces et 26 % dans le cas de violences) ([15]).
Pour le service central du renseignement territorial, le nombre d’actes racistes serait, en 2018, de nouveau en augmentation – de près de 20 % par rapport à 2017 – alors que les faits de cette nature avaient baissé de plus de moitié entre 2015 et 2017. Si le nombre d’actes antimusulmans diminue, les actes antisémites auraient connu une hausse de plus de 74 % par rapport à l’année dernière – passant de 311 en 2017 à 541 l’année dernière – tandis que celui des actes antichrétiens serait resté stable, avec 1 063 actes recensés.
Évolution du nombre d’actes racistes comptabilisés par
le service central du renseignement territorial (1993 – 2018)
Source : CNCDH, Rapport sur la lutte contre le racisme, l’antisémitisme et la xénophobie : les essentiels (année 2018), avril 2019, p. 13.
Ces comportements haineux ou discriminatoires peuvent également être des actes sexistes – près de 4 femmes sur 10 auraient été victimes d’une injustice ou d’une humiliation du fait d’être une femme et 1,2 million auraient été l’objet d’une injure sexiste en 2017 ([16]) – ou LGBTphobes (lesbophobie, gayphobie, biphobie et transphobie) – SOS homophobie a ainsi recueilli 1 905 témoignages d’actes LGBTphobes en 2018, soit 15 % de plus qu’en 2017, dont 23 % se seraient produits sur internet ([17]).
Ces chiffres et ces constats sont d’autant plus préoccupants que la réponse pénale ne semble pas être à la hauteur de l’ampleur du phénomène raciste dans notre pays. Si le taux de réponse pénale ([18]) dans ce domaine, de 85 % en 2017, est en légère hausse par rapport à 2016, il demeure inférieur à celui du contentieux général. Et parmi les 6 122 affaires comportant une ou plusieurs infractions commises en raison de la religion ou de l’origine de la victime qui ont été orientées par les parquets en 2017, un nombre important d’entre elles a fait l’objet d’un classement sans suite pour insuffisante caractérisation des faits et seules 9 % ont donné lieu à des condamnations ([19]).
Votre rapporteure ne peut que partager le constat formulé par la CNCDH au terme de ses travaux : « le phénomène raciste en France requiert (…) une extrême vigilance : il reste encore largement sous-déclaré et se manifeste souvent à travers des formes de rejet subtiles parfois difficiles à caractériser et à dénoncer pour les personnes qui en sont victimes ».
B. UNE HAINE QUI PROLIFÈRE SUR INTERNET
Reflet de l’état du racisme dans notre pays, la cyber‑haine ne cesse de se développer, même si votre rapporteure s’est heurtée à la difficulté de connaître l’ampleur réelle du phénomène, en raison notamment de la faiblesse et de l’éparpillement des statistiques sur le sujet.
1. Un nombre élevé de contenus haineux en ligne
a. Les signalements aux plateformes en ligne
Vecteurs d’expression directe et d’accès à l’information, les réseaux sociaux et plateformes d’échanges de contenus publics en ligne sont aussi le lieu d’abus inacceptables qui sont le fait d’individus isolés ou de groupes organisés.
Les plateformes d’échanges en ligne sont intervenues, ces dernières années, sur un nombre croissant de contenus (publications, photos, vidéos, commentaires…) constitutifs de discours de haine au sens de leurs conditions générales d’utilisation ou de la loi partout dans le monde :
– Facebook a pris des mesures à l’égard de près de 2,9 millions de contenus de cette nature entre juillet et septembre 2018, contre 2,5 millions aux premier et deuxième trimestres de la même année et 1,8 million au dernier trimestre 2017, sans compter les 2,1 millions de contenus liés au harcèlement ou à l’intimidation supprimés par cette société au troisième trimestre de l’année dernière ([20]) ;
– au dernier trimestre 2018, Youtube avait supprimé près de 16 600 chaînes et 49 600 vidéos incitant à la violence ou à l’extrémisme violent et plus de 8 000 chaînes ainsi que 39 450 vidéos pour harcèlement et cyberintimidation, auxquelles il faut ajouter les 253 700 vidéos violentes et les 18 950 vidéos avec des contenus offensants ou haineux retirées ([21]), ces chiffres étant en nette augmentation par rapport au troisième trimestre de la même année ([22]) ;
– au cours de son audition par votre rapporteure, Twitter, dont les rapports de transparence ne sont pas aussi détaillés que celui des plateformes précédentes, a indiqué que près de 1,3 million de contenus haineux lui avaient été signalés dans le monde au cours des six derniers mois.
D’après les derniers chiffres communiqués au niveau européen par les grandes plateformes d’échanges de contenus en ligne, les contenus haineux qui leur sont signalés sont, à titre principal, de la xénophobie, des actes LGBTphobes, de la haine anti-musulmans, des actes anti-roms et de l’antisémitisme.
Source : Commission européenne, Code of Conduct on countering illegal hate speech online : fourth evaluation confirms self-regulation works, février 2019.
En France, sur les 163 723 signalements adressés à la plateforme d’harmonisation, d’analyse, de recoupements et d’orientation des signalements (PHAROS) ([23]) en 2018, près de 14 000 relevaient de la haine en ligne ou de discriminations et concernaient 8 000 contenus.
Les signalements les plus nombreux en 2018 dans ce domaine avaient trait, comme les années précédentes, à de la provocation publique à la haine et à la discrimination raciale, ethnique ou religieuse, en particulier à des discours antisémites, anti-musulmans, anti-arabes, anti-chrétiens et anti-blancs.
RÉpartition des contenus signalés à pharos (2014 – 2017)
|
Nombre de contenus recoupés / Nombre de signalements |
|||
|
2014 |
2015 |
2016 |
2017 |
Provocation publique à la haine et à la discrimination raciale, ethnique ou religieuse |
4 018 / 8 537 |
11 040 / 18 879 |
6 938 / 11 955 |
4 409 / 7 248 |
Provocation publique à la haine et à la discrimination à raison de l’orientation sexuelle |
578 / 1 272 |
781 / 1 913 |
633 / 1 227 |
420 / 664 |
Injure et diffamation xénophobe ou discriminatoire |
1 594 / 2 855 |
2 497 / 4 517 |
1 692 / 3 064 |
3 528 / 4 755 |
Apologie de crime de guerre et contre l’humanité |
154 / 381 |
377 / 765 |
363 / 809 |
285 / 417 |
Provocation publique à la haine et la discrimination à raison d’un handicap |
43 / 92 |
36 / 156 |
46 / 92 |
29 / 45 |
Contestation de crime contre l’humanité |
48 / 104 |
113 / 203 |
82 / 169 |
80 / 121 |
Vidéos de violences réelles à caractère xénophobe |
26 / 54 |
21 / 44 |
19 / 23 |
7 / 7 |
2. Des progrès insuffisants dans le retrait de ces contenus et la répression de leurs auteurs
a. La marge de progression des plateformes
Votre rapporteure n’ignore pas les progrès réalisés par les plateformes dans la mise en œuvre des mécanismes permettant le retrait rapide de contenus haineux. Ces progrès résultent notamment de la mise en place, au niveau européen, d’un code de conduite auquel ont adhéré certaines d’entre elles. Il convient cependant d’être prudent avec les résultats des évaluations de l’application de ce code de conduite, en tenant par exemple compte de l’éventuelle information préalable des plateformes sur les périodes de test et la participation de signaleurs de confiance (trusted flaggers) connues d’elles.
Quatrième bilan de la mise en œuvre du code de conduite
sur la lutte contre les discours de haine en ligne
Les plateformes parties prenantes du code de conduite évalueraient 89 % des contenus signalés dans les 24 heures et 72 % des contenus considérés comme des discours de haine illégaux seraient supprimés, contre respectivement 40 % et 28 % lors du lancement du code en 2016.
Évolution du taux d’évaluation dans les 24 heures des signalements de contenus haineux depuis le lancement du code de conduite
Évolution du taux de retrait de contenus haineux
depuis le lancement du code de conduite
Ces opérations de retrait ne s’accompagneraient pas de suppressions excessives de contenus illicites, « le taux de suppression montr[ant] que l’examen effectué par les entreprises leur permet de continuer à assurer le respect de la liberté d’expression ».
Toutefois, les plateformes engagées dans cet exercice devraient améliorer leur retour d’information aux utilisateurs notifiants ainsi que la transparence en ce qui concerne les notifications et les suppressions.
Retour d’information des principales plateformes en fonction de
la qualité du signalant (utilisateur ordinaire / signalant de confiance)
Par ailleurs, des partenariats auraient été conclus entre ces plateformes et des organisations de la société civile ainsi que les autorités nationales pour mener des actions de sensibilisation et d’éducation.
Quatre nouvelles entreprises ont décidé d’adhérer au code en 2018 (Google+, Instagram, Snapchat et Dailymotion), l’entreprise française Webedia, qui détient la plateforme Jeuxvideo.com, ayant également récemment annoncé sa participation.
Source : Commission européenne, Code of Conduct on countering illegal hate speech online : fourth evaluation confirms self-regulation works, février 2019.
Ces progrès sont récents, hétérogènes et encore insuffisants face à la masse de propos haineux présents sur les réseaux sociaux :
– si Youtube et Facebook retirent près de 80 % des contenus haineux qui leur sont signalés dans les 24 heures par PHAROS, ce n’est le cas que de 50 % de ceux signalés à Twitter ;
– les plateformes disposent d’équipes de modération de tailles variables et d’outils de détection automatisée de contenus manifestement illicites à un stade de développement plus ou moins perfectionné : alors qu’il a été indiqué que 30 000 personnes travaillent sur les enjeux de sécurité et de modération chez Facebook, sans qu’il soit possible de déterminer le nombre précis de celles dédiées à la lutte contre les contenus haineux, et 10 000 chez Google, votre rapporteure n’a pas été en mesure de déterminer la taille de l’équipe consacrée à ces questions chez Twitter, même si l’effectif total de salariés de cette entreprise dans le monde, au nombre de 4 000, laisse présager un sous-dimensionnement de cette équipe par rapport au nombre de contenus illicites circulant sur ses réseaux ;
– d’importants progrès demeurent à accomplir s’agissant de la lutte contre les contenus haineux diffusés en direct ;
– la coopération de ces plateformes avec les pouvoirs publics en matière de lutte contre les discours de haine est variable, certaines, de droit américain, refusant de répondre favorablement aux réquisitions judiciaires aux fins de connaître l’identité des auteurs de contenus illicites et renvoyant de manière aléatoire, selon le type de contenus, à l’exigence d’une commission rogatoire internationale, lourde et coûteuse ;
– enfin, alors que des plateformes excluent de leurs services des leaders de haine pour violation des conditions générales d’utilisation du service, d’autres ne le font pas.
La mission confiée à MM. Frédéric Potier, Serge Abiteboul et Benoît Loutrel sur la régulation des réseaux sociaux a elle aussi relevé « l’insuffisance et le manque de crédibilité des démarches d’autorégulation développées par les plus grandes plateformes », du fait de l’opacité des informations disponibles sur les démarches entreprises par ces plateformes en matière de modération des contenus haineux, compte tenu du caractère autocentré et disparate de cette autorégulation et en raison de l’absence de supervision générale ([24]).
b. La montée en puissance des pouvoirs publics
Les pouvoirs publics ne sont pas restés inactifs sur ces sujets, et votre rapporteure tient à saluer leur engagement croissant.
Le travail de la Délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti‑LGBT (DILCRAH), en lien étroit avec le monde associatif, tous deux considérés par certaines grandes plateformes numériques comme des « signaleurs de confiance », permet d’accélérer les décisions de retrait ou de déréférencement. Ce travail a également abouti à la conclusion d’une convention avec la Fondation de la Shoah en faveur du développement des alternatives aux poursuites et des peines « pédagogiques » à destination des auteurs d’infractions à caractère raciste ou antisémite, sous la forme notamment d’un stage de citoyenneté autour de la déconstruction des discours de haine.
Mais d’importants progrès restent à accomplir. Il s’agit, d’une part, de pallier l’insuffisance des moyens donnés aux enquêteurs et à l’autorité judiciaire dans la lutte contre ces contenus, sur le plan humain et matériel, alors que les effectifs de la plateforme PHAROS n’excèdent pas vingt‑quatre personnes, dont seulement six dans la cellule dédiée aux discours de haine, et que ceux de la section AC4 du parquet de Paris, spécialisée dans la presse, ne comptent que cinq magistrats, compétents pour traiter non seulement des infractions à la loi sur la liberté de la presse mais aussi des plaintes pour violences illégitimes.
Il s’agit, d’autre part, de mettre un terme à la méconnaissance des textes et dispositifs existants dans ce domaine de la part d’un grand nombre de professionnels de la chaîne pénale. Les auditions conduites par votre rapporteure ont en effet révélé qu’il n’était pas rare que certaines dispositions existantes soient évitées – comme c’est le cas de la loi de 1881 sur la liberté de la presse, jugée compliquée, lourde et piégeuse sur le plan procédural pour des enquêteurs et des magistrats non spécialisés – ou méconnues – à l’instar de celles, récemment introduites dans notre droit, relatives aux « raids numériques » ([25]).
Cette situation a conduit, en 2018, à ce que 15 % à 20 % des 8 000 contenus haineux signalés à PHAROS ne soient pas susceptibles de recevoir une qualification pénale, tandis que 40 % constituaient des injures ou des diffamations pour lesquelles une plainte de la victime était nécessaire pour mettre en mouvement l’action publique. Sur le plan judiciaire, sur les 400 plaintes à caractère raciste adressées au parquet de Paris l’année dernière, seules 267 étaient orientées, dont 75 % classées sans suite pour auteur inconnu ou insuffisante caractérisation de l’infraction. À cet égard, votre rapporteure considère que la création d’un parquet spécialisé dans la répression des auteurs d’infractions haineuses en ligne serait de nature à remédier à cette situation.
1. L’inefficacité du dispositif de la loi pour la confiance dans l’économie numérique
Tirées du régime libéral de protection de la liberté d’expression et du droit européen, les règles applicables à la régulation des contenus sur internet reposent sur l’absence de contrôle a priori et la compétence du juge pour apprécier ce qui excède l’exercice de cette liberté, afin d’éviter toute censure privée.
Transposant les articles 12 à 15 de la directive du 8 juin 2000 relative au commerce électronique ([26]), dite « e-commerce », la loi du 21 juin 2004 pour la confiance dans l’économie numérique a ainsi soumis les éditeurs de services sur internet à un régime très proche de celui de la presse, en les rendant pleinement responsables des contenus qu’ils mettent en ligne, et limité la responsabilité des fournisseurs d’accès à internet (FAI) et des hébergeurs à l’égard des contenus illégaux, compte tenu du rôle passif que ceux-ci exercent :
– FAI et hébergeurs n’ont pas d’obligation générale de surveillance des informations qu’ils transmettent ou stockent mais doivent mettre en place un dispositif de signalement des contenus odieux et de certaines activités illégales et en informer promptement les autorités publiques ;
– les hébergeurs ne peuvent être sanctionnés à raison d’un contenu illicite que s’ils ont eu effectivement connaissance du caractère manifestement illicite de celui-ci et n’ont pas agi promptement pour le retirer ou en rendre l’accès impossible, leur connaissance des faits litigieux étant présumée lorsque la notification du contenu illicite comporte certains éléments ;
– l’autorité judiciaire peut prescrire, en référé ou sur requête, toutes mesures permettant de prévenir un dommage ou de faire cesser un dommage occasionné par le contenu d’un site internet ;
– depuis 2014, une procédure de blocage administratif, mesure subsidiaire par rapport au retrait du contenu par l’éditeur ou l’hébergeur, est également prévue à l’égard des sites terroristes ou pédopornographiques.
b. Les insuffisances du dispositif actuel
L’ensemble de ce dispositif apparaît, en pratique, à la fois daté, inadapté et inefficace pour lutter contre la prolifération de contenus haineux.
Il est, en premier lieu, daté, reposant sur une distinction binaire entre prestataires techniques et éditeurs de contenus qui ne rend plus compte de la réalité des activités numériques.
Certains acteurs, principalement les réseaux sociaux et les moteurs de recherche, contribuent aux abus inacceptables observés en ligne, à travers leur fonction d’ordonnancement, souvent individualisé, des contenus qu’ils hébergent. Cette fonction, qui a un but commercial ou est destinée à opérer un tri dans le volume considérable de contenus publiés quotidiennement sur ces plateformes, peut avoir pour effet d’accélérer ou de ralentir la diffusion des contenus. Elle confère à ces acteurs un rôle éditorial de fait qui, s’il diffère de l’éditorialisation traditionnelle fondée sur une sélection de contenus préalablement à leur publication comme dans le secteur de la presse, ne peut pas rester sans conséquence sur les obligations pesant sur eux.
Le Conseil d’État, dans son avis sur la proposition de loi, le relève en ces termes : « l’apparition de nouveaux acteurs (réseaux sociaux et moteurs de recherche) qui, en tant qu’intermédiaires actifs permettant le partage de contenus et en accélérant l’accès par leurs processus algorithmiques de hiérarchisation et d’optimisation, ne se bornent pas à un rôle purement technique, sans pour autant pouvoir être qualifiés d’éditeurs de contenus, rend le régime actuel, fondé sur la neutralité des prestataires de services de communication au public en ligne à l’égard des contenus, en partie dépassé » ([27]).
Ce cadre de régulation est, en second lieu, inadapté à l’activité des plateformes en ligne qui, compte tenu de leur ubiquité, de leurs stratégies d’établissement et des usages qu’elles suscitent, bousculent la primauté de l’organisation territoriale des États. Or le cadre européen de régulation, fondé sur le principe du « pays d’origine » – au terme duquel seul l’État où est établie la plateforme en cause pourrait lui imposer des obligations et en contrôler le respect – freine la capacité d’action des pays de destination comme la France, où, pourtant, sont diffusés les contenus illicites et se produisent les dommages.
Ce dispositif est, en dernier lieu, inefficace.
La mise en œuvre effective de ces dispositions se heurte, tout d’abord, à l’absence de régulateur chargé de contrôler le respect par les acteurs numériques des dispositions de la loi pour la confiance dans l’économie numérique en matière de contenus illicites, alors même que plusieurs autorités administratives indépendantes interviennent, de manière sectorielle, dans le numérique ([28]).
Par ailleurs, certains éléments des procédures de notification et de retrait des contenus illicites freinent leur mise en œuvre opérationnelle. Les plateformes concernées n’ont par exemple pas mis en place une procédure suffisamment harmonisée, accessible et fluide de notification de ces contenus. À cela s’ajoute l’absence de délai encadrant expressément le retrait de ceux de ces contenus qui sont manifestement illicites. La problématique du signalement est particulièrement vraie s’agissant des mineurs, comme l’ont confirmé à votre rapporteure les associations E-enfance et Génération numérique lors de leur audition : à titre indicatif, une enquête récente menée sur des jeunes de 11 à 18 ans révélait que 42 % de ceux exposés à des propos choquants sur internet ne faisaient rien (29 % les signalaient au site) parce qu’ils ne savaient pas comment répondre, pour 29 % d’entre eux, ou parce qu’ils considéraient que c’était inutile pour 25 % ([29]).
En outre, la faiblesse du montant des sanctions prévues en cas de manquement des FAI et hébergeurs à leurs obligations – lesquels n’encourent que le quintuple de l’amende encourue par une personne physique, soit 375 000 euros d’amende – n’est pas suffisamment dissuasive au regard de la capacité financière des opérateurs de plateforme en ligne – pour rappel, le chiffre d’affaires mondial de Facebook en 2018 était de 55,8 milliards de dollars et celui de Twitter pour 2017 atteignait 2,4 milliards de dollars.
Enfin, des difficultés structurelles entravent le travail des enquêteurs et de l’autorité judiciaire : défaut d’identification des titulaires de comptes à l’origine de la publication de contenus illicites (hébergements à l’étranger, réquisitions infructueuses, anonymat sur internet…), caractère massif du contentieux, absence d’obligation pour ces opérateurs de disposer d’une représentation légale en France... Il aura ainsi fallu attendre près de neuf mois et la multiplication de signalements pour que la justice ordonne le blocage effectif du site Démocratie participative, qui a été par la suite dupliqué sous des noms de domaine différents dont l’accès a été rendu difficile par leur déréférencement.
En définitive, comme le souligne le Conseil d’État dans son avis sur la présente proposition de loi, alors que la répression de la diffusion des contenus haineux demeure, pour ces raisons, insuffisante et insatisfaisante, « une protection effective des droits fondamentaux suppose que soient mis en place, quel que soit le lieu d’établissement des opérateurs, des mécanismes permettant, de manière urgente et efficace, le retrait de contenus qui portent manifestement atteinte aux valeurs qu’expriment ces droits fondamentaux » ([30]).
2. Des initiatives en Europe pour améliorer la régulation d’internet
Cette situation est d’autant plus regrettable que le droit européen n’interdit pas aux États de prévoir des obligations renforcées en matière de lutte contre la haine sur internet, sous réserve qu’elles n’entravent pas la liberté d’établissement et la libre prestation de services, et que certains de nos voisins se sont engagés dans cette voie.
a. Une approche par le droit souple de plus en plus contestée
À l’instar de nombre de Constitutions de ses États membres, la Charte des droits fondamentaux de l’Union européenne, qui a la même force juridique obligatoire que les traités, consacre des principes légitimant une action déterminée contre la haine en ligne, comme le respect de la dignité humaine, l’interdiction de toute discrimination ou l’égalité entre les hommes et les femmes ([31]).
Si l’Union européenne a privilégié, jusqu’à présent, le droit souple pour renforcer la lutte contre la haine en ligne, à travers le lancement, en 2016, d’un code de conduite à destination des entreprises des technologies de l’information, cette approche commence à être remise en cause.
Les 4 et 5 avril, les ministres de l’Intérieur du G7 ont souligné la nécessité de mieux lutter contre l’emploi d’internet à des fins terroristes et d’extrémisme violent, en exigeant le retrait sous une heure des contenus terroristes signalés ou identifiés, leur marquage et le blocage de leur remise en ligne ([32]). Un projet de législation européenne pour assurer le retrait de contenus terroristes en ligne est d’ailleurs actuellement en préparation ([33]). Les événements survenus à l’occasion de l’attentat terroriste de Christchurch le 15 mars 2019 – dont la vidéo filmée par l’assaillant avait pu être visionnée, durant 29 minutes, près de 200 fois pendant sa diffusion en direct avant qu’un utilisateur de Facebook ne la signale, et 4 000 fois au total avant sa suppression du réseau, sans compter les 1,5 million de copies supprimées en une journée par le réseau social et Youtube – ont d’ailleurs rappelé la nécessité d’une régulation accrue dans ce domaine.
Par ailleurs, la récente directive modifiant les règles applicables aux services de médias audiovisuels, dite « SMA », que la France n’a pas encore transposée, prévoit que les États doivent veiller à ce que les plateformes de partage de vidéos établies sur leur territoire « protègent le grand public des programmes vidéos créés par l’utilisateur et communications commerciales audiovisuelles comportant des contenus dont la diffusion constitue une infraction pénale au titre du droit de l’Union », notamment le racisme et la xénophobie ([34]).
En outre, plusieurs pays européens ont pris des initiatives pour faire évoluer le cadre légal applicable à la régulation des contenus haineux en ligne, prélude probable à une révision de la directive « e-commerce » :
– en Allemagne, une loi visant à renforcer l’application de la loi sur les réseaux sociaux, adoptée en octobre 2017 et entrée en vigueur le 1er janvier 2018, fait peser sur les opérateurs de réseaux sociaux comptant plus de deux millions d’utilisateurs des obligations renforcées ([35]) : s’inscrivant dans une logique de protection des consommateurs, elle exige notamment de ces opérateurs le retrait des contenus illicites qui leur sont signalés dans un délai de sept jours, réduit à 24 heures dans le cas de contenus manifestement illicites, ainsi que la transparence sur les actions mises en œuvre dans ce domaine, et les soumet à des amendes pouvant atteindre cinquante millions d’euros ;
– au Royaume-Uni, le ministère de l’Intérieur et celui de la Culture, des Médias et des Sports, proposent, dans le livre blanc sur les contenus offensants récemment publié ([36]), que les entreprises technologiques ne parvenant pas à enrayer « dans un délai déterminé » la propagation de contenus terroristes ou pédopornographiques soient sanctionnées d’une peine d’amende pouvant aller jusqu’à 4 % du chiffre d’affaires mondial de l’entreprise.
Ailleurs dans le monde, d’autres initiatives naissent, à l’instar de l’Australie qui envisage de condamner les entreprises ne respectant pas ses lois sur la modération d’une peine d’amende, pouvant atteindre 10 % de leur chiffre d’affaires mondial, et de sanctionner leurs responsables d’une peine de prison.
b. Une régulation renforcée soutenue par les plateformes et la société civile
Les acteurs du numérique eux-mêmes et la société civile appellent de leurs vœux un renforcement des moyens consacrés à la lutte contre toutes les formes de haine, notamment sur internet.
La lutte contre le racisme et les discriminations est une demande forte de la population, 76 % des Français estimant nécessaire que notre pays mène une lutte vigoureuse contre le racisme et 86 % condamnant les insultes racistes, antisémites, homophobes ou sexistes ([37]).
Votre rapporteure rappelle à cet égard que l’Assemblée nationale, lors de la discussion inachevée du projet de loi constitutionnelle pour une démocratie plus représentative, responsable et efficace, avait souhaité tirer les conséquences du caractère historiquement daté et scientifiquement invalide de la notion de « race » en adoptant, à l’unanimité, un amendement qui supprimait la mention de ce mot à l’article 1er de la Constitution afin de priver le discours raciste de toute légitimité.
Les grandes entreprises du numérique semblent également prendre la mesure du caractère inadmissible et dangereux des contenus qu’elles hébergent et contribuent à propager, à l’instar de M. Mark Zuckerberg, président‑directeur général de Facebook, qui a appelé à repenser la régulation de l’internet dans une tribune publiée le 29 mars 2019 ([38]).
Lors des auditions qu’elle a conduites, votre rapporteure a pu constater l’adhésion des principales plateformes en ligne de partage de contenus à la nécessité d’une lutte plus efficace contre la haine en ligne et d’un accompagnement renforcé de leur action dans ce domaine, même si les moyens de cette régulation ont pu faire davantage débat.
C’est également la conclusion à laquelle est arrivée la mission confiée à MM. Frédéric Potier, Serge Abiteboul et Benoît Loutrel sur la régulation des réseaux sociaux, lorsqu’elle recommande, en complément d’un renforcement de la politique répressive à l’égard des auteurs de contenus haineux, « une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante » et reposant sur une obligation de transparence et un devoir de diligence des plus grandes plateformes ([39]).
II. PRÉSENTATION SYNTHÉTIQUE DE LA PROPOSITION DE LOI INITIALE
Dans ce contexte et forte de l’engagement d’un nombre croissant d’acteurs du numérique et de Français dans la lutte contre le racisme et les discriminations, votre rapporteure estime nécessaire d’adapter notre droit aux défis soulevés par la prolifération de contenus haineux sur internet.
A. LES PRINCIPALES ORIENTATIONS DE LA PROPOSITION DE LOI
La proposition de loi poursuit quatre objectifs principaux.
1. Renforcer l’obligation de retrait des contenus haineux par les grandes plateformes en ligne
En premier lieu, elle prévoit une obligation de retrait sous 24 heures après leur notification des contenus manifestement haineux à la charge des grands opérateurs de plateforme en ligne dont l’activité consiste à mettre en relation plusieurs personnes pour le partage de contenus.
Seraient concernés ceux de ces opérateurs « dont l’activité dépasse un seuil, déterminé par décret, de nombre de connexions sur le territoire français », sans considération de leur pays d’établissement, autrement dit les réseaux sociaux et plateformes de partage de contenus publics tels que Facebook, Twitter ou Youtube (I de l’article 1er).
Dans l’intention des auteurs de la proposition de loi, les contenus visés sont les incitations manifestes à la haine ou les injures manifestes à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap.
Afin d’en faciliter le retrait, la proposition de loi améliore le processus de notification de ces contenus (article 2) :
– en limitant le nombre d’informations aujourd’hui exigées par la loi pour la confiance dans l’économie numérique pour que l’hébergeur des contenus soit réputé avoir eu connaissance de ceux-ci (I) ;
– en exigeant des grands opérateurs de plateforme en ligne qu’ils accusent réception « sans délai » de la notification, qu’ils « informent le notifiant des suites données à sa demande de retrait » dans un délai de 24 heures et mettent à la disposition de leurs utilisateurs un dispositif de notification « facilement accessible et uniformisé » entre eux, disponible dans la langue de l’utilisateur (II) ;
– en contraignant ces mêmes opérateurs à mettre en œuvre « les moyens humains ou technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus » (III).
Ces opérateurs devraient également prévoir des voies de recours interne contre une décision de retrait ou de non-retrait de contenus (III de l’article 1er) et informer publiquement et de manière pédagogique les victimes de contenus haineux sur les dispositifs de recours, judiciaires ou internes, à leur disposition ainsi que les modalités de leur accompagnement (article 3).
2. Instaurer une régulation administrative des grandes plateformes en ligne en matière de lutte contre les contenus haineux
En deuxième lieu, la proposition de loi instaure un nouveau régime de régulation administrative des grands opérateurs de plateforme en ligne dont l’activité consiste à mettre en relation plusieurs personnes pour le partage de contenus publics.
Cette mission serait confiée au Conseil supérieur de l’audiovisuel (CSA) :
– qui pourrait prononcer à l’encontre d’un opérateur une sanction pécuniaire ne pouvant excéder 4 % de son chiffre d’affaires annuel mondial en cas de manquement à l’obligation de retrait dans les 24 heures de contenus manifestement haineux (II de l’article 1er) ;
– qui devrait contribuer à la lutte contre la diffusion de tels contenus, par la définition de recommandations à l’attention de ces opérateurs, le suivi des obligations s’imposant à eux dans ce domaine, la publication de bilans périodiques sur l’application et l’effectivité de ces obligations ainsi que le contrôle des informations devant être rendues publiques par les opérateurs sur les actions et moyens mis en œuvre pour cette lutte (article 4).
3. Renforcer le devoir de coopération des grandes plateformes en ligne avec l’autorité judiciaire
En troisième lieu, la proposition de loi comporte deux dispositions destinées à renforcer la coopération des acteurs numériques avec l’autorité judiciaire (article 5).
Elle aggrave le montant des sanctions pénales encourues par les FAI et les hébergeurs lorsqu’ils ne respectent pas leurs obligations ([40]) (I).
Par ailleurs, elle oblige les grands opérateurs de plateforme en ligne dont l’activité consiste à mettre en relation plusieurs personnes pour le partage de contenus à disposer d’un représentant légal en France (II).
4. Combattre efficacement la duplication des contenus jugés haineux
En dernier lieu, l’article 6 de la proposition de loi entend améliorer la procédure permettant de rendre inaccessibles les « sites miroirs » haineux, reproduisant des contenus déjà jugés illicites en vue de contourner une première décision de retrait :
– en rendant alternative, et non plus subsidiaire, l’intervention du FAI par rapport à celle de l’hébergeur (1°) ;
– en habilitant l’autorité administrative (l’office central de lutte contre la criminalité liée aux technologies de l’information et de la communication) à ordonner le blocage et le déréférencement de tout site renvoyant ou donnant accès à des contenus jugés illicites par une décision judiciaire définitive (2°).
L’ensemble de ces dispositions s’appliquerait sans préjudice du droit commun de la loi pour la confiance dans l’économie numérique, qui demeurerait applicable, et permettrait la mise en cause, devant le juge judiciaire, de la responsabilité civile et pénale des hébergeurs en cas de manquements ainsi que celle des auteurs de contenus haineux s’ils sont identifiés.
B. DES DISPOSITIONS COMPLÉMENTAIRES D’UN VASTE PLAN DE LUTTE CONTRE LA HAINE ET LES PRÉJUGÉS
Au-delà de ces dispositions, la lutte contre la haine sur internet doit s’inscrire dans un cadre plus général, comme s’y sont engagés depuis plusieurs mois les pouvoirs publics.
1. Le plan national de lutte contre le racisme et l’antisémitisme
Le Gouvernement a lancé, depuis mars 2018, sous la coordination de la DILCRAH, un plan national de lutte contre le racisme et l’antisémitisme destiné à :
– améliorer la détection et la poursuite des actes de haine, avec notamment l’expérimentation d’un réseau d’enquêteurs spécialisés et spécialement formés à Marseille ;
– mieux former les élèves des écoles de police et de gendarmerie, par la désignation d’un référent « racisme et antisémitisme » dans chaque groupement et direction départementale de la sécurité publique ;
– renforcer l’action de la plateforme PHAROS, par le doublement des effectifs de la cellule « discours de haine et de discrimination » ;
– mieux prendre en charge les victimes, en développant le recours à la plainte en ligne conformément à la loi du 23 mars 2019 de réforme pour la justice.
Par ailleurs, un important travail de prévention des atteintes commises par le numérique et d’éducation à ses usages doit se poursuivre, en particulier à destination des plus jeunes, comme le font de nombreuses associations avec le soutien du ministère de l’éducation nationale, de la DILCRAH et du Comité interministériel de prévention de la délinquance et de la radicalisation mais aussi celui de certaines plateformes, comme Google et Facebook ([41]), ou des opérateurs de communications électroniques.
2. L’amélioration des moyens d’enquête et de jugement
Afin d’améliorer la célérité et l’effectivité de la réponse judiciaire aux comportements haineux en ligne, la loi du 23 mars 2019 de réforme pour la justice a permis que les sanctions susceptibles d’être prononcées à l’encontre d’auteurs d’injures et de diffamations à caractère raciste, sexiste, homophobe ou handiphobe – principalement des peines d’amende et des stages de sensibilisation – le soient par la voie de l’ordonnance pénale ([42]).
Par ailleurs, alors que l’égalité entre les femmes et les hommes a été déclarée « Grande cause nationale » du quinquennat, la lutte contre le sexisme fait aussi l’objet d’une politique ambitieuse, à travers le cinquième plan de mobilisation et de lutte contre toutes les violences faites aux femmes, qui devrait se traduire par la mise en place d’une procédure de signalement en ligne et le lancement d’une application numérique pour les victimes de cyber-harcèlement. En adoptant la loi du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes, le Parlement a enrichi notre arsenal juridique en modifiant le champ d’application du délit de harcèlement moral ou sexuel afin de mieux réprimer les « raids numériques ».
En outre, la garde des Sceaux a diffusé, le 4 avril 2019, une circulaire sur la lutte contre les discriminations, les propos et les comportements haineux. Elle a rappelé aux procureurs de la République et aux magistrats du siège l’ensemble des dispositifs qu’ils peuvent mettre en œuvre dans ce domaine, en particulier la nécessité pour chaque parquet de désigner un référent sur ces sujets, l’existence du référé civil aux fins de blocage de sites racistes ou antisémites ou encore la possibilité de rendre obligatoire la publicité de la décision sanctionnant un propos raciste ou antisémite ([43]).
3. La nécessaire révision du cadre européen applicable à la régulation des contenus en ligne
Votre rapporteure a conscience que les dispositions de cette proposition de loi et les initiatives qui les accompagnent n’épuiseront pas les réponses susceptibles d’être apportées en matière de lutte contre la haine sur internet et, de manière générale, de régulation des contenus illicites en ligne. Les autorités européennes et nationales devront, à terme, s’intéresser aux raisons pour lesquelles de tels contenus prolifèrent et sont parfois mis en avant, en réfléchissant à l’organisation centralisée du secteur numérique ainsi qu’au modèle technique et d’affaires des plateformes d’échanges de contenus.
Cette proposition de loi est l’occasion pour la France d’encourager l’ouverture de discussions sur les obligations de sécurité, de transparence et de diligence de ces plateformes en matière de lutte contre la haine en ligne, dans le prolongement des dispositions similaires existant pour la neutralité de l’internet ou la protection des consommateurs.
Elle se veut aussi, à la suite du législateur allemand, un appel à la révision du régime de responsabilité, devenu au fil des ans trop binaire et inadapté aux nouvelles réalités de l’internet, posé par la directive « e‑commerce », en particulier par la mise en place d’une régulation fondée sur le principe du « pays de destination ».
À cet égard, votre rapporteure faite siennes les observations formulées, dans son avis sur la proposition de loi, par le Conseil d’État pour qui, sans préjudice des initiatives nationales susceptibles d’être prises, « l’adoption de nouvelles dispositions par l’Union européenne donnerait un fondement commun et une efficacité considérablement accrue à une lutte que les valeurs inscrites dans les Traités imposent de conduire en même temps que le marché se développe » ([44]).
Ce souhait rejoint celui de votre rapporteure et la volonté exprimée par le Président de la République, le 7 mars 2018, de mener, au niveau européen, « un combat permettant de légiférer pour contraindre les opérateurs à retirer dans les meilleurs délais l’ensemble de ces contenus et construire le cadre juridique d’une responsabilité de ces plateformes et l’ensemble de ces diffuseurs de messages » ([45]).
III. LA POSITION DE VOTRE COMMISSION DES LOIS
La commission des Lois a approuvé l’ensemble des dispositions de la proposition de loi dans de nouvelles rédactions principalement destinées à tenir compte des observations formulées par le Conseil d’État dans son avis ([46]) et à préciser ou à compléter certaines des obligations mises à la charge des grands opérateurs de plateforme en ligne.
A. LE RENFORCEMENT DES OBLIGATIONS DES grandes PLATEFORMEs EN LIGNE
Le texte adopté par votre Commission distingue clairement deux séries d’obligations :
– l’obligation de retrait en 24 heures des contenus manifestement haineux notifiés aux grandes plateformes en ligne, obligation de résultat sanctionnée par le juge judiciaire ;
– les autres obligations imposées à ces opérateurs pour respecter cette obligation de retrait et, plus généralement, mieux lutter contre la haine en ligne, obligations de moyens relevant du pouvoir de régulation du CSA.
Pour la cohérence et la lisibilité d’ensemble des dispositifs de lutte contre les contenus illicites sur internet, ces obligations ont été inscrites respectivement au sein de deux nouveaux articles 6-2 et 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, qui comporte déjà des dispositions en la matière.
1. Une obligation renforcée de retrait des contenus manifestement haineux
La Commission a tout d’abord précisé les règles régissant l’obligation renforcée de retrait des contenus manifestement haineux, insérées au nouvel article 6-2 de la loi pour la confiance dans l’économie numérique.
Le champ d’application de cette obligation a été étendu (article 1er) :
– elle s’imposera non seulement aux réseaux sociaux mais aussi aux moteurs de recherche dont le rôle dans la diffusion et la propagation des contenus publics partagés est comparable ;
– aux contenus initialement visés (les injures aggravées et les provocations à la discrimination, à la haine ou à la violence) ont été ajoutés ceux qui sont constitutifs d’une atteinte aux droits fondamentaux, en particulier au principe de dignité de la personne humaine (apologie de crimes, harcèlement sexuel, traite des êtres humains, proxénétisme, pédopornographie et provocation au terrorisme), qui fondent déjà le devoir de coopération des acteurs numériques en vertu du 7 du I de l’article 6 de la loi pour la confiance dans l’économie numérique ;
– la description des motifs justifiant de retirer ces contenus a été en conséquence modifiée pour qu’y figure « l’intérêt général attaché à la lutte contre les contenus publiés sur internet provoquant à la commission d’actes de terrorisme, faisant l’apologie de tels actes ou comportant une atteinte à la dignité de la personne humaine, une incitation à la haine, à la violence, à la discrimination ou une injure envers une personne ou un groupe de personnes à raison de l’origine, d’une prétendue race, de la religion, de l’ethnie, de la nation, du sexe, de l’orientation sexuelle, de l’identité de genre ou du handicap, vrais ou supposés ».
Seul le juge judiciaire pourra sanctionner le non-retrait de ces contenus ou en ordonner le retrait : conformément à une préconisation du Conseil d’État, un délit autonome de refus de retrait de ces contenus a été créé, puni des mêmes peines que celles aujourd’hui prévues par l’article 6 de la loi pour la confiance dans l’économie numérique.
Ces dispositions ont été complétées, respectivement aux articles 1er bis et 1er ter, par la simplification du formalisme de la notification de ces contenus, qui figurait initialement au I de l’article 2, et par une nouvelle disposition sanctionnant les notifications abusives ou malveillantes.
2. Un devoir de coopération dans la lutte contre la haine en ligne
La Commission a rassemblé, au sein du nouvel article 6-3 de la loi pour la confiance dans l’économie numérique, l’ensemble des obligations de moyens mises à la charge des grandes plateformes en ligne afin qu’elles soient en mesure de respecter l’obligation de retrait en 24 heures des contenus manifestement haineux mais aussi de mieux lutter contre la prolifération de la haine en ligne.
Ces obligations de moyens, dont un certain nombre figuraient dans la proposition de loi initiale, ont été précisées et complétées.
a. L’obligation de se conformer aux recommandations du CSA
En tête de ces obligations de moyens a été inscrite l’obligation, nouvelle, pour les opérateurs de se conformer aux recommandations que le CSA établira pour la bonne application de l’obligation de retrait et des obligations de moyens mises à leur charge (article 2) ([47]).
b. Les obligations de traitement des notifications
La Commission a rassemblé, à l’article 2, les obligations relatives au traitement des notifications de contenus haineux et en a précisé la portée :
– l’information sur les suites données à la notification devra être délivrée au notifiant comme à l’auteur du contenu litigieux, comporter les motifs de la décision prise mais aussi les sanctions encourues par l’auteur pour la publication d’un contenu haineux ([48]) ;
– le dispositif de notification des contenus haineux devra être directement accessible depuis ces contenus ([49]) ;
– les moyens humains ou technologiques nécessaires et proportionnés pour le traitement dans les meilleurs délais des notifications reçues devront plus généralement contribuer au respect de l’obligation de retrait en 24 heures ([50]) ;
– l’obligation d’ouvrir une voie de recours interne contre les décisions que prendra l’opérateur concernera aussi les décisions de déréférencement prises par les moteurs de recherche ([51]).
c. Les obligations d’information, de transparence et de coopération
À l’article 3 ont été regroupées les autres obligations de moyens imposées aux grandes plateformes en ligne, que la Commission a précisées ou complétées :
– l’information publique, claire et détaillée, dont le champ a été précisé et complété : les auteurs de contenus litigieux devront, comme les victimes, être informés des voies de recours interne et judiciaire dont ils disposent, cette information devant porter également sur les délais impartis pour former ces recours, les risques encourus en cas de notification abusive ou de publication de contenus haineux ainsi que sur les règles de modération ([52]) ;
– la transparence des moyens consacrés à la lutte contre la haine en ligne, qui devra permettre de connaître l’organisation interne adoptée et les actions entreprises pour mettre en œuvre l’obligation de retrait ([53]) ;
– la sensibilisation spécifique des mineurs et de leurs parents à l’utilisation d’internet et aux risques encourus en cas de publication de contenus haineux, nouvelle obligation ajoutée par la Commission ([54]) ;
– l’information prompte des autorités publiques sur les contenus haineux notifiés, nouvelle obligation également créée par la Commission ([55]) ;
– et la désignation d’un représentant légal, interlocuteur référent sur le territoire français, dont les missions consisteront à mettre en œuvre ces obligations et à répondre aux demandes de l’autorité judiciaire ([56]).
B. LA CLARIFICATION DU RÔLE DE SUPERVISION DU CONSEIL SUPÉRIEUR DE L’AUDIOVISUEL
Tirant les conséquences de la nouvelle architecture des obligations imposées aux grandes plateformes en ligne, la Commission a clarifié, à l’article 4, le rôle dévolu au CSA dans le suivi de ces obligations.
Le CSA sera chargé de veiller au respect du devoir de coopération des opérateurs, en leur adressant, en plus des recommandations prévues par la proposition de loi initiale, des bonnes pratiques et des lignes directrices en vue de l’application de l’obligation de retrait et des obligations de moyens.
En cas de non-respect par un opérateur du devoir de coopération, le CSA pourra engager une procédure de sanction.
Suivant votre rapporteure, la Commission a apporté des précisions importantes sur la caractérisation du manquement au devoir de coopération. Pour ce faire, le CSA devra se fonder :
– d’une part, sur la façon dont l’opérateur exécute ses obligations de moyens ;
– d’autre part, sur la manière dont il se conforme aux recommandations que le Conseil émet pour le respect de l’obligation de retrait et des obligations de moyens : à cette occasion, le Conseil appréciera « le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait ».
Enfin, la Commission a davantage encadré le prononcé d’une sanction :
– en la conditionnant à une mise en demeure préalable ;
– en prévoyant que son montant devra prendre en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré, sans pouvoir excéder 4 % du chiffre d’affaires annuel mondial de l’opérateur ;
– en autorisant la publication des mises en demeure et sanctions.
C. LA SÉCURISATION DE LA PROCÉDURE DE LUTTE CONTRE LA DUPLICATION DES CONTENUS JUGÉS HAINEUX
À l’article 6, la Commission a renforcé les garanties applicables à la procédure de blocage ou de déréférencement de « sites miroirs ».
D’une part, elle a limité son champ d’application aux seuls contenus haineux visés par la proposition de loi.
D’autre part, elle a replacé l’autorité judiciaire dans cette procédure :
– le juge judiciaire pourra, au moment de juger illicite un site haineux, interdire la reprise totale ou partielle des contenus de ce site ;
– sur la base de cette décision judiciaire, l’autorité administrative pourra demander aux fournisseurs d’accès à internet, aux fournisseurs de noms de domaine et aux moteurs de recherche le blocage ou le déréférencement de toute duplication de ces contenus, le cas échéant saisie par toute personne intéressée ;
– en cas de difficultés, l’autorité judiciaire pourra être saisie en référé ou sur requête pour ordonner le blocage ou le déréférencement du contenu litigieux.
D. L’INTRODUCTION D’UN VOLET RELATIF À LA PRÉVENTION
À l’initiative de la commission des Affaires culturelles et de l’éducation, votre Commission a complété cette proposition de loi par deux nouveaux articles renforçant les mesures de prévention et d’éducation :
– l’article 6 bis précise le contenu de la formation à l’utilisation responsable des outils et ressources numériques, afin qu’y figure la lutte contre la diffusion de la haine en ligne ;
– l’article 6 ter renforce la formation des enseignants dans ce domaine.
Ces deux dispositions s’ajoutent à l’obligation faite aux opérateurs de plateforme en ligne à fort trafic de sensibiliser les mineurs et leurs parents, lors de leur inscription, à l’utilisation responsable de leurs services et de les informer sur les risques qu’ils encourent en cas de diffusion de contenus haineux (article 3).
— 1 —
Chapitre Ier (nouveau)
Obligation renforcée de retrait des contenus haineux en ligne
Article 1er
(art.6 et 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique
Obligation de retrait en vingt-quatre heures
des contenus manifestement haineux en ligne
Adopté par la Commission avec modifications
Résumé du dispositif initial et effets principaux
Afin d’améliorer la régulation des contenus haineux en ligne, le présent article impose aux opérateurs de plateforme en ligne à fort trafic, sous peine de sanction par le Conseil supérieur de l’audiovisuel (CSA), de retirer dans un délai de 24 heures tout contenu comportant manifestement une incitation à la haine ou une injure discriminatoire à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap. Il aménage des voies de recours contre les décisions de retrait ou de non‑retrait du contenu prises par ces opérateurs.
Dernières modifications législatives intervenues
Instauré par la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), le devoir de coopération des intermédiaires techniques dans la lutte contre certains contenus odieux a été élargi, par la loi du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes, à la lutte contre le harcèlement sexuel.
Modifications apportées par la Commission
La Commission a procédé à plusieurs modifications :
– elle a étendu le champ d’application de l’obligation de retrait aux mêmes contenus que ceux pour lesquels les intermédiaires techniques sont déjà soumis à un devoir de coopération (provocation et apologie du terrorisme, harcèlement sexuel, traite des êtres humains, pédopornographie, proxénétisme…) ;
– elle a élargi le cercle des opérateurs concernés par cette obligation aux moteurs de recherche ;
– elle a rendu le juge pénal seul compétent pour sanctionner le non‑respect de cette obligation, en lieu et place du CSA.
A. Le rÔle des INTERMÉDIAIRES TECHNIQUES dans la lutte contre la haine sur internet
La régulation des acteurs intervenant dans la mise à disposition de contenus sur internet est marquée par un certain libéralisme, qui la distingue du régime de la communication audiovisuelle, soumise à autorisation préalable et dont les fournisseurs de contenus doivent respecter certaines obligations.
Elle est régie, pour l’essentiel, par la loi du 21 juin 2004 pour la confiance dans l’économie numérique. Transposant la directive du 8 juin 2000 sur le commerce électronique, dite « e‑commerce », cette loi a posé le principe d’une irresponsabilité relative des acteurs exerçant une activité d’intermédiaire dans la mise à disposition de contenus en ligne, en contrepartie d’une obligation de collaboration dans la lutte contre les contenus illicites.
1. La définition des catégories d’acteurs
Parmi les acteurs concernés par cette régulation, l’article 6 de la loi du 21 juin 2004 distingue principalement deux catégories, à côté des éditeurs de services sur internet, responsables des contenus qu’ils mettent en ligne et soumis à un régime de responsabilité très proche de celui de la presse ([57]) (III à V).
a. Les fournisseurs d’accès à internet
Il s’agit, d’une part, des transporteurs d’informations ([58]), parmi lesquels figurent les fournisseurs d’accès à internet (FAI).
Ces acteurs sont en principe irresponsables des dommages causés par le contenu de ces informations aussi longtemps qu’ils restent neutres à leur égard.
b. Les hébergeurs
Il s’agit, d’autre part, des hébergeurs, intermédiaires techniques définis comme « les personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, d’écrits, d’images, de sons ou de messages de toute nature fournis par des destinataires de ces services ».
Ces acteurs bénéficient d’un régime de responsabilité limitée, en raison de leur rôle relativement passif dans la mise à disposition de contenus (2 et 3 du I).
c. Les opérateurs de plateforme en ligne
À ces catégories s’est superposée, en 2016 ([59]), celle, plus générale et susceptible de recouvrir la qualité d’hébergeur ou d’éditeur, d’« opérateur de plateforme en ligne », destinée à dépasser la distinction, devenue quelque peu binaire, entre prestataires techniques et éditeurs de contenus.
L’article L. 111‑7 du code de la consommation définit cet opérateur comme « toute personne (…) proposant, à titre professionnel, de manière rémunérée ou non, un service de communication au public en ligne reposant sur (…) le classement ou le référencement, au moyen d’algorithmes informatiques, de contenus, de biens ou de services proposés ou mis en ligne par des tiers (…) ou la mise en relation de plusieurs parties en vue de la vente d’un bien, de la fourniture d’un service ou de l’échange ou du partage d’un contenu, d’un bien ou d’un service ».
En pratique, la qualité de FAI est aisée à définir et recouvre des acteurs clairement identifiés, tels qu’Orange, Numericable-SFR, Free ou Bouygues Télécom à titre principal en France.
Celle d’hébergeur est davantage sujette à débat et exige de s’intéresser à la manière dont l’activité d’hébergement est exercée par le prestataire, en particulier, selon la Cour de justice de l’Union européenne, au « rôle actif de nature à lui confier une connaissance ou un contrôle des données stockées » ([60]).
Ainsi, selon son rôle à l’égard des contenus stockés, la plateforme de partage de vidéos (Youtube, Dailymotion…), le réseau social (Facebook, Twitter, LinkedIn, Viadeo…), le forum de discussion, la plateforme de mise en relation (eBay, PriceMinister…), le site de streaming, le comparateur de prix (Shopping.com…) ou le moteur de recherche (Google, Qwant…) seront reconnus tantôt comme des hébergeurs, tantôt comme des éditeurs de contenus.
— 1 —
L’INTERPRÉTATION JURISPRUDENTIELLE DE L’ACTIVITÉ D’HÉBERGEMENT
NOM DE L’ENTREPRISE |
ACTIVITÉ DE L’ENTREPRISE |
QUALITÉ D’HÉBERGEUR |
DÉCISION DE JUSTICE |
Sites alimentés par les internautes |
|||
DAILYMOTION |
Plateforme de stockage et d’échange de vidéos |
Hébergeur |
Cass. Civ. 1ère, 17 février 2011, n° 09-67.896 |
FUZZ |
Site d’actualités nourri par les internautes partageant leurs liens hypertextes favoris |
Hébergeur |
Cass. Civ. 1ère, 17 février 2011, n° 09-13.202 |
|
Réseau social |
Hébergeur |
TGI de Paris, 13 avril 2010, n° 10/53340 |
LESARNAQUES.COM (*) |
Forum de discussion sur lequel les internautes échangeaient des informations |
Hébergeur |
TGI de Paris, 22 novembre 2010, n° 10/17057 |
EBAY |
Place de marché en ligne |
Hébergeur pour les activités de stockage des offres sur un serveur, de fixation des modalités du service rémunéré et de renseignements d’ordre général aux clients Éditeur pour les activités d’optimisation de la présentation des offres à la vente ou de promotion de ces offres |
CJUE, 12 juillet 2011, n° C-324/09 Cass. Com., 3 mai 2012, n° 11‑10.508 |
VIAGOGO |
Site de revente en ligne de billets par les internautes |
Hébergeur |
TGI de Paris, 27 février 2012, n° 12/51314 |
WIKIPEDIA |
Site de création et de modification collaboratives de pages web |
Hébergeur |
TGI de Paris, 29 octobre 2007, n° 07/58288 |
AGORAVOX |
Site d’opinion sur l’actualité alimenté par des internautes volontaires et non professionnels |
Éditeur (opérations de sélection des articles après un examen détaillé de leur contenu, dans le respect d’une politique éditoriale) |
TGI de Paris, 12 octobre 2012, n° 11/09814 |
PAPERBLOG |
Agrégateur de blogs |
Hébergeur |
CA de Paris, 8 novembre 2013, |
RADIOBLOG (**) |
Site proposant des liens vers des enregistrements musicaux alimentés par les internautes pour une écoute gratuite en streaming |
Éditeur (capacité d’action du site sur les contenus accessibles, allant au-delà de la simple structuration ou classification des liens) |
Cass. crim., 25 septembre 2012, n° 11-84224 |
ROJADIRECTA |
Site de visionnage de compétitions sportives en simultané et streaming |
Éditeur (sélection, selon un choix éditorial, des compétitions mises en ligne, dans des domaines ciblés mis à jour en permanence) |
Cass. Civ. 2ème, 6 décembre 2018, n° 17-20.146 |
NOM DE L’ENTREPRISE |
ACTIVITÉ DE L’ENTREPRISE |
QUALITÉ D’HÉBERGEUR |
DÉCISION DE JUSTICE |
Sites non alimentés par les internautes |
|||
SOTIRIS |
Site d’information en ligne reproduisant la version papier d’un journal |
Éditeur (même si le site est l’exacte réplique du journal papier, son éditeur a connaissance des informations publiées et exerce un contrôle dessus) |
CJUE, 11 septembre 2014, n° C-291/13 |
SHOPPING.COM |
Comparateur de produits en ligne |
Éditeur (contrôle du caractère purement déclaratif des annonces et tri dans le contenu fourni par les annonceurs) |
TGI de Paris, 15 décembre 2011 |
|
Moteur d’indexation de ressources et de recherche à partir de mots clés |
Hébergeur |
Cass. Civ. 1ère, 12 juillet 2012, nos 11-15.165 et 11‑15.188 |
GOOGLE ADWORDS |
Affichage d’annonces publicitaires en réponse à une recherche |
Hébergeur (rôle de classement des annonces ; absence de contrôle sur le choix des mots clés qui est le fait des annonceurs) |
CJUE, 23 mars 2010, nos C-236/08 à C-238/08 Cass. Comm., 13 juillet 2010, nos 05-14.331, 06‑15.136, 06‑20.230 et 08‑13.944 |
(*) Ce site a depuis été rebaptisé Net-Litiges.com.
(**) Ce site a depuis été fermé.
Source : L. Marino, « Responsabilités civile et pénale des fournisseurs d’accès et d’hébergement », JurisClasseur Communication, fasc. 670, août 2015 (mis à jour en décembre 2017).
— 1 —
2. Le régime de responsabilité
a. L’irresponsabilité de principe des intermédiaires techniques
Conformément aux règles du code des postes et des communications électroniques auxquelles ils sont soumis, les prestataires techniques intermédiaires sont, en principe, exonérés de toute responsabilité civile ou pénale.
S’agissant des opérateurs chargés du simple transport des informations sur le réseau ou de la fourniture d’accès à ce réseau, ils doivent ne pas avoir été à l’origine de la transmission, ne pas en avoir sélectionné le destinataire ni sélectionné ou modifié les informations transmises (article L. 32-3-3).
Les opérateurs chargés du stockage automatique, intermédiaire et transitoire des informations transmises visant exclusivement à accélérer leur transmission ultérieure à un autre destinataire ne sont pas responsables sauf s’ils sont intervenus dessus ou n’ont pas agi promptement pour empêcher l’accès à des contenus litigieux ([61]) (article L. 32-3-4).
b. La responsabilité allégée des hébergeurs
Pour leur part, les hébergeurs ne peuvent voir leur responsabilité civile ou pénale engagée :
– s’ils n’avaient pas effectivement connaissance du contenu illicite stocké ;
– si, après avoir été informés du caractère illicite d’un contenu stocké, par un dispositif de notification devant respecter un certain formalisme, ils n’ont pas agi promptement pour le retirer ou en empêcher l’accès (2 et 3 du I de l’article 6 précité).
Compte tenu de la difficile caractérisation d’un contenu illicite et du caractère par nature délicat d’un tel exercice, l’hébergeur ne peut voir sa responsabilité engagée que s’il n’a pas procédé au retrait d’un contenu « manifestement » illicite qui lui a été notifié ou à un retrait ordonné par un juge, comme le Conseil constitutionnel ([62]) ou la Cour européenne des droits de l’homme ([63]) l’ont affirmé.
Le groupe de travail interministériel sur la lutte contre la cybercriminalité considérait, en 2014, que « ce dispositif s’avère, en l’état, peu efficace s’agissant des personnes privées » et ne constitue qu’« une simple obligation de moyens, dans la mesure où l’hébergeur peut s’exonérer de toute responsabilité s’il justifie que l’auteur ou l’éditeur de la page concernée a été invité à retirer ou à modérer le contenu faisant grief » ([64]).
3. Les obligations
En contrepartie de l’irresponsabilité relative dont ils bénéficient, FAI et hébergeurs sont soumis, en vertu du 7 du I du même article 6, à certaines obligations en matière de régulation des contenus illégaux.
a. L’absence d’obligation générale de surveillance
Ils ne sont pas soumis à une obligation générale de surveillance des informations qu’ils transmettent ou stockent ou de recherche des faits ou des circonstances révélant des activités illicites, « sans préjudice de toute activité de surveillance ciblée et temporaire demandée par l’autorité judiciaire ».
L’absence d’obligation générale de surveillance ou de filtrage a priori des informations stockées ou transmises par les FAI et les hébergeurs a été confirmée par la Cour de justice de l’Union européenne ([65]). La Cour de cassation a déduit de cette règle qu’un hébergeur ne pouvait être enjoint de bloquer la réapparition d’un contenu retiré une première fois en raison de son caractère illicite, sauf à le soumettre à une obligation générale de surveillance sous la forme d’un système de filtrage et de blocage permanent ([66]).
En revanche, FAI et hébergeurs sont tenus de détenir et conserver les données d’identification de l’auteur d’un contenu et de répondre aux réquisitions de l’autorité judiciaire aux fins de communication de ces données ([67]).
b. Des obligations particulières de surveillance de certains contenus
Toutefois, les FAI et les hébergeurs doivent concourir à la lutte contre la diffusion de certains contenus ou activités illicites, par la mise en place d’« un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données », en informant « promptement » les autorités publiques compétentes en cas de signalement et en rendant publics les moyens qu’ils consacrent à cette lutte.
Ces obligations s’appliquent à des domaines dont le champ n’a cessé de croître au fil des années pour concerner aujourd’hui, notamment, la lutte contre l’apologie des crimes contre l’humanité, contre la provocation à la commission d’actes de terrorisme et leur apologie, contre l’incitation à la haine raciale, à la haine à l’égard de personnes à raison de leur sexe, de leur orientation sexuelle ou identité sexuelle ou de leur handicap, à la pornographie enfantine ainsi qu’à la violence et contre les atteintes à la dignité humaine.
infractions concernÉes par l’obligation d’un dispositif de signalement
Fondement textuel |
Description de l’infraction |
Cinquième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Apologie des crimes d’atteinte volontaire à la vie, d’atteinte volontaire à l’intégrité de la personne, d’agression sexuelle, de vol aggravé, d’extorsion, de destruction, de dégradation ou détérioration volontaire dangereuse pour les personnes, des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou des crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs |
Septième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Provocation à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non-appartenance à une ethnie, une nation, une race ou une religion |
Huitième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse |
Provocation à la haine ou à la violence à l’égard d’une personne ou d’un groupe de personnes à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap ou ayant provoqué, à l’égard des mêmes personnes, aux discriminations prévues par les articles 225-2 et 432-7 du code pénal. |
Article 222-33 du code pénal |
Harcèlement sexuel |
Article 225-4-1 du code pénal |
Traite des êtres humains |
Articles 225-5 et 225-6 du code pénal |
Proxénétisme |
Article 227-23 du code pénal |
Captation, enregistrement, transmission, offre, mise à disposition, diffusion, importation ou exportation, acquisition ou détention d’image pornographique d’un mineur Consultation habituelle ou en contrepartie d’un paiement d’un service de communication au public en ligne mettant à disposition des images pornographiques de mineurs |
Article 227-24 du code pénal |
Fabrication, transport, diffusion ou commerce de message violent ou pornographique susceptible d’être vu ou perçu par un mineur |
Article 421-2-5 du code pénal |
Provocation directe à des actes de terrorisme ou apologie publique de ces actes |
Il existe également des dispositions propres à la lutte contre les activités illégales de jeux d’argent et d’achat de tabac en ligne ([68]).
Les opérateurs de plateforme en ligne ne sont pas soumis, en matière de lutte contre les contenus illicites, à des obligations spécifiques autres que celles prévues pour les hébergeurs.
B. Le dispositif proposÉ
Le présent article vise à renforcer les obligations des acteurs numériques en matière de lutte contre les contenus haineux en ligne en précisant l’obligation de retrait des contenus manifestement illicites à laquelle ils sont d’ores et déjà soumis.
1. Une obligation de retrait en 24 heures pour les opérateurs de plateforme à fort trafic
Le paragraphe I vient clarifier, pour une catégorie de contenus illicites et d’opérateurs, les dispositions du 2 du I de l’article 6 précité en matière de traitement des contenus illicites.
Il fait obligation aux opérateurs de plateforme en ligne « proposant un service de communication au public en ligne reposant sur la mise en relation de plusieurs parties en vue du partage de contenus publics, dont l’activité dépasse un seuil, déterminé par décret, de nombre de connexions sur le territoire français » de retirer ou rendre inaccessible, dans un délai de 24 heures, « tout contenu contrevenant manifestement » :
– au cinquième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse, qui réprime l’apologie de certains crimes (atteinte volontaire à la vie ou à l’intégrité de la personne, agression sexuelle, vol aggravé, extorsion, destruction, dégradation ou détérioration volontaire dangereuse pour les personnes, crimes de guerre, crimes contre l’humanité, crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage, ou crimes et délits de collaboration avec l’ennemi, y compris si ces crimes n’ont pas donné lieu à la condamnation de leurs auteurs) ;
– au sixième alinéa du même article, qui sanctionne les cris et chants séditieux proférés dans les lieux ou réunions publics ;
– aux troisième et quatrième alinéas de l’article 33 de la même loi, qui répriment l’injure publique commise envers une personne ou un groupe de personnes à raison de leur origine ou de leur appartenance ou de leur non‑appartenance à une ethnie, une nation, une race ou une religion déterminée ou à raison de leur sexe, de leur orientation sexuelle ou identité de genre ou de leur handicap.
L’intention des auteurs de la proposition de loi est toutefois de viser non pas les cris et chants séditieux mais la provocation à la discrimination, à la haine ou à la violence à raison de l’ethnie, de la nation, de la race, de la religion, du sexe, de l’orientation sexuelle, de l’identité de genre ou du handicap, réprimée par les septième et huitième alinéas de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse.
Cette disposition est la traduction de la recommandation n° 1 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.
2. Un pouvoir de sanction du Conseil supérieur de l’audiovisuel
Le II rend le Conseil supérieur de l’audiovisuel (CSA) compétent pour connaître des manquements à cette obligation.
En cas de méconnaissance par l’opérateur de l’obligation de prompt retrait du contenu manifestement illicite, le CSA pourrait prononcer une sanction pécuniaire « dont le montant peut prendre en considération la gravité des manquements commis et leur caractère réitéré », sans pouvoir excéder 4 % de son chiffre d’affaires annuel mondial.
La sanction ne pourrait intervenir qu’après mise en demeure de l’opérateur et la mise en œuvre des garanties prévues, à l’article 42-7 de la loi du 30 septembre 1986 relative à la liberté de communication, pour les autres sanctions susceptibles d’être prononcées par le CSA.
Les garanties applicables au prononcé de sanctions par le CSA
– l’engagement des poursuites et l’instruction préalable au prononcé de la sanction seraient confiés à un rapporteur indépendant nommé par le vice-président du Conseil d’État après avis du CSA ;
– le rapporteur indépendant pourrait se saisir de tout fait susceptible de justifier l’engagement d’une procédure de sanction et déciderait si les faits dont il a connaissance justifient l’engagement d’une procédure de sanction ;
– s’il estime que les faits justifient l’engagement d’une telle procédure, le rapporteur indépendant notifierait les griefs aux personnes mises en cause, qui pourraient consulter le dossier et présenter leurs observations dans un délai d’un mois ou de sept jours en cas d’urgence ;
– durant l’instruction, le rapporteur indépendant pourrait procéder à toutes les auditions et consultations nécessaires et, au terme de celles-ci, communiquerait son rapport à la personne mise en cause et au CSA ;
– sauf si elle est nécessaire à l’exercice des droits de la défense de la personne mise en cause, le rapporteur indépendant pourrait lui refuser la communication ou la consultation de pièces ou de certains éléments contenus dans ces pièces mettant en jeu le secret des affaires d’autres personnes, auquel cas une version non confidentielle et un résumé des pièces ou éléments en cause lui seraient accessibles ;
– le rapporteur indépendant exposerait devant le CSA, en présence de la personne mise en cause, son opinion sur les faits dont il aurait connaissance et les griefs notifiés et pourrait proposer d’adopter une sanction : au cours de cette séance, la personne mise en cause, qui pourrait se faire assister par toute personne de son choix, serait entendue par le CSA, qui pourrait également entendre, en présence de la personne mise en cause, toute personne dont l’audition lui paraîtrait utile ;
– la décision du CSA, prise hors la présence du rapporteur indépendant, serait motivée et notifiée aux personnes concernées.
La compétence ainsi conférée au CSA reprend en partie la recommandation n° 6 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.
3. La contestation des décisions des opérateurs de plateforme en ligne à fort trafic
Le III oblige les opérateurs de plateforme en ligne à fort trafic à mettre en œuvre une procédure permettant de contester les décisions prises en matière de retrait ou d’inaccessibilité d’un contenu haineux manifestement illicite :
– au bénéfice de la personne à l’origine de la publication du contenu litigieux en cas de décision de retrait ;
– au profit de l’auteur de la notification en cas de non-retrait du contenu.
Cette disposition reprend partiellement la recommandation n° 9 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme. Elle n’est pas de nature à déstabiliser les acteurs numériques concernés dans la mesure où, lors de la table ronde consacrée aux principales plateformes en ligne, Facebook a par exemple indiqué à votre rapporteure développer un mécanisme d’appel des décisions de retrait ou de non-retrait de contenus que cette entreprise est amenée à prendre, en réfléchissant à la mise en place d’un comité d’experts indépendants.
C. L’avis du conseil d’État
Le Conseil d’État a formulé plusieurs observations sur l’article 1er, dont la principale porte sur le champ d’application – organique, territorial et matériel – de ses dispositions qui sous-tendent le reste de la réforme proposée.
1. Les acteurs numériques visés
Le Conseil d’État a recommandé de modifier le champ des opérateurs concernés par l’obligation de rendre les contenus manifestement haineux inaccessibles dans un délai de 24 heures suivant leur notification.
Pour se conformer au principe constitutionnel d’égalité et au principe conventionnel de non-discrimination, il a suggéré de viser l’ensemble des « opérateurs (…) à raison de leur interaction active avec les contenus, dont ils favorisent la diffusion accélérée » ([69]) en ajoutant les moteurs de recherche aux opérateurs mentionnés par la proposition de loi initiale.
En outre, la proposition de loi ayant vocation à s’appliquer à l’ensemble des opérateurs de plateforme enregistrant un seuil minimal de connexions mensuelles sur le territoire français, quel que soit leur pays d’établissement, la question de sa conformité au droit européen, au regard du principe fondamental de libre prestation de services et de la « clause du marché intérieur » posée par la directive « e‑commerce », se posait. Après avoir examiné cette question, le Conseil d’État a admis la possibilité pour un État membre de soumettre à des règles particulières les services de la société de l’information en provenance d’un prestataire établi dans un autre État membre (principe du pays d’origine ([70])).
Les conséquences du principe fondamental de libre prestation de services sur la compétence de la France en matière de régulation des contenus en ligne
D’après le Conseil d’État, plusieurs voies permettraient à la France de déroger aux règles applicables en matière de libre prestation de services dans la société de l’information mais peu seraient susceptibles d’être exploitées par la proposition de loi.
Les dérogations à la « clause de marché intérieur » en vertu de la directive « e‑commerce »
La « clause de marché intérieur », fixée par l’article 3 de la directive « e-commerce », prévoit que « chaque État membre veille à ce que les services de la société de l’information fournis par un prestataire établi sur son territoire respectent les dispositions nationales applicables dans cet État membre » et interdit aux États membres de « restreindre la libre circulation des services de la société de l’information en provenance d’un autre État membre ».
Cette clause n’est donc pas sans incidence sur la faculté de la France de renforcer la réglementation pénale et d’instaurer une régulation administrative à l’égard des opérateurs de plateforme en ligne établis dans les autres États membres.
L’article 3 de la directive « e-commerce » prévoit deux dérogations à cette règle :
– la directive ne s’applique pas dans certains « domaines » (droit de la propriété intellectuelle, liberté des parties de choisir le droit applicable à leur contrat, obligations contractuelles concernant les contrats conclus par les consommateurs…) qui ne sont cependant pas concernés par la proposition de loi ;
– l’Etat dit « d’accueil » peut prendre certaines mesures sous réserve de poursuivre, de manière proportionnée, certains buts d’ordre public, dont la lutte contre les incitations à la haine pour des raisons de race, de sexe, de religion ou de nationalité ou contre les atteintes à la dignité humaine, et à condition, sauf urgence, d’avoir d’abord sollicité l’Etat d’origine et d’en avoir notifié la Commission qui examinera la compatibilité de ces mesures au droit communautaire, ce qui n’est pas le mécanisme envisagé par la proposition de loi.
L’invocation d’un motif d’ordre public en vertu du Traité sur le fonctionnement de l’Union européenne
L’article 52 du Traité sur le fonctionnement de l’Union européenne permet aux États membres d’adopter des dispositions législatives, réglementaires et administratives prévoyant un régime spécial pour les ressortissants étrangers, par dérogation à la liberté d’établissement, à condition qu’elles soient « justifiées par des raisons d’ordre public, de sécurité publique et de santé publique ».
Pour le Conseil d’État, les motifs de cette dérogation à un principe fondamental du traité sont d’interprétation restrictive (CJCE, 13 décembre 2007, Commission c. Italie, n° C-465/05), y compris en ce qui concerne l’ordre public, « de sorte que sa portée ne saurait être déterminée unilatéralement par chacun des États membres sans contrôle des institutions de la communauté » (CJCE, 4 décembre 1974, Van Duyn, n° 41/74). En particulier, l’exigence d’ordre public suppose « l’existence, en dehors du trouble pour l’ordre social que constitue toute infraction à la loi, d’une menace réelle et suffisamment grave, affectant un intérêt fondamental de la société » (CJCE, 27 octobre 1977, Bouchereau, n° 30/77 et 27 avril 2006, Commission c. Allemagne, n° C-441/02). Par ailleurs, faire référence à l’ordre public serait contraire aux dérogations spécifiquement prévues à cet effet par l’article 3 de la directive « e‑commerce ».
Les dérogations admises par la jurisprudence européenne
Les raisons impérieuses d’intérêt général
Dès 1979, la Cour de justice des Communautés européennes a admis que des raisons impérieuses d’intérêt général justifient, de façon autonome, des restrictions aux libertés garanties par les traités dès lors que les directives applicables en la matière ne sont pas d’harmonisation exhaustive (CJCE, 20 février 1979, Rewe-Zentral AG c. Bundesmonopolverwaltung für Branntwein, n° 120/78 : arrêt dit Cassis de Dijon).
Le Conseil d’État a considéré, dans son avis portant sur les lois relatives à la manipulation de l’information, que tel n’était pas le cas de la directive « e-commerce » (avis nos 394641-394642 du 19 avril 2018). De plus, les dispositions de la directive 2010/13/UE du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels, telle que modifiée par la directive 2018/1808/UE du 14 novembre 2018, dite directive « SMA », portant sur les plateformes de partage de vidéo, laissent suffisamment de marge de manœuvre aux États membres pour ne pas être regardées d’harmonisation exhaustive.
Toutefois, le juge européen exige que ces motifs ne soient pas déjà sauvegardés par les règles imposées aux prestataires dans leur État d’origine (CJCE, 21 mars 2002, Cura Anlagen, n° C-451/99). Or il paraît difficile, en l’espèce, d’affirmer qu’il n’existe pas de consensus européen sur la nécessité de lutter contre la diffusion des contenus haineux en ligne, les directives « e-commerce » et « SMA » comportant des obligations minimales dans ce domaine.
L’intérêt légitime tenant à la protection des droits fondamentaux
En 2004, la Cour de justice de l’Union européenne (CJUE) a admis que l’intérêt légitime tenant à la protection des droits fondamentaux, en l’occurrence la dignité humaine, justifie des atteintes aux libertés prévues par les traités, en l’espèce la libre prestation de services (CJCE, 14 octobre 2004, Omega Spielhallen und Automatenaufstellungs-GmbH c. Oberbürgermeisterin der Bundesstadt Bonn, n° C‑36/02) :
– à condition que les mesures prises soient propres à garantir la réalisation des objectifs qu’elles poursuivent ;
– sous réserve que ces mesures soient nécessaires pour la protection des intérêts qu’elles visent à garantir ;
– dans la mesure où ces objectifs ne peuvent être atteints par des mesures moins restrictives.
Lors du contrôle qu’elle opère de ces mesures, la CJUE tient en particulier compte des principes de valeur constitutionnelle des États membres pertinents (CJUE, 14 octobre 2004, Omega précité ; 22 octobre 2010, Sayn Wittgenstein, n° C-208/09) et regarde si les droits fondamentaux en question sont également protégés par la Charte des droits fondamentaux de l’Union européenne. Elle considère que la nécessité et la proportionnalité des dispositions prises doivent être appréciées « au regard de l’objectif en cause et du niveau de protection que l’État membre concerné entend assurer » (CJUE, 14 février 2008, Dynamic Medien, n° C-244/08), l’appréciation de la proportionnalité revenant principalement aux juridictions nationales.
Au terme de l’examen des différentes dérogations susceptibles d’être apportées, par le législateur national, au principe de libre prestation de services, le Conseil d’État a considéré possible de se rattacher à l’exception générale de protection des droits fondamentaux. En effet, « le déferlement de contenus particulièrement odieux par le biais de plateformes en ligne mondialisées et ses conséquences graves, autant pour la vie démocratique que par ses impacts sur les comportements ou la vie des utilisateurs, constituent une atteinte à la dignité humaine protégée par l’article premier de la Charte des droits fondamentaux ainsi qu’une méconnaissance du principe de non-discrimination protégé par l’article 21 de cette Charte » ([71]). Il a rappelé qu’une telle exception pouvait se fonder sur le principe de sauvegarde de la dignité de la personne humaine, protégé par le préambule de la Constitution de 1946 et d’une certaine façon inhérent à notre identité constitutionnelle. Il a estimé satisfaites les autres conditions posées par le juge européen pour admettre une telle dérogation (caractère non exhaustif de l’harmonisation des législations prévues par les directives, mesures propres à garantir la réalisation des objectifs poursuivis et nécessaires à la protection des intérêts visés, absence d’autres mesures moins restrictives permettant d’atteindre ces objectifs).
2. Les contenus concernés par l’obligation de retrait
Dans le prolongement de ses observations sur la conformité de la proposition de loi au droit européen, le Conseil d’État a invité le législateur à rattacher la liste des contenus visés à ceux mentionnés au 7 du I de l’article 6 de la loi pour la confiance dans l’économie numérique, à l’égard desquels les prestataires techniques ont des obligations spécifiques. Ces contenus se rattachent en effet à des infractions relevant des atteintes aux droits fondamentaux des personnes, en particulier à la dignité humaine, dont la préservation justifie des dérogations nationales au principe de libre prestation de services.
Sur la forme, il a suggéré d’intégrer l’obligation de retrait de propos manifestement haineux à cette loi, par souci de clarté, de lisibilité et de cohérence d’ensemble du dispositif.
3. L’articulation de la répression judiciaire et de la régulation administrative
Alors que la rédaction de l’article 1er pouvait laisser entendre que l’obligation de retrait renforcée serait sanctionnée par le CSA, le Conseil d’État a rappelé la jurisprudence constitutionnelle applicable en matière de protection de la liberté d’expression. « Le retrait de contenu ne peut (…) généralement être opéré que par le juge judiciaire ou à tout le moins sous son contrôle : c’est l’équilibre traditionnel que valide le Conseil constitutionnel, qui n’a accepté des injonctions administratives que lorsqu’elles portent sur un bocage d’adresses Internet pour des sujets en relation avec des crimes graves (pédopornographie et terrorisme), et sont prononcées sous le contrôle étroit du juge » ([72]).
Il a en conséquence invité votre rapporteure à améliorer l’articulation entre la répression judiciaire et la régulation administrative :
– par la création d’un délit autonome de refus de retrait des contenus manifestement illicites au regard de leur caractère haineux dans les 24 heures, qui ne viendrait que donner une portée effective aux dispositions de la directive « e-commerce » sur la régulation des contenus illicites ;
– par la clarification du champ de la régulation administrative en définissant précisément la liste des obligations administratives pesant sur les opérateurs visés par la proposition de loi et susceptibles de faire l’objet d’une sanction : le Conseil d’État observe à cet égard que si le pouvoir de sanction du CSA « devra cibler (…) l’attitude systémique non coopérative de l’opérateur, après prise en compte des moyens qu’il met en œuvre pour prévenir la diffusion des contenus odieux manifestement illicites et la faire cesser », « dans cette appréciation qui sera soumise au contrôle du juge, il appartiendra au CSA de tenir également compte de comportements répétés de refus de retrait ou de retraits timorés, pusillanimes, ou au contraire excessifs » ([73]) .
Pour le reste, le Conseil d’État a estimé bienvenue l’obligation faite aux opérateurs visés de prévoir un dispositif de recours interne permettant de contester un refus de retrait ou un retrait. Toutefois, il a jugé utile de préciser explicitement que l’auteur du contenu litigieux soit systématiquement informé de la notification de son contenu et que l’opérateur de plateforme en ligne s’explique « sur les motifs de sa décision, quel qu’en soit le sens, dans les sept jours qui suivent l’expiration du délai de 24 heures, et [fasse] explicitement mention de l’existence de voies de recours, internes et contentieuses, contre ces décisions, y compris au bénéfice de l’auteur dont le contenu serait supprimé » ([74]).
Il a également validé le niveau des sanctions susceptibles d’être prononcées par le régulateur, une amende pouvant aller jusqu’à 4 % du chiffre d’affaires annuel mondial de l’opérateur, à condition de « préciser explicitement que son montant tiendra compte de la gravité des manquements commis et de leur éventuelle réitération » ([75]) et d’organiser plus précisément les modalités d’action du CSA (modalités de saisine, portée de la mise en demeure préalable).
D. la position de la commission
Pour la cohérence et l’efficacité d’ensemble du dispositif, la Commission a adopté un amendement de votre rapporteure inscrivant l’obligation de retrait en 24 heures des contenus manifestement haineux au sein d’un nouvel article 6-2 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, qui comporte déjà des dispositions relatives à la lutte contre les contenus illégaux en ligne.
Cet article ayant vocation à ne traiter que de l’obligation de retrait, elle a adopté un autre amendement de votre rapporteure supprimant les dispositions relatives aux voies de recours interne contre les décisions prises par les opérateurs, qui sont transférées à l’article 2.
La Commission a également procédé à trois modifications de fond.
1. L’ajout des moteurs de recherche dans la liste des opérateurs concernés
Sur proposition de votre rapporteure, la Commission a ajouté à la liste des opérateurs concernés par l’obligation de retrait les moteurs de recherche pour que soient visés tous les opérateurs de plateforme en ligne à fort trafic jouant un rôle particulier dans la diffusion et la propagation des contenus publics partagés, conformément à une recommandation du Conseil d’État.
La Commission a également suivi la proposition de votre rapporteure consistant à confier au pouvoir réglementaire le soin de définir le champ précis des opérateurs visés, à partir d’un seuil d’activité sur le territoire français, afin que puisse être notamment réglé le cas particulier des plateformes hébergeant des échanges de contenus publics et privés ou celui des plateformes hébergeant un forum de discussion en marge d’une activité principale différente.
2. L’élargissement du champ des contenus illicites visés
La Commission, à l’initiative de votre rapporteure, a suivi la proposition du Conseil d’État de fonder l’obligation de retrait renforcée sur le champ des contenus déjà visés au 7 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique relatif au devoir de coopération des acteurs numériques en matière de lutte contre certains contenus illégaux.
Seront donc concernés, outre les injures et provocations à la discrimination, à la haine ou à la violence visées par la proposition de loi initiale, les contenus contrevenant manifestement aux infractions suivantes :
– l’apologie des crimes de guerre, contre l’humanité, de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage, des crimes et délits de collaboration avec l’ennemi, des crimes d’atteinte volontaire à la vie ou à l’intégrité physique, d’agression sexuelle, de vol aggravé, d’extorsion ou de destruction, dégradation ou détérioration volontaire dangereuse (cinquième alinéa de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse) ;
– le harcèlement sexuel (article 222-33 du code pénal) ;
– la traite des êtres humains (article 225-4-1 du même code) ;
– le proxénétisme (article 225-5 et 225-6 du même code) ;
– la pédopornographie (articles 227-23 ([76]) et 227-24 ([77]) du même code) ;
– la provocation au terrorisme ou son apologie (article 421-2-5 du même code) : après l’adoption du règlement européen en discussion sur le sujet, ces contenus devront être retirés en une heure s’ils sont notifiés par une autorité de confiance et en 24 heures dans les autres cas.
Par cohérence, la Commission a adopté, avec l’avis favorable de votre rapporteure, une série d’amendements complétant les motifs d’intérêt général justifiant l’instauration d’une obligation de retrait renforcée de ces contenus pour que soient mentionnées :
– la provocation au terrorisme ou son apologie ([78]) ;
– la lutte contre les atteintes à la dignité de la personne humaine ([79]) ;
– les incitations à la violence ou à la discrimination, en plus de celles à la haine, envers une personne ou un groupe de personnes ([80]) ;
– les discriminations à raison d’une « prétendue race », en lieu et place du mot « race » qui n’est plus utilisé dans les incriminations réprimant le racisme ([81]) ;
– en plus de celles commises à raison de la prétendue race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap, les discriminations fondées sur l’appartenance à une nation ([82]), sur l’origine ([83]) et sur l’identité de genre ([84]).
Par ailleurs, la Commission, suivant l’avis favorable de votre rapporteure, a adopté un amendement de M. Philippe Dunoyer (UDI et Indépendants) qui prévoit l’affichage d’un message informatif en remplacement du contenu retiré ou rendu inaccessible.
3. La sanction pénale du refus de procéder au retrait d’un contenu manifestement haineux en 24 heures
La Commission, adoptant un amendement dans ce sens de votre rapporteure, a remplacé les dispositions donnant compétence au CSA pour sanctionner l’éventuel non-retrait d’un contenu manifestement haineux par la création d’un délit autonome de refus de retrait d’un tel contenu, puni des mêmes peines que celles prévues par l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique (un an d’emprisonnement et 75 000 euros d’amende pour une personne physique ; 375 000 euros d’amende dans le cas d’une personne morale).
L’article 5, dont les dispositions ont été transférées par la Commission à l’article 3 bis, prévoit de porter la peine d’amende encourue par une personne physique à 250 000 euros (1,25 million d’euros pour une personne morale).
*
* *
Article 1er bis
(art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Formalisme de la notification d’un contenu manifestement haineux
Introduit par la Commission
Résumé du dispositif et effets principaux
Le présent article allège le formalisme des notifications de contenus manifestement haineux afin de faciliter les démarches des victimes de ces contenus auprès des opérateurs de plateforme en ligne à fort trafic.
––
Le présent article, qui résulte de l’adoption d’un amendement de votre rapporteure, est la reprise des dispositions figurant au I de l’article 2 de la proposition de loi initiale relatives à la simplification des conditions dans lesquelles l’opérateur est présumé avoir eu connaissance de contenus litigieux à la suite d’une notification ([85]). Le dispositif est en grande partie identique à celui envisagé par la proposition de loi initiale, sous réserve des modifications suivantes.
Sur la forme, ces dispositions ont été insérées au sein du nouvel article 6-2 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique créé par l’article 1er de la proposition de loi, à la suite de l’obligation de retrait dont elles précisent les modalités d’application. Les évolutions proposées dans l’allégement du formalisme des notifications seront ainsi limitées aux contenus haineux visés par le texte et ne concerneront pas les autres contenus illicites.
Sur le fond, trois évolutions sont notables.
Il est précisé que le délai de 24 heures laissé aux opérateurs de plateforme en ligne pour procéder au retrait d’un contenu manifestement haineux qui leur est notifié courra à compter de la réception de la notification.
Si la Commission n’est pas revenue sur le principe de l’allégement du formalisme de la notification, elle a toutefois procédé aux deux modifications suivantes :
– le notifiant devra indiquer « la catégorie à laquelle peut être rattaché le contenu litigieux » (antisémitisme, racisme, LGBTphobie…), sans renvoyer à un décret le soin de dresser une liste de catégories de contenus litigieux : un tel renvoi n’est en effet pas nécessaire et il appartiendra au Conseil supérieur de l’audiovisuel de guider les plateformes dans l’élaboration de ces catégories ;
– afin de répondre à une demande formulée par les représentants des moteurs de recherche lors de leur audition et à une recommandation du Conseil d’État, le notifiant devra, en outre, décrire les contenus dont il sollicite le retrait et les motifs pour lesquels ces contenus doivent être retirés.
*
* *
Article 1er ter
(art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Sanction des notifications abusives ou malveillantes
Introduit par la Commission
Résumé du dispositif et effets principaux
Le présent article sanctionne pénalement les notifications abusives ou malveillantes de contenus présentés comme illicites aux opérateurs de plateforme en ligne à fort trafic dans le cadre de la procédure de notification prévue par la présente proposition de loi, afin de prévenir les risques de surblocage du fait d’actes malhonnêtes.
Dernières modifications législatives intervenues
L’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique prévoit une telle sanction pour les notifications abusives opérées sur le fondement de cet article.
––
Le présent article, qui résulte de l’adoption d’un amendement de M. Buon Tan et des membres du groupe La République en marche, suivant l’avis favorable de votre rapporteure, sanctionne d’un an d’emprisonnement et de 15 000 euros d’amende la notification abusive de contenus que le notifiant sait ne pas être illicites. Par un sous-amendement, votre rapporteure a inscrit ces dispositions au sein du nouvel article 6-2 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique créé par l’article 1er de la proposition de loi.
Il s’agit de la transposition dans le champ de la proposition de loi du 4 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique réprimant les notifications abusives de contenus illicites pour un autre motif ou celles de tout contenu illicite auprès d’autres personnes que les opérateurs de plateforme en ligne à fort trafic visés par la proposition de loi.
Cette disposition, cantonnée au fait de « présenter (…) un contenu ou une activité comme étant illicite [au sens du premier alinéa du I de l’article 6-2] dans le but d’en obtenir le retrait ou d’en faire cesser la diffusion, alors [que la personne] sait cette information inexacte », permettra de prévenir et de sanctionner tout comportement susceptible de conduire au blocage ou au déréférencement excessif de contenus du fait d’actes malveillants.
*
* *
Chapitre II (nouveau)
Devoir de coopération des opérateurs de plateforme
dans la lutte contre les contenus haineux en ligne
Article 2
(art. 6 et 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Obligations de moyens en matière de traitement
des notifications de contenu haineux en ligne
Adopté par la Commission avec modifications
Résumé du dispositif initial et effets principaux
Le présent article simplifie les conditions dans lesquelles l’hébergeur est présumé avoir eu connaissance de contenus litigieux qui lui ont été notifiés et améliore la procédure de notification des contenus haineux aux opérateurs de plateforme en ligne à fort trafic (information sur les suites, bouton unique, mise en œuvre de moyens proportionnés et nécessaires…).
Dernières modifications législatives intervenues
La définition de la présomption de connaissance de contenus litigieux par les hébergeurs et les modalités de notification de tels contenus aux fournisseurs d’accès à internet et aux hébergeurs n’ont pas été modifiées depuis leur inscription dans la loi du 21 juin 2004 pour la confiance dans l’économie numérique.
Modifications apportées par la Commission
Après avoir supprimé les dispositions relatives à l’allégement du formalisme des notifications, déplacées à l’article 1er bis, la Commission a procédé à plusieurs modifications :
– elle a inscrit les règles encadrant le traitement de ces notifications, qui constituent des obligations de moyens, au sein du devoir de coopération des opérateurs pour les soumettre au contrôle du Conseil supérieur de l’audiovisuel (CSA), et en a précisé la portée ;
– elle a ajouté, en tête de ce devoir de coopération, la nécessité pour ces opérateurs de se conformer aux recommandations du CSA pour la bonne application de l’obligation de retrait en 24 heures des contenus manifestement haineux et des obligations de moyens ;
– elle a complété cet article par les dispositions relatives au mécanisme de recours interne contre une décision prise à la suite de la notification d’un contenu litigieux, qui figuraient initialement au III de l’article 1er.
1. L’état du droit
La loi du 21 juin 2004 pour la confiance dans l’économie numérique comporte des dispositions, en pratique insuffisantes, permettant le signalement de contenus illégaux aux fournisseurs d’accès à internet (FAI) et aux hébergeurs ainsi que l’engagement de la responsabilité de ces derniers lorsqu’ils sont passifs.
a. Une présomption de connaissance des contenus litigieux par les hébergeurs fortement conditionnée
Les 2 et 3 du I de l’article 6 de cette loi n’admettent l’engagement de la responsabilité civile ou pénale des hébergeurs à raison des contenus qu’ils stockent que si, après avoir été informés de leur caractère illicite par un dispositif de notification respectant un formalisme strict, ils n’ont pas agi promptement pour les retirer ou en interdire l’accès. Dans l’hypothèse où celle-ci serait susceptible d’être engagée, la responsabilité des hébergeurs à raison des contenus qu’ils stockent ne peut cependant être mise en cause qu’en cas d’absence d’action rapide face à un contenu manifestement illicite.
En effet, suivant une réserve d’interprétation du Conseil constitutionnel, « ces dispositions ne sauraient avoir pour effet d’engager la responsabilité d’un hébergeur qui n’a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n’a pas été ordonné par un juge » ([86]). La Cour européenne des droits de l’homme s’est prononcée dans le même sens, en soumettant l’engagement de la responsabilité des hébergeurs à trois conditions cumulatives : le rôle actif de l’hébergeur quant au contenu publié, le caractère manifestement illicite de celui-ci et l’absence de toute mesure permettant d’effectuer un signalement efficace ([87]).
Pour faciliter la caractérisation de la responsabilité de l’hébergeur, le législateur a instauré, au 5 du même I, une présomption de connaissance par celui-ci du caractère illicite du contenu dès lors qu’un certain nombre d’éléments lui sont notifiés :
– la date de la notification ;
– les nom, prénoms, profession, domicile, nationalité, date et lieu de naissance du requérant ou la forme, la dénomination, le siège social et l’organe qui le représente s’il s’agit d’une personne morale ;
– les nom et domicile du destinataire du signalement ou sa dénomination et son siège social s’il s’agit d’une personne morale ;
– la description des faits litigieux et leur localisation précise ;
– les motifs pour lesquels le contenu doit être retiré, comprenant la mention des dispositions légales et des justifications de faits ;
– la copie de la correspondance adressée à l’auteur ou à l’éditeur des contenus ou activités litigieux demandant leur interruption, leur retrait ou leur justification, ou les motifs ayant empêché un tel contact.
b. Des dispositifs de signalement de contenus haineux ou d’activités illégales perfectibles
Sans prévoir d’obligation générale de surveillance à leur charge, le 7 du I de ce même article 6 soumet FAI et hébergeurs à trois obligations particulières en raison de l’intérêt général attaché à la répression de certains contenus illicites :
– mettre en place « un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance ce type de données » ;
– informer « promptement » les autorités publiques compétentes en cas de signalement ;
– rendre publics les moyens qu’ils consacrent à cette lutte.
Ces obligations concernent des domaines dont le champ n’a cessé de croître. À l’apologie des crimes contre l’humanité, l’incitation à la haine raciale et la pornographie enfantine prévues en 2004, se sont ajoutées l’incitation à la violence et les atteintes à la dignité humaine en 2007 ([88]) et 2016 ([89]), l’incitation aux violences faites aux femmes en 2010 ([90]), l’incitation à la haine à l’égard de personnes à raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap ([91]) ainsi que la provocation à la commission d’actes de terrorisme et leur apologie ([92]) en 2014 et l’incitation aux violences sexistes en 2018 ([93]) ([94]).
Par ailleurs, depuis 2007 ([95]), compte tenu de l’intérêt général attaché à la répression des activités illégales de jeux d’argent, FAI et hébergeurs doivent mettre en place un dispositif facilement accessible et visible permettant de signaler à leurs abonnés les sites internet « tenus pour répréhensibles par les autorités publiques compétentes en la matière » et informer leurs abonnés « des risques encourus par eux du fait d’actes de jeux réalisés en violation de la loi ».
La méconnaissance de ces obligations est punie d’un an d’emprisonnement et de 75 000 euros d’amende ou, dans le cas de personnes morales, d’une amende de 375 000 euros.
En 2014, le groupe de travail interministériel sur la lutte contre la cybercriminalité dressait un bilan mitigé de ces dispositions, relevant des « pratiques hétérogènes » ainsi qu’une accessibilité ou une visibilité du dispositif de signalement « souvent sujettes à caution ». Il soulignait la nécessité « de s’assurer du respect de leurs obligations par l’ensemble des prestataires et de sanctionner les manquements constatés, étant entendu que les sanctions pénales (…) ne sont jamais appliquées » ([96]). De fait, l’engagement de la responsabilité civile ou pénale des stockeurs de contenus manifestement illicites est très rare et votre rapporteure n’a trouvé aucun cas où un hébergeur avait vu sa responsabilité pénale engagée à raison des contenus qu’ils stockaient, pour des raisons tenant à la fois à des contraintes procédurales lourdes et des considérations budgétaires limitant le pouvoir d’action de l’autorité judiciaire mais aussi aux difficultés à qualifier l’intention pénale des organes dirigeants des hébergeurs concernés, domiciliés à l’étranger et dont il faut démontrer la complicité.
2. Le dispositif proposé
Afin d’améliorer l’efficacité de ces dispositions dans la lutte contre la propagation de contenus haineux sur internet, le présent article procède à deux séries de modifications.
a. La simplification de la présomption de connaissance des contenus litigieux par les hébergeurs
Le I modifie les conditions dans lesquelles la connaissance du caractère litigieux d’un contenu par l’hébergeur est présumée acquise au sens du 5 du I de l’article 6 précité en exigeant du notifiant qu’il transmette, dans le cadre de sa notification, seulement deux séries d’éléments :
– d’une part, des éléments permettant son identification selon qu’il s’agit d’une personne physique (nom, prénoms et adresse électronique), d’une personne morale (forme sociale, dénomination sociale et adresse électronique) ou d’une autorité administrative (dénomination et adresse électronique) ou tout élément permettant l’identification de quiconque a contribué à la création du contenu litigieux ;
– d’autre part, la catégorie du contenu litigieux, à partir d’une liste dressée par décret, ainsi que le lien d’accès vers ce contenu.
Il ne serait donc plus exigé que le signalement comporte la date de la notification, la profession, le domicile, la nationalité et les date et lieu de naissance du notifiant personne physique, le siège social et l’organe représentant la personne morale, les nom et domicile du destinataire du signalement ou sa dénomination et son siège social s’il s’agit d’une personne morale, la description des faits litigieux et leur localisation précise, les motifs pour lesquels le contenu doit être retiré, ainsi que la copie de la correspondance adressée à l’auteur ou à l’éditeur des contenus ou activités litigieux demandant leur interruption, leur retrait ou leur justification, ou les motifs ayant empêché un tel contact.
Lors de son audition par votre rapporteure, les représentants de la Commission nationale de l’informatique et des libertés ont observé que l’allégement proposé du formalisme des notifications, outre ses avantages en termes d’accélération du retrait de contenus illicites, irait dans le sens d’une minimisation des données personnelles fournies par l’utilisateur d’un service pour exercer ses droits.
b. L’amélioration de la procédure de notification d’un contenu litigieux auprès d’une plateforme en ligne à fort trafic
Dans le prolongement des dispositions de l’article 1er, le II vise à améliorer la procédure de notification aux opérateurs de plateforme en ligne à fort trafic.
Ces opérateurs auront désormais l’obligation d’accuser réception « sans délai » de toute notification et d’informer leur auteur des suites données à sa demande de retrait dans un délai variant en fonction de la nature du contenu :
– 24 heures si le contenu notifié comporte une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ;
– sept jours pour les autres contenus.
D’autre part, ils devront proposer aux utilisateurs situés sur le territoire français un dispositif de notification facilement accessible et uniformisé et leur permettre de notifier un contenu illicite dans la langue d’utilisation du service. L’objectif des auteurs de la proposition de loi est de parvenir à un service de notification simple d’accès et commun à tous les grands opérateurs.
Enfin, le III astreint ces mêmes opérateurs à mettre en œuvre « les moyens humains ou technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus ».
Ces dispositions sont la traduction des recommandations nos 8 et 9 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.
3. L’avis du Conseil d’État
Le Conseil d’État a jugé appropriée et conforme au droit constitutionnel et conventionnel la simplification des mécanismes de notification des contenus illicites. Toutefois, en cohérence avec la création d’un délit de refus de retrait de contenus manifestement haineux dans les 24 heures suivant leur notification, il a estimé nécessaire, « au regard des exigences du principe de légalité des délits et pour éviter une incompétence négative du législateur », que la loi précise « que le signalement, qui marque le début d’une éventuelle phase judiciaire, doit indiquer la description des faits litigieux et les motifs pour lesquels, aux yeux de son auteur, le contenu qu’il signale lui paraît relever » de contenus manifestement haineux ([97]).
Le Conseil d’État a également formulé plusieurs recommandations tendant à rendre effective l’obligation faite, par l’article 1er, aux opérateurs de plateforme en ligne de prévoir un dispositif de recours interne permettant de contester le retrait ou le refus de retrait d’un contenu (information systématique de l’auteur du contenu litigieux en cas de signalement, notification des motifs de sa décision dans les sept jours suivant l’expiration du délai de 24 heures, information sur les voies de recours internes et contentieuses) ([98]).
4. La position de la Commission
Sur proposition de votre rapporteure, la Commission a supprimé les dispositions procédant à un allégement du formalisme des notifications de contenus, en cohérence avec leur inscription à l’article 1er bis.
Les autres dispositions de cet article, relatives au suivi des notifications, à l’exigence d’accessibilité du dispositif permettant de les former et à la nécessité pour les opérateurs de plateforme de mettre en œuvre les moyens proportionnés et nécessaires à leur traitement, ont été conservées. Elles ont toutefois été inscrites, à l’initiative de votre rapporteure, au sein d’un nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, dédié au devoir de coopération de ces opérateurs et destiné à rassembler l’ensemble des obligations de moyens s’imposant à eux, conformément à une recommandation du Conseil d’État (II).
La Commission a apporté à ces dispositions des modifications de fond.
À la demande de votre rapporteure :
– elle a inscrit en tête de ce devoir de coopération l’obligation pour les opérateurs de se conformer aux recommandations que prendra le Conseil supérieur de l’audiovisuel pour la bonne application de l’obligation de retrait en 24 heures des contenus manifestement haineux et des obligations de moyens (1°) ;
– elle a clarifié les suites à donner à la notification d’un contenu litigieux, en prévoyant que les opérateurs devront en informer non seulement le notifiant mais aussi l’auteur du contenu, que cette information devra également comporter des explications sur les motifs de la décision prise et que l’ensemble de ces éléments (sens de la décision et motifs de celle-ci) devra être transmis au notifiant et à l’auteur du contenu dans un délai de 24 heures en cas de retrait ou de déréférencement ou, à défaut, dans un délai de sept jours (2°) ;
– elle a précisé que les moyens humains ou technologiques nécessaires et proportionnés pour le traitement, dans les meilleurs délais, des notifications reçues devaient contribuer au respect de l’obligation de retrait en 24 heures des contenus manifestement haineux (4°).
À l’initiative de Mme de La Raudière (UDI et Indépendants), la Commission, suivant l’avis favorable de votre rapporteure, a prévu que l’information de l’auteur du contenu litigieux sur les suites données à sa notification devait s’accompagner d’un rappel « des sanctions civiles et pénales encourues pour la publication de contenus manifestement illicites » (2°).
Par ailleurs, la Commission a adopté un amendement de Mme Caroline Abadie et des membres du groupe La République en marche, avec l’avis favorable de votre rapporteure, obligeant les opérateurs de plateforme à rendre le dispositif de notification « directement », et non « facilement », accessible, afin qu’il soit possible de signaler un contenu manifestement haineux depuis ce contenu (3°).
Enfin, la Commission a complété cet article par les dispositions, supprimées du III de l’article 1er de la proposition de loi, relatives au mécanisme de recours interne contre une décision prise à la suite de la notification d’un contenu litigieux (5°) ([99]).
Ces obligations, ainsi intégrées dans le devoir de coopération des grandes plateformes en ligne, seront soumises au contrôle du Conseil supérieur de l’audiovisuel.
*
* *
Article 3
(art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Obligations de moyens en matière d’information, de transparence
et de coopération avec les autorités publiques compétentes
Adopté par la Commission avec modifications
Résumé du dispositif initial et effets principaux
Le présent article astreint les opérateurs de plateforme en ligne à fort trafic à informer de manière claire et détaillée les victimes de contenus manifestement haineux des voies de recours qui s’offrent à elles et des acteurs susceptibles de les accompagner, afin d’améliorer l’efficacité de la lutte contre ces contenus.
Dernières modifications législatives intervenues
Les obligations d’information à la charge des fournisseurs d’accès à internet et des hébergeurs, seulement applicables au contrôle parental et au piratage en ligne en 2004, ont été étendues par la loi du 5 mars 2007 relative à la prévention de la délinquance et celle du 23 octobre 2018 relative à la lutte contre la fraude aux activités en ligne de jeux et paris illicites ainsi qu’à celles de vente de tabac.
Modifications apportées par la Commission
Après avoir inscrit ces dispositions au sein du devoir de coopération des opérateurs pour les soumettre au contrôle du Conseil supérieur de l’audiovisuel, la Commission a précisé et complété la portée de l’obligation d’information publique, claire et détaillée.
Elle a par ailleurs ajouté à cette obligation :
– les autres obligations de moyens que la proposition de loi prévoyait de créer et concourant au devoir d’information, de transparence et de coopération des grandes plateformes en ligne (obligation de transparence sur les moyens mis en œuvre pour lutter contre la haine en ligne et obligation de désigner un représentant légal en France) ;
– l’obligation de sensibiliser les mineurs et leurs parents à la problématique de la haine en ligne lors de leur inscription à leurs services ;
– l’obligation d’informer promptement les autorités publiques des contenus haineux notifiés.
1. L’état du droit
Plusieurs obligations d’information s’imposent aujourd’hui aux acteurs numériques. De contenu et de portée variables, elles ne se rattachent pas toutes à la lutte contre les contenus illicites sur internet.
a. Les obligations d’information des fournisseurs d’accès à internet et des hébergeurs en matière de lutte contre les contenus illicites
En plus de l’obligation de surveillance ciblée de certains contenus odieux ([100]), l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique met à la charge des prestataires techniques certaines obligations d’information en matière de lutte contre les contenus illicites dont la portée est cependant limitée dans leur objet.
Depuis 2004, les fournisseurs d’accès à internet (FAI) sont tenus d’informer leurs abonnés sur les logiciels de contrôle parental ainsi que sur le piratage en ligne, et de leur proposer une offre dans ces domaines ([101]).
À partir de 2007 ([102]), FAI et hébergeurs ont également été contraints, dans le domaine des jeux et paris illicites ([103]), à prévenir leurs abonnés « des risques encourus par eux du fait d’actes de jeux réalisés en violation de la loi », en plus de mettre en place un dispositif facilement accessible et visible permettant de leur signaler les sites internet considérés par les autorités comme proposant des activités illicites de jeux et paris en ligne.
Enfin, le législateur a prévu, en 2018 ([104]), que FAI et hébergeurs devraient informer leurs abonnés de l’illégalité de la vente en ligne de tabac et des risques encourus pour une telle activité ([105]).
b. L’obligation générale d’information précontractuelle des opérateurs de plateforme en ligne
Des obligations supplémentaires d’information, sans rapport direct avec la lutte contre les contenus illicites, s’imposent aux opérateurs de plateforme en ligne visés à l’article L. 111-7 du code de la consommation, qui doivent, en tout état de cause, respecter les obligations de la loi pour la confiance dans l’économie numérique lorsqu’ils agissent en qualité d’éditeurs de contenus ou d’hébergeurs.
Ces opérateurs sont tenus, en vertu du principe de loyauté, à un devoir d’information générale des consommateurs, en particulier sur les conditions générales d’utilisation de leur service d’intermédiation, les modalités de référencement et de classement utilisées et l’existence d’une relation contractuelle, d’un lien capitalistique ou d’une rémunération à leur profit de nature à influencer le référencement des contenus, des biens ou des services proposés ou mis en ligne.
L’article L. 111-7-1 de ce code prévoit que ceux de ces opérateurs dont l’activité dépasse un seuil de nombre de connexions défini par décret – fixé à cinq millions de visiteurs uniques par mois – doivent élaborer et diffuser aux consommateurs des bonnes pratiques visant à renforcer les obligations de clarté, de transparence et de loyauté. Il confie à la direction générale de la concurrence, de la consommation et de la répression des fraudes le soin de procéder à des enquêtes afin d’évaluer et de comparer les pratiques de ces opérateurs, le cas échéant en rendant publique la liste des plateformes en ligne qui ne respecteraient pas leurs obligations.
2. Le dispositif proposé
Le présent article a pour objet de renforcer la portée du devoir d’information des acteurs numériques les plus exposés dans la régulation des contenus illicites et d’améliorer la prise en charge des victimes de tels contenus ainsi que la connaissance par celles-ci de leurs droits.
À cette fin, il prévoit que les opérateurs de plateforme en ligne à fort trafic visés à l’article 1er de la proposition de loi devront mettre à disposition « une information publique, claire et détaillée sur les dispositifs de recours, y compris judiciaires, dont disposent les victimes de contenus [haineux] et sur les acteurs en mesure d’assurer leur accompagnement ».
Cette disposition est la traduction de la recommandation n° 20 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.
3. L’avis du Conseil d’État
Le Conseil d’État s’est borné à suggérer que les informations mises à la disposition des victimes de contenus illicites par les opérateurs de plateforme en ligne en matière de recours soient étendues aux auteurs dont le contenu serait supprimé, afin d’assurer le respect de la liberté d’expression contre des risques de retraits excessifs par ces opérateurs.
4. La position de la Commission
La Commission a regroupé dans cet article l’ensemble des obligations de moyens autres que celles spécifiques au traitement des notifications de contenus manifestement haineux, même si ces obligations figureront également au nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique créé par l’article 2 de la proposition de loi.
a. L’obligation d’information publique, claire et détaillée
La Commission a complété le champ de l’obligation d’information publique, claire et détaillée mise à la charge de ces opérateurs (6°).
D’une part, à la demande de votre rapporteure, elle a précisé que l’information donnée aux victimes sur l’existence de mécanismes de recours, internes et judiciaires, devait également s’adresser aux auteurs des contenus litigieux et porter, comme l’ont proposé Mme Caroline Abadie et les membres du groupe La République en marche, avec le soutien de votre rapporteure, sur les délais impartis pour former ces recours.
D’autre part, la Commission, suivant l’avis favorable de votre rapporteure, a étendu le champ des informations devant être transmises par les opérateurs à leurs utilisateurs :
– aux risques encourus en cas de notification abusive, sur proposition de Mme Caroline Abadie et des membres du groupe La République en marche ;
– aux sanctions, notamment judiciaires, encourues en cas de publication de contenus haineux, à l’initiative de Mme Kuster (Les Républicains) ;
– aux règles de modération, comme l’ont proposé Mme Gaillot et les membres du groupe La République en marche.
b. L’obligation de transparence
À l’initiative de votre rapporteure, la Commission a ajouté à cet article les dispositions du II de l’article 4 de la proposition de loi, relatives à l’obligation de transparence en matière de lutte contre les contenus haineux ([106]) (7°).
La rédaction proposée, proche de celle du II de l’article 4, a été précisée afin de prévoir que ces opérateurs devront rendre compte « de l’organisation interne qu’ils adoptent pour se conformer à l’obligation [de retrait en 24 heures des contenus manifestement haineux] et des moyens qu’ils y consacrent ainsi que des actions et moyens qu’ils mettent en œuvre dans la lutte contre les contenus [haineux] ».
c. L’obligation de sensibilisation et d’information des mineurs et de leurs parents
La Commission, suivant l’avis favorable de votre rapporteure sous réserve de l’adoption de deux sous‑amendements, a adopté un amendement de la commission des Affaires culturelles et de l’éducation visant à soumettre les grandes plateformes en ligne à une obligation de sensibilisation et d’information des jeunes publics sur l’usage de leurs services et sur les risques encourus en cas de diffusion de contenus haineux (8°).
Ces opérateurs seront tenus, « lors de la première utilisation de leurs services par un mineur âgé de moins de 15 ans, de sensibiliser le mineur ainsi que le ou les titulaires de l’autorité parentale à l’utilisation civique et responsable dudit service et de les informer des risques juridiques encourus en cas de diffusion, par le mineur, de contenus haineux ».
d. L’obligation d’informer promptement les autorités publiques des activités haineuses notifiées
Sur proposition de votre rapporteure, la Commission a complété la liste des obligations de moyens mises à la charge de ces plateformes pour les contraindre à rendre compte promptement aux autorités publiques de toutes les activités haineuses qui leur sont notifiées (9°).
Cette obligation est la reprise de l’obligation d’information prompte des autorités publiques par les hébergeurs et les fournisseurs d’accès à internet dans le cadre du régime général de coopération dans la lutte contre certaines activités illicites prévue par le 7 du I de l’article 6 de la loi pour la confiance dans l’économie numérique, qui oblige ces acteurs à :
– mettre en place un dispositif facilement accessible et visible permettant à quiconque de leur signaler de telles activités ;
– informer promptement les autorités de ces activités ;
– rendre publics les moyens qu’ils consacrent à la lutte contre ces activités.
Dans la mesure où ces trois obligations seront couvertes par le régime renforcé proposé par ce texte, ces opérateurs s’en verront extraits.
e. L’obligation de désigner un représentant légal en France
Toujours à l’initiative de votre rapporteure, la Commission a complété cet article par une dernière obligation, celle de désigner un représentant légal, interlocuteur référent, sur le territoire français, disposition qui figurait initialement au II de l’article 5 (10°).
Conformément à une recommandation du Conseil d’État, votre rapporteure a précisé le rôle de ce représentant légal, qui sera chargé de mettre en œuvre et d’exécuter les obligations prévues par ce texte et de répondre aux demandes de l’autorité judiciaire.
Le respect de ces obligations, désormais toutes inscrites au sein du nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, sera contrôlé par le Conseil supérieur de l’audiovisuel dans les conditions prévues à l’article 4 de la proposition de loi.
*
* *
Article 3 bis
(art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)
Triplement du montant de la peine d’amende encourue
en cas de non-coopération avec l’autorité judiciaire
Introduit par la Commission
Résumé du dispositif et effets principaux
Le présent article, qui résulte de l’adoption par la Commission d’un amendement de votre rapporteure, est la reprise du I de l’article 5 de la proposition de loi visant à tripler le montant de la peine d’amende encourue en cas de méconnaissance, par un acteur numérique, de ses obligations de coopération avec l’autorité judiciaire en matière de lutte contre les contenus illicites ([107]).
*
* *
Chapitre III (nouveau)
Rôle du Conseil supérieur de l’audiovisuel dans la lutte
contre les contenus haineux en ligne
Article 4
(art. 17-3 [nouveau] et 42-7 de la loi n° 86-1067 du 30 septembre 1986 relative à
la liberté de communication et 6 de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Rôle du Conseil supérieur de l’audiovisuel
dans la lutte contre la haine sur internet
Adopté par la Commission avec modifications
Résumé du dispositif initial et effets principaux
Le présent article a pour objet principal de confier au Conseil supérieur de l’audiovisuel (CSA) le soin de contribuer à la lutte contre les contenus haineux sur internet, notamment en adressant des recommandations aux opérateurs de plateforme en ligne à fort trafic et en assurant le suivi des obligations de retrait auxquelles l’article 1er soumet ces opérateurs.
Dernières modifications législatives intervenues
La dernière extension des missions dévolues au CSA en matière de protection contre certains contenus illicites date de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, qui lui a confié une compétence en matière de lutte contre les fausses nouvelles.
Modifications apportées par la Commission
La Commission a procédé à trois séries de modifications :
– elle a expressément chargé le CSA de veiller au respect du devoir de coopération de ces opérateurs, en lui permettant de leur adresser des recommandations, des bonnes pratiques et des lignes directrices en vue de la bonne application de l’obligation de retrait et des obligations de moyens ;
– elle a autorisé le CSA, en cas de non-respect par un opérateur des obligations de moyens, à engager une procédure de sanction en se fondant, d’une part, sur la façon dont l’opérateur exécute le devoir de coopération et, d’autre part, sur la manière dont il se conforme aux recommandations qu’il émet pour le respect de l’obligation de retrait et des obligations de moyens, en appréciant « le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait » ;
– elle a précisé la procédure de sanction, qui figurait initialement au II de l’article 1er, en la conditionnant à une mise en demeure préalable, en prévoyant que son montant devra prendre en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré, sans pouvoir excéder 4 % du chiffre d’affaires annuel mondial de l’opérateur, et en autorisant la publication, sur tout support ou site, des mises en demeure et sanctions.
1. L’état du droit
Le Conseil supérieur de l’audiovisuel (CSA), autorité administrative indépendante, veille à la qualité et à la diversité du secteur audiovisuel qu’il régule. Il est ainsi chargé de « garanti[r] l’exercice de la liberté de communication audiovisuelle par tout procédé de communication électronique », à travers la défense de plusieurs principes, notamment l’égalité de traitement, l’indépendance et l’impartialité du secteur public de la communication audiovisuelle, la qualité et la diversité des programmes, l’honnêteté, l’indépendance et le pluralisme de l’information ainsi que la promotion de la cohésion sociale, de la lutte contre les discriminations et du respect des droits des femmes dans le domaine de la communication audiovisuelle ([108]).
Dans ce cadre, plusieurs missions lui sont assignées en matière de défense de droits fondamentaux ou de protection contre la diffusion de certains contenus :
– assurer le respect de l’expression pluraliste des courants de pensée et d’opinion dans les programmes de radio et de télévision ([109]) ;
– contrôler les émissions publicitaires afin de veiller « au respect de la dignité de toutes les personnes et à l’image des femmes » ([110]) ;
– garantir que les programmes de communication audiovisuelle sont conformes à la protection de l’enfance et de l’adolescence et au respect de la dignité de la personne, ne nuisent pas à l’épanouissement physique, mental ou moral des mineurs et « ne contiennent aucune incitation à la haine ou à la violence pour des raisons de race, de sexe, de mœurs, de religion ou de nationalité » ([111]).
La dernière extension des prérogatives du CSA dans ce domaine date de la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, par laquelle cette autorité s’est vu confier, à l’article 17-2 de la loi du 30 septembre 1986 relative à la liberté de communication, la mission de contribuer à la lutte contre la diffusion de fausses informations susceptibles de troubler l’ordre public ou de porter atteinte à la sincérité des scrutins, à travers trois instruments :
– « en cas nécessité », en adressant aux opérateurs de plateforme en ligne des recommandations ;
– en assurant un suivi des obligations faites à ces opérateurs dans ce domaine ([112]) ;
– par la publication d’un bilan périodique de leur application.
2. Le dispositif proposé
S’inspirant du rôle nouveau qui lui a été récemment dévolu en matière de lutte contre les fausses informations, le présent article rend le CSA compétent pour contribuer à la lutte contre la diffusion de contenus sur internet à caractère haineux.
À cette fin, le I insère, dans la loi du 30 septembre 1986 relative à la liberté de communication, un nouvel article 17-3 lui confiant cette compétence à l’égard de « contenus sur internet comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ».
Cette contribution prendrait la même forme que celle prévue pour la lutte contre les fausses informations :
– l’établissement de recommandations aux opérateurs de plateforme en ligne à fort trafic « en cas de nécessité », après un cycle d’auditions des acteurs concernés et mise en débat public ;
– le suivi des obligations reposant sur ces opérateurs telles qu’elles sont prévues par la présente proposition de loi ;
– la publication d’un bilan périodique de leur application et de leur effectivité, en recueillant auprès de ces opérateurs toutes informations utiles.
Cette nouvelle compétence du CSA s’inspire de la recommandation n° 6 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.
Par ailleurs, le II oblige ces mêmes opérateurs à rendre publics les actions et moyens mis en œuvre dans la lutte contre ces contenus, par la diffusion d’un certain nombre d’informations dont la liste sera fixée par le CSA.
Cette disposition est la traduction de la recommandation n° 3 du rapport précédemment mentionné auquel a contribué votre rapporteure. Les auteurs du rapport estimaient que cette obligation de transparence permettrait notamment de connaître « la description des mécanismes de notification des contenus et les critères appliqués pour décider s’il faut informer les autorités publiques compétentes d’un contenu ou d’une activité illicite », les éléments relatifs aux notifications effectuées (origine, motif, durée de traitement par plateforme, nombre de notifications ayant fait l’objet d’un signalement aux autorités publiques compétentes…) ainsi que « des informations portant sur l’organisation des unités traitant des signalements » (nombre de personnes affectées, formation de ces personnes, mise à disposition de supports techniques ou d’experts linguistiques…) ([113]). Plusieurs grandes plateformes d’échanges de contenus en ligne rendent d’ailleurs déjà publics, entre deux et quatre fois par an, des rapports de transparence sur les retraits de contenus auxquels elles procèdent, à l’instar de Facebook, Youtube ou Twitter.
Comme l’a indiqué M. Roch-Olivier Maistre, président du CSA, les nouvelles missions qu’il est envisagé de lui confier s’inscrivent dans le prolongement des problématiques de responsabilité sociétale des médias dont cette autorité est, depuis de nombreuses années, familière.
Les recommandations que le CSA serait amené à publier constitueraient des guides précieux pour les plateformes dans leur appréciation des obligations auxquelles elles doivent se conformer, à l’instar des lignes directrices, recommandations ou référentiels publiés par la Commission nationale de l’informatique et des libertés (CNIL) afin de faciliter la mise en conformité des traitements de données personnelles avec les textes relatifs à la protection de ces données.
3. L’avis du Conseil d’État
En cohérence avec ses observations sur l’article 1er ([114]), le Conseil d’État a considéré que « la mise en place d’une régulation (…) visant à prévenir la diffusion des contenus manifestement [haineux] et à en traiter rapidement l’occurrence, complète utilement l’action publique » et que « le choix, comme dans la loi sur la manipulation d’informations électorales, de confier cette régulation au Conseil supérieur de l’audiovisuel, du reste cohérent au regard de la directive SMA, ne paraît pas critiquable » ([115]).
Il a toutefois suggéré plusieurs évolutions :
– une clarification des obligations administratives pesant sur les opérateurs de plateforme en ligne susceptibles de faire l’objet d’une sanction par le CSA ;
– l’instauration d’une obligation de communiquer au CSA l’organisation adoptée et les moyens qui sont consacrés par ces opérateurs au retrait en 24 heures de contenus manifestement illicites ;
– l’élargissement des compétences du CSA à la possibilité de fixer des orientations, de diffuser des bonnes pratiques et d’adopter des lignes directrices ;
– la publicité de l’appréciation critique du CSA sur la manière dont les opérateurs se conforment à leurs obligations, « tant l’effet de cette appréciation sur l’image commerciale des opérateurs constitue un levier puissant d’influence et d’incitation » ([116]) ;
– le transfert au CSA de la compétence aujourd’hui confiée à une personnalité qualifiée de la CNIL pour le contrôle des dispositions de l’article 6-1 de la loi pour la confiance dans l’économie numérique relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques.
4. La position de la Commission
La Commission a réaménagé les pouvoirs dévolus au CSA dans la lutte contre la haine en ligne, afin de tenir compte de la nouvelle architecture des obligations imposées aux opérateurs de plateforme en ligne par les précédents articles. Ces modifications, portées à l’article 17-3 de la loi du 30 septembre 1986 relative à la liberté de communication, tirent les conséquences des recommandations formulées par le Conseil d’État sur la place du régulateur (I et I bis).
a. Des missions clarifiées (I de l’article 17-3)
Sur proposition de la commission des Affaires culturelles et de l’éducation et avec l’avis favorable de votre rapporteure, la Commission a chargé le CSA de veiller au respect des obligations de moyens constitutives du devoir de coopération prévu par le nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.
À l’initiative de votre rapporteure, la Commission a autorisé le CSA à établir, en plus des recommandations, des bonnes pratiques et des lignes directrices pour le respect de l’obligation de retrait et des obligations de moyens. Cette disposition fait écho à l’obligation pour les opérateurs de se conformer aux recommandations du CSA en vertu du 1° du nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique ([117]).
La Commission a également adopté un amendement de la commission des Affaires culturelles et de l’éducation, avec l’avis favorable de votre rapporteure, rendant annuel le bilan du CSA de l’application et de l’effectivité de ces obligations.
b. Une procédure en manquement précisée (II de l’article 17-3)
Les principales modifications apportées à cet article par la Commission résultent de l’adoption d’un amendement de votre rapporteure reprenant les dispositions du II de l’article 1er, relatif à la procédure en manquement.
Pour apprécier le manquement, le CSA devra se fonder sur le respect des obligations de moyens et les conditions dans lesquelles l’opérateur se conformera à ses recommandations pour la bonne application de l’obligation de retrait et des obligations de moyens.
À cette occasion, le CSA devra apprécier « le caractère suffisant ou excessif du comportement de l’opérateur en matière de retrait sur les contenus portés à sa connaissance ou qu’il constate de sa propre initiative ».
Le prononcé d’une sanction devra avoir été précédé d’une mise en demeure, préalable nécessaire au regard du niveau élevé des sanctions encourues.
Le montant de cette sanction, qui ne pourra excéder 4 % du chiffre d’affaires annuel mondial de l’opérateur comme le prévoyait le texte initial, devra prendre en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré.
Le CSA aura la possibilité de rendre publiques ces mises en demeure et sanctions.
Votre rapporteure se félicite que ces dispositions, ainsi nouvellement rédigées, permettent au CSA de veiller à ce que les opérateurs n’adoptent pas des « comportements répétés de refus de retrait ou de retraits timorés, pusillanimes, ou au contraire excessifs », comme l’a appelé de ses vœux le Conseil d’État dans son avis.
c. Des modifications de cohérence
Par ailleurs, la Commission a procédé, toujours à l’initiative de votre rapporteure, à deux modifications de cohérence.
D’une part, elle a soustrait les opérateurs de plateforme en ligne visés par la proposition de loi au devoir de coopération prévu au 7 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, ceux-ci ayant vocation à être soumis aux obligations de coopération renforcée spécifiquement prévues par la proposition de loi ainsi qu’à la régulation du CSA (1° du I ter) ([118]).
D’autre part, elle a transféré au CSA la mission de contrôler la mise en œuvre des dispositions de l’article 6‑1 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques, qui relève aujourd’hui de la compétence d’une personnalité qualifiée désignée au sein de la Commission nationale de l’informatique et des libertés. Cette évolution tire les conséquences des nouvelles missions dévolues au CSA mais ne sera effective qu’au 1er janvier 2021 ([119]), le temps de modifier, si cela s’avère nécessaire, la composition du collège du CSA (2° du I ter).
Enfin, la Commission a supprimé le II de cet article, relatif au devoir de transparence des opérateurs de plateforme en ligne à fort trafic, qui a été déplacé à l’article 3 de la proposition de loi.
*
* *
Article 5
(art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)
Renforcement de l’obligation de coopération des opérateurs numériques
avec l’autorité judiciaire en matière de lutte contre les contenus illicites
Supprimé par la Commission
Résumé du dispositif initial et effets principaux
Afin d’améliorer l’efficacité de la coopération des acteurs numériques dans la lutte contre la haine sur internet, le présent article triple le montant des amendes encourues par les fournisseurs d’accès à internet, les hébergeurs et les éditeurs de contenus ne respectant pas leurs obligations et impose aux opérateurs de plateforme en ligne à fort trafic de désigner un représentant légal en France.
Dernières modifications législatives intervenues
Les sanctions encourues par ces personnes en cas de non-respect de leurs obligations n’ont pas été modifiées depuis leur instauration par la loi du 21 juin 2004 pour la confiance dans l’économie numérique mais leur champ d’application a évolué au fil des réformes ayant étendu ces obligations.
Modifications apportées par la Commission
La Commission a supprimé cet article, dont les dispositions figurent désormais à l’article 3 s’agissant de l’obligation de désigner un représentant légal en France et à l’article 3 bis pour ce qui concerne le triplement du montant des amendes encourues pour non-coopération avec l’autorité judiciaire.
1. L’état du droit
Les acteurs numériques qui ne satisferaient pas à leurs obligations en matière de régulation des contenus circulant sur internet peuvent être pénalement sanctionnés, en vertu du VI de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.
Est ainsi puni d’un an d’emprisonnement et de 75 000 euros d’amende dans le cas d’une personne physique ou d’une peine d’amende de 375 000 euros et des peines mentionnées à l’article 131-39 du code pénal ([120]) dans le cas d’une personne morale :
– le fait pour un fournisseur d’accès à internet (FAI) ou un hébergeur de ne pas concourir à la lutte contre la diffusion d’un contenu répréhensible, en ne mettant pas en place un dispositif facilement accessible et visible de signalement, en n’informant pas promptement les autorités publiques compétentes ou en ne rendant pas publics les moyens consacrés à cette lutte ([121]) ;
– le fait pour un éditeur de service ou un hébergeur de ne pas procéder au retrait d’un contenu provoquant à des actes terroristes ou faisant l’apologie de tels actes, pour un FAI de ne pas empêcher l’accès au site internet porteur d’un tel contenu ou pour un moteur de recherche de ne pas le déréférencer alors que l’autorité administrative le leur demandait ([122]) ;
– le fait pour un FAI ou un hébergeur de ne pas conserver les données d’identification des personnes à l’origine d’un contenu qu’ils transportent ou stockent ou de ne pas déférer à une demande de l’autorité judiciaire tendant à obtenir ces données ([123]) ;
– le fait pour un éditeur de services de ne pas mettre à disposition du public les éléments d’information le concernant ou de ne pas désigner un directeur de publication ([124]).
2. Le dispositif proposé
Le présent article entend donner plus de poids à ces dispositions dont la faiblesse résulte, pour partie, de l’insuffisance des sanctions pécuniaires encourues en cas de méconnaissance, par l’un des acteurs concernés, de ses obligations.
À cet effet, le I triple le montant des amendes encourues :
– en augmentant de 75 000 euros à 250 000 euros le montant de la peine d’amende encourue par une personne physique ;
– ce qui aura pour effet de porter à 1 250 000 euros le montant de celle encourue par une personne morale, en vertu de l’article 131-38 du code pénal ([125]).
En outre, afin de tenir compte de l’installation à l’étranger de nombreux opérateurs, ce qui freine l’efficacité de la coopération avec les autorités judiciaires dans ce domaine, le II contraint les opérateurs de plateforme en ligne à fort trafic visés à l’article 1er à désigner un représentant légal en France.
Cette disposition est la reprise de la recommandation n° 2 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.
3. L’avis du Conseil d’État
Le Conseil d’État a jugé appropriée et conforme aux exigences constitutionnelles et conventionnelles le quadruplement des sanctions financières pénales applicables en cas de non-respect par les prestataires de leurs obligations.
Après s’être interrogé sur la nécessité d’imposer aux opérateurs de plateforme en ligne de désigner un représentant sur le territoire français et la compatibilité de cette disposition avec le droit européen, le Conseil d’État a recommandé à votre rapporteure de préciser les fonctions, pouvoirs et statuts de ce représentant afin de lever les difficultés qu’une telle disposition pourrait soulever.
4. La position de la Commission
Par cohérence avec le déplacement de ces dispositions aux articles 3 et 3 bis de la proposition de loi, la Commission a adopté un amendement de votre rapporteure supprimant cet article.
*
* *
Chapitre IV (nouveau)
Amélioration de la lutte contre la diffusion de contenus haineux en ligne
Article 6
(art. 6 et 6-4 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Simplification de la procédure de blocage
et de déréférencement des sites haineux
Adopté par la Commission avec modifications
Résumé du dispositif initial et effets principaux
Le présent article procède à deux modifications du droit existant aux fins d’empêcher plus rapidement l’accès à des contenus haineux en ligne :
– d’une part, il fait de la sollicitation par l’autorité judiciaire des fournisseurs d’accès à internet (FAI) une alternative à celle des hébergeurs et non pas une possibilité subsidiaire ;
– d’autre part, il autorise l’autorité administrative à ordonner à tout FAI ou moteur de recherche le blocage ou le déréférencement de sites comportant des contenus jugés illicites par l’autorité judiciaire (« sites miroirs »).
Dernières modifications législatives intervenues
Les dernières modifications apportées au régime du blocage de sites internet comportant des contenus illicites remontent à la loi du 13 novembre 2014 renforçant les dispositions relatives à la lutte contre le terrorisme et à celle du 17 mars 2014 relative à la consommation qui ont instauré respectivement un blocage administratif des sites terroristes ou pédopornographiques et un blocage mixte de sites contrevenant à des dispositions du code de la consommation.
Modifications apportées par la Commission
La Commission a cantonné la procédure de blocage ou de déréférencement de « sites miroirs » aux contenus haineux et a renforcé le contrôle par l’autorité judiciaire de cette procédure, en la conditionnant à son autorisation préalable, délivrée au moment de juger illicite le contenu du site originel, et en permettant sa saisine en cas de difficultés lors de la mise en œuvre de la demande de blocage ou de déréférencement par l’autorité administrative.
1. L’état du droit
Plusieurs possibilités de blocage de contenus illicites sur internet existent, selon l’autorité qui en est à l’initiative et celle qui l’ordonne.
a. Le blocage judiciaire
Le blocage judiciaire, ordonné par le juge civil, est possible à l’égard de tout contenu susceptible de causer un dommage à un tiers (référé « internet »).
Le 8 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique dispose ainsi que « l’autorité judiciaire peut prescrire en référé ou sur requête » à tout hébergeur ou, à défaut, tout fournisseur d’accès à internet (FAI) « toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne » ([126]).
Si la rédaction de ce texte laisse entendre un principe de subsidiarité, la Cour de cassation a jugé que « la prescription de ces mesures n’est pas subordonnée à la mise en cause préalable des prestataires d’hébergement » ([127]),. La jurisprudence n’est cependant pas uniforme sur cette question, certaines décisions de justice appliquant un principe de subsidiarité ([128]).
En tout état de cause, le blocage doit demeurer limité dans son étendue et dans le temps, conformément à la jurisprudence de la Cour de justice de l’Union européenne en la matière ([129]).
Ce référé général coexiste avec d’autres référés spécifiques, comme le référé spécial permettant l’arrêt d’un site internet en cas de trouble manifestement illicite résultant de messages ou d’informations mis à la disposition du public ([130]), le référé spécial autorisant le blocage d’un site internet provoquant au terrorisme ou en faisant l’apologie ([131]) et le référé de droit commun de l’article 809 du code de procédure civile ([132]).
b. Le blocage administratif
Depuis 2014 ([133]), l’autorité administrative est autorisée à ordonner, seule, le blocage de certains sites véhiculant des contenus dont l’illicéité est particulièrement grave.
En effet, l’article 6-1 de la même loi autorise l’autorité administrative – en l’espèce l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication – à ordonner le blocage de contenus de nature terroriste ou pédopornographique, sous certaines conditions :
– l’autorité administrative doit d’abord demander aux éditeurs de service internet ou aux hébergeurs le retrait de ces contenus, en en informant simultanément les FAI ;
– en l’absence de retrait de ces contenus dans un délai de 24 heures, elle peut notifier la liste des adresses des contenus incriminés aux FAI qui « doivent alors empêcher sans délai l’accès à ces adresses », la notification pouvant intervenir sans demande préalable de retrait si l’éditeur de service n’a pas fourni les informations permettant de l’identifier et de le contacter ;
– ces mesures de blocage sont placées sous le contrôle d’une personnalité qualifiée, désignée en son sein par la Commission nationale de l’informatique et des libertés (CNIL) : cette personnalité « s’assure de la régularité des demandes de retrait et des conditions d’établissement, de mise à jour, de communication et d’utilisation de la liste » et peut, à tout moment, recommander à l’autorité administrative d’y mettre fin et saisir la juridiction administrative si l’autorité administrative ne suit pas cette recommandation.
L’autorité administrative peut également, en vertu de la même disposition, notifier les adresses électroniques des contenus terroristes ou pédopornographiques aux moteurs de recherche ou aux annuaires afin qu’ils fassent cesser leur référencement, sous le contrôle de la personnalité qualifiée de la CNIL.
Pour la période s’étalant entre mars 2018 et février 2019, la personnalité qualifiée a recensé 18 014 demandes de retraits de contenus (10 091 de sites de nature terroriste et 7 923 de sites à caractère pédopornographique) pour 13 421 contenus retirés (6 796 sites de nature terroriste et 6 625 sites à caractère pédopornographique), 879 demandes de blocage (82 sites de nature terroriste et 797 sites à caractère pédopornographique) et 6 581 demandes de déréférencement (2 294 sites de nature terroriste et 3 587 sites à caractère pédopornographique) ([134]).
c. Le blocage mixte
Enfin, d’autres blocages, mixtes, peuvent être ordonnés sur décision de l’autorité judiciaire sollicitée par l’autorité administrative :
– le référé « jeux en ligne », instauré en 2010, qui permet au président de l’Autorité de régulation des jeux en ligne, après avoir enjoint, en vain, les hébergeurs de prendre toute mesure propre à empêcher l’accès à un site de jeux ou de paris en ligne illégal, de demander au président du TGI de Paris d’ordonner, en la forme des référés, l’arrêt de l’accès à ce site aux FAI ainsi que « toute mesure destinée à faire cesser le référencement du site » de l’opérateur par un moteur de recherche ou un annuaire ([135]) ;
– le référé « services d’investissement en ligne », ouvert depuis 2016 ([136]) au bénéfice du président de l’Autorité des marchés financiers à l’égard des sites d’investissement en ligne illégaux et identique au référé « jeux en ligne », à l’exception de la possibilité de demander le déréférencement de ces sites ([137]) ;
– le référé « consommation », permettant à la direction générale de la concurrence, de la consommation et de la répression des fraudes, depuis 2014 ([138]), de saisir le président du TGI de Paris, en référé ou sur requête, afin qu’il ordonne aux hébergeurs ou aux FAI « toutes mesures proportionnées propres à prévenir un dommage ou à faire cesser un dommage causé par le contenu d’un service de communication au public en ligne » ([139]).
2. Le dispositif proposé
Le présent article vise à compléter les possibilités offertes par la loi pour la confiance dans l’économie numérique de restreindre l’accès à des contenus haineux, à travers deux modifications du 8 du I de son article 6.
a. La clarification des règles applicables au référé « internet »
Le 1° supprime le principe de subsidiarité qui semble résulter de la rédaction de la disposition relative au référé « internet », qui prévoit que l’autorité judiciaire peut prescrire à tout hébergeur « ou, à défaut », à tout FAI les mesures propres à prévenir ou faire cesser un dommage résultant d’un contenu litigieux.
La nouvelle rédaction proposée, en autorisant le juge à prescrire toute mesure utile indifféremment à l’hébergeur ou au FAI, permettra de clarifier le droit applicable, d’unifier la jurisprudence et d’accélérer la mise en œuvre d’une décision de blocage judiciaire.
b. Le blocage et le déréférencement administratifs de reproductions de contenus précédemment jugés haineux
Le présent article entend également remédier aux insuffisances du droit actuel en matière de réapparition de contenus haineux jugés comme tels par une décision définitive de l’autorité judiciaire. En effet, en l’état du droit, une nouvelle procédure judiciaire doit être enclenchée pour obtenir le blocage d’un nouveau site reprenant, à l’identique, ces contenus.
Cette situation conduit, à titre d’exemple, à la réapparition régulière de sites comme celui de Démocratie participative, interdit en novembre 2018 mais qui fait l’objet, depuis lors, de duplications de sites analogues sous différents noms de domaine.
C’est la raison pour laquelle le 2° étend la faculté de procéder au blocage ou au déréférencement de contenus jugés illicites, pour viser en particulier les « sites miroirs » dupliquant des contenus précédemment jugés comme tels.
Pour ce faire, il habilite l’autorité administrative à enjoindre aux FAI ainsi qu’à tout fournisseur de noms de domaine de bloquer l’accès à tout site, serveur ou à tout autre procédé électronique « permettant d’accéder aux contenus pour lesquels une décision passée en force de chose jugée a été rendue ou donnant accès aux contenus jugés illicites par une décision passée en force de chose jugée ».
L’autorité administrative pourrait également exiger des moteurs de recherche ou annuaires qu’ils déréférencent les adresses électroniques renvoyant ou donnant accès à de tels contenus.
Cette disposition reprend la recommandation n° 10 du rapport remis au Premier ministre par M. Karim Amellal, votre rapporteure et M. Gil Taïeb sur le renforcement de la lutte contre le racisme et l’antisémitisme.
Dans l’intention des auteurs de la proposition de loi, cette disposition n’a vocation à s’appliquer qu’aux contenus manifestement haineux visés à l’article 1er.
3. L’avis du Conseil d’État
Afin de lever les obstacles constitutionnels – destinés à protéger la liberté d’expression – et conventionnels – le droit de l’Union européenne interdisant d’imposer une obligation générale de surveillance – s’opposant à l’interdiction de « contenus miroirs » sans intervention d’un juge, le Conseil d’État, « plutôt que de prévoir une injonction administrative, propose que le juge saisi de conclusions visant au retrait de contenu ou à l’interdiction d’accès à un site puisse également être saisi d’une demande d’interdiction de toute reprise partielle ou totale de ce qu’il aura interdit » ([140]).
4. La position de la Commission
Sur proposition de votre rapporteure et dans le prolongement des observations formulées par le Conseil d’État dans son avis, la Commission a réécrit les dispositions visant à lutter contre la duplication de sites jugés illicites, afin de renforcer la place de l’autorité judiciaire dans ce dispositif.
Sur la forme, ces dispositions ont été déplacées au sein d’un nouvel article 6-4 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, pour assurer la cohérence d’ensemble des règles applicables à la lutte contre les contenus illicites en ligne.
Sur le fond, trois modifications ont été apportées au dispositif initial :
– son champ d’application a été cantonné aux seuls contenus haineux visés par la proposition de loi ;
– le juge judiciaire qui se prononcera sur le retrait d’un contenu haineux devra « habiliter » l’autorité administrative, en l’espèce l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication, à demander aux fournisseurs d’accès à internet, aux fournisseurs de noms de domaine et aux moteurs de recherche de prendre les mesures nécessaires pour empêcher l’accès à tout contenu identique à celui jugé illicite ;
– en cas de difficulté, en particulier sur la nature identique en tout ou partie des contenus à bloquer ou à déréférencer par rapport à des précédents jugés illicites, l’autorité judiciaire, saisie en référé ou sur requête, pourra ordonner le blocage ou le déréférencement des contenus litigieux.
*
* *
Article 6 bis
(art. L. 312-9 du code de l’éducation)
Sensibilisation des élèves à la lutte contre la diffusion de la haine en ligne
Introduit par la Commission
Résumé du dispositif et effets principaux
L’article 6 bis, issu de l’adoption d’un amendement de la commission des Affaires culturelles et de l’éducation avec l’avis favorable de votre rapporteure, précise que la lutte contre la diffusion de messages haineux en ligne devra faire partie du programme scolaire.
—
Le présent article complète l’article L. 312-9 du code de l’éducation, relatif à la formation à l’utilisation responsable des outils et des ressources numériques, afin que la lutte contre la diffusion de messages haineux en ligne en fasse désormais partie.
Cette formation doit déjà comporter « une éducation aux droits et aux devoirs liés à l’usage de l’internet et des réseaux, dont la protection de la vie privée et le respect de la propriété intellectuelle, de la liberté d’opinion et de la dignité de la personne humaine », contribuer « au développement de l’esprit critique et à l’apprentissage de la citoyenneté numérique » et sensibiliser « sur l’interdiction du harcèlement commis dans l’espace numérique, la manière de s’en protéger et les sanctions encourues en la matière ».
*
* *
Article 6 ter
(art. L. 721-2 du code de l’éducation)
Formation des enseignants en matière de lutte contre la haine en ligne
Introduit par la Commission
Résumé du dispositif et effets principaux
L’article 6 ter, qui résulte de l’adoption d’un amendement de la commission des Affaires culturelles et de l’éducation avec l’avis favorable de votre rapporteure, vise à renforcer la formation des enseignants en matière de lutte contre les contenus haineux en ligne.
—
Le présent article modifie les dispositions de l’article L. 721-2 du code de l’éducation relatives aux missions des écoles supérieures du professorat et de l’éducation.
Parmi ces missions figurent notamment l’organisation de formations de sensibilisation à l’égalité entre les femmes et les hommes, à la lutte contre les discriminations ou à la manipulation de l’information.
Le présent article ajoute à celles-ci les formations de sensibilisation à la lutte contre la haine en ligne.
*
* *
Chapitre V (nouveau)
Dispositions finales
Article 7
Rapport sur l’exécution de la loi et les moyens consacrés
à la lutte contre les contenus illicites
Adopté par la Commission sans modification
Résumé du dispositif initial et effets principaux
L’article 7 prévoit que le Gouvernement devra présenter au Parlement, chaque année, un rapport sur l’exécution des dispositions qui précèdent et les moyens consacrés à la lutte contre les contenus illicites, y compris en matière d’éducation, de prévention et d’accompagnement des victimes.
—
Le présent article n’a pas été modifié par la Commission.
*
* *
Supprimé par la Commission
Résumé du dispositif initial et effets principaux
L’article 8 a pour objet de compenser les éventuelles pertes de recettes pour l’État qui pourraient résulter de la mise en œuvre des dispositions qui précèdent. Il prévoit, à cette fin, la création d’une taxe additionnelle aux droits sur les tabacs, prévus aux articles 575 et 575 A du code général des impôts.
—
Le présent article a été supprimé par la Commission, qui a adopté à cet effet un amendement du Gouvernement ayant reçu un avis favorable de votre rapporteure.
*
* *
Article 9
Modalités d’entrée en vigueur
Introduit par la Commission
Résumé du dispositif et effets principaux
L’article 9, issu de l’adoption d’un amendement de votre rapporteure, règle les modalités d’entrée en vigueur des dispositions de la présente proposition de loi.
—
Le présent article prévoit que les dispositions relatives à l’obligation de retrait en 24 heures des contenus manifestement haineux, telle qu’elle est prévue par les articles 1er à 1er ter, et celles de l’article 6 portant sur la lutte contre la duplication de contenus jugés illicites entreront immédiatement en vigueur.
En revanche, les autres dispositions de ce texte verront leur entrée en vigueur reportée :
– au 1er janvier 2020 pour les dispositions relatives au devoir de coopération des grandes plateformes en ligne et de celles relatives à la régulation administrative de ces plateformes par le Conseil supérieur de l’audiovisuel (CSA), afin de permettre aux acteurs concernés de s’adapter à ce nouveau cadre juridique (articles 2 et 3, I et I bis de l’article 4) ;
– au 1er janvier 2021 s’agissant du transfert au CSA du contrôle de la mise en œuvre des dispositions de l’article 6‑1 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques, afin de laisser à cette autorité et à la Commission nationale de l’informatique et des libertés – aujourd’hui compétente – le temps de s’organiser (I ter de l’article 4).
— 1 —
AUDITION DE M. CÉDRIC O, SECRÉTAIRE D’ÉTAT
CHARGÉ DU NUMÉRIQUE
Réunion du mercredi 5 juin 2019 à 11 heures 15
La Commission auditionne M. Cédric O, secrétaire d’État auprès du ministre de l’Économie et des Finances et du ministre de l’Action et des Comptes publics, chargé du Numérique.
Lien vidéo : http://assnat.fr/4mhe58
Mme la présidente Yaël Braun-Pivet. Nous avons le plaisir d’accueillir M. Cédric O, secrétaire d’État chargé du numérique.
Parmi vos attributions figurent de nombreuses questions relevant de la compétence de la commission des Lois qui a déjà examiné par le passé plusieurs projets de loi en lien avec le numérique : la loi du 5 octobre 2007 pour une République numérique ; la loi du 20 juin 2018 pour la protection des données personnelles dont la rapporteure était une commissaire aux lois, Mme Paula Forteza, et qui a permis d’adapter notre droit au nouveau cadre européen posé notamment par le règlement général sur la protection des données (RGPD) ; la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information dont nous avons eu à débattre sur le rapport de Mme Naïma Moutchou avec la commission des Affaires culturelles.
Nous avons également auditionné Mme Marie-Laure Denis avant sa nomination en qualité de présidente de la Commission nationale de l’informatique et des libertés (CNIL) par le Président de la République, en vertu de l’article 13 de la Constitution.
Le numérique a changé les conditions d’exercice de plusieurs droits fondamentaux, notamment la liberté d’expression, la liberté d’entreprendre et la liberté d’association, mais il a également pour effet de modifier l’équilibre entre les libertés individuelles et la sauvegarde de l’ordre public.
S’il existe un point commun à l’ensemble de ces sujets et aux problématiques concrètes auxquelles sont confrontés nos concitoyens, il réside sans doute dans la question du rôle des grandes plateformes. Comment ne pas voir que les réseaux sociaux, les moteurs de recherche, les places de marché, les sites de partage de contenus jouent aujourd’hui un rôle d’intermédiation majeur qui leur confère un pouvoir important, à la fois économique et prescriptif ? Ce pouvoir nous conduit à interroger le modèle économique de ces plateformes et le cadre de régulation qui leur est applicable. C’est à l’ensemble de ces questions que vous êtes confronté, et c’est également à une partie d’entre elles que notre Commission aura à répondre lorsqu’elle examinera la proposition de loi de notre collègue Laëtitia Avia visant à lutter contre la haine sur internet, sur ces plateformes sont devenus des accélérateurs de contenus odieux ou offensants. Votre audition sera l’occasion d’aborder ce sujet et d’autres, si vous le souhaitez.
M. Cédric O, secrétaire d’État auprès du ministre de l’Économie et des Finances et du ministre de l’Action et des Comptes publics, chargé du Numérique. Je vous propose de centrer la discussion sur la proposition de loi relative à la lutte contre la haine sur internet.
Permettez-moi de partager avec vous l’une de mes convictions : si les seuls pays efficaces pour réguler les grandes plateformes numériques sont les pays autoritaires, ce n’est pas une bonne nouvelle pour les démocraties. Tous les pays du monde sont confrontés au problème de la régulation des grandes plateformes numériques. Nous exposons régulièrement l’impuissance des États et des autorités publiques face à ces grandes plateformes, pour des raisons qui tiennent à des difficultés techniques, au droit international, au droit communautaire et à la rapidité d’intervention.
Aucun pays développé n’a réussi à régler cette question au bon niveau. Cependant nous avons une obligation de résultat. Nous allons poser les bases d’un système efficace qui pourra ensuite être étendu au niveau européen, qui est l’échelon pertinent pour réguler dans ce domaine. Nous devons trouver un équilibre entre liberté d’expression et protection des citoyens. Or les différents pays du monde, et en particulier les pays européens, n’ont pas la même sensibilité sur ce sujet.
Il faut envisager la question de la régulation des contenus en ligne de manière holistique. Si certaines dispositions doivent être prises au niveau législatif, pour d’autres ce niveau n’est pas pertinent. Quelles dispositions légales pouvons-nous prendre ? Parmi celles-ci, lesquelles doivent être prises dans le cadre de la proposition de loi présentée par Mme Laëtitia Avia et dans le projet de loi sur l’audiovisuel ? La question du régulateur sera examinée dans le projet de loi sur l’audiovisuel avant la fin de l’année. Nous devons en effet réfléchir aux rôles respectifs de l’Autorité de régulation des communications électroniques et des postes (ARCEP), du Conseil supérieur de l’audiovisuel (CSA) et de la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (HADOPI).
En revanche, la question de la régulation sera définie dans la proposition de loi de Mme Avia. Notre politique repose sur quatre piliers : punir les auteurs ; responsabiliser les plateformes ; accompagner les victimes ; sensibiliser et éduquer les Français.
Premièrement, aujourd’hui, celui qui insulte ou menace une personne en ligne bénéficie d’une quasi-impunité, pour diverses raisons. En effet, il est techniquement difficile d’identifier les auteurs. En outre, certaines actions ne relèvent pas de ce qui est juridiquement qualifié d’infraction. Nous sommes également contraints par des accords avec les États-Unis, car la plupart de ces grandes plateformes sont américaines. Enfin, nous avons un problème de réactivité : un raid diffuse des milliers d’insultes à caractère illicite en quelques secondes, tandis que la justice est lente à réagir. Nous devons trouver un moyen de transférer au numérique la peur du gendarme qui retient chacun de menacer ou d’insulter quelqu’un dans la rue. C’est d’abord un problème d’organisation et d’efficacité de la justice, qui doit améliorer la gestion de la temporalité et la masse. Les textes actuels permettent d’obtenir l’identité de quelqu’un qui passe les bornes, mais les délais sont trop longs et les plateformes ne sont pas toutes coopératives.
En ne considérant que le retrait des contenus publiés, on met la poussière sous le tapis. En effet, 90 % des contenus homophobes ou racistes sur Facebook sont retirés par les modérateurs. Nous nous trouvons dans la situation paradoxale d’essayer de punir ceux qui publient des contenus qui n’ont pas été retirés par les plateformes, sans punir les pires contenus, tels que des images d’égorgement ou des menaces de mort, qui ont été retirés par la modération.
Nous examinons actuellement quelles mesures peuvent être prises par la loi et quelles dispositions doivent être prises à un autre niveau, car la plupart des dispositions pour punir les auteurs ne sont pas de nature législative.
Si on veut faire en sorte que le niveau de violence sur internet et, in fine, dans la société, diminue, il faut en appeler à la responsabilité individuelle des personnes. Il faut donc que celles-ci sachent qu’elles courent un risque sérieux de se retrouver devant la justice si elles vont trop loin. La comparution en justice permet de trouver un équilibre avec les droits de la défense. En effet, renvoyer la responsabilité aux grandes plateformes peut donner l’impression de privatiser une partie de ce qui relève de la responsabilité de l’État.
Deuxièmement, il faut responsabiliser les plateformes. Les grandes plateformes sont actuellement responsables à deux titres des contenus qu’elles diffusent. D’abord, elles permettent une diffusion extrêmement rapide des contenus : des contenus racistes, antisémites ou homophobes peuvent être diffusés à plusieurs dizaines de milliers de personnes en quelques heures. Nous devons pouvoir les retirer. Ensuite, elles accélèrent leur diffusion puisqu’elles proposent elles-mêmes des contenus, dont certains contenus violents, car ce sont ceux qui « marchent » le mieux. Un certain nombre d’initiatives ont été prises, mais ce problème n’a encore été résolu par personne.
En particulier, le système allemand n’a pas fait la preuve de son efficacité. Il impose des amendes extrêmement élevées — de l’ordre de 50 millions d’euros — aux plateformes qui ont diffusé un contenu illicite. Cependant, le filtrage de la totalité des contenus est techniquement impossible. En outre, cette disposition conduit les plateformes à retirer trop de contenus et porte par conséquent atteinte à la liberté d’expression et à la démocratie : tous les contenus « gris » sont retirés par avance par les plateformes. Par exemple, Charlie Hebdo ne passe jamais la barre. On peut penser que le degré de violence sur internet justifie de telles mesures, mais en réalité ces dispositions risquent en outre d’être inapplicables. En effet, le juge sanctionnera le retrait illégitime de certains contenus. Les grandes plateformes seront alors prises en tenaille entre une loi qui sanctionne très sévèrement les contenus illégaux et une jurisprudence qui sanctionne le retrait de contenus licites. Les compliance departments des plateformes américaines ne peuvent pas gérer une telle situation.
L’approche qui consiste à sanctionner uniquement les contenus individuels rencontre donc des limites. C’est pourquoi nous souhaitons développer une régulation systémique. Nous demandons aux grandes plateformes d’avoir un mécanisme de modération automatique et humain « au bon niveau ». Le régulateur devra déterminer ce qu’il faut entendre par cette expression, car le fixer dans la loi ne permet pas de s’adapter aux évolutions rapides de l’économie de l’internet.
La situation est analogue à celle de la régulation bancaire. Une banque n’est pas tenue pour responsable de chaque virement frauduleux, mais elle doit mettre en œuvre un mécanisme de supervision qui détecte efficacement de tels virements. Si elle ne le fait pas, elle est sévèrement sanctionnée. De même, l’ARCEP et la CNIL ne se prononcent pas sur des cas individuels mais sur les défaillances systémiques des grands opérateurs. Ces dispositions, couplées avec celles qui renforcent la responsabilité individuelle, constitueront un système efficace.
Troisièmement, nous devons accompagner les victimes. Aujourd’hui, le moins que l’on puisse dire est que le parcours des victimes de harcèlement sur internet n’est pas linéaire. Là encore, des dispositions doivent être prises à d’autres niveaux qu’au niveau législatif. La proposition de loi de Mme Avia et le discours du Président de la République au Conseil représentatif des institutions juives de France (CRIF) sont importants, car ce sujet doit être inscrit dans l’agenda politique et médiatique. Des débats publics doivent se tenir pour que les gens sachent que l’on n’a pas le droit d’insulter en ligne. En effet, nous constatons que les quelques personnes qui ont été poursuivies, par exemple celles qui ont harcelé Nadia Daam, sont très étonnées de l’être. Il faut que les Français prennent conscience qu’il est interdit de menacer et d’insulter quelqu’un en ligne, comme c’est interdit dans la rue.
Quatrièmement, il y a un volet éducatif. Il faut introduire des informations sur ces sujets dans la réforme sur l’informatique à l’école présentée en début d’année ou éventuellement dans le service national universel, mais là encore, cela ne relève pas nécessairement du niveau législatif.
Le champ couvert par la loi sera nécessairement assez restreint, suite à l’avis du Conseil d’État. En effet, par souci de cohérence avec le droit européen, il convient de ne légiférer que sur les injures portant atteinte à la dignité humaine. C’est pourquoi le cyber-harcèlement ne fait pas partie du champ de la loi.
Enfin, cette proposition de loi est une base, une étape, et non une norme définitive. Nous ne sommes qu’au début du processus de régulation.
Mme la présidente Yaël Braun-Pivet. Je donne la parole à Mme Laetitia Avia, après quoi je la donnerai à ceux de nos collègues qui souhaitent intervenir.
Mme Laëtitia Avia. Je vous remercie, monsieur le secrétaire d’État, pour vos propos qui témoignent de la hauteur de nos exigences. Comme vous l’avez dit, la proposition de loi que nous examinerons en commission des Lois le 19 juin prochain a pour objet d’obliger les plateformes à retirer les contenus haineux, sans qu’elles portent atteinte à la liberté d’expression.
Cette proposition de loi vise à protéger les droits fondamentaux. Au-delà de l’argument juridique, la notion de dignité humaine est l’âme de ce texte. Il s’agit en effet de protéger les personnes pour ce qu’elles sont et non pas pour ce qu’elles peuvent dire ou penser. Le texte devra être étendu au harcèlement sexuel en ligne.
Les attentats de Christchurch ont rappelé, de manière horrible, le problème posé par les contenus diffusés en direct. C’est une réalité quotidienne. La plateforme Periscope, par exemple, diffuse très régulièrement des agressions homophobes. Personnellement, je n’ai utilisé Facebook Live que deux fois, parce qu’à chaque fois j’ai reçu un torrent de commentaires haineux en direct — je considère que je suis, d’une certaine manière, bridée dans ma liberté d’expression et d’utilisation de Facebook Live par ces commentaires. Comment pensez-vous qu’il convient de réguler les contenus diffusés en direct ?
Nous n’avons pas de contrôle sur les contenus qui sont retirés par la modération des plateformes. Nous ne savons pas s’il y a des atteintes aux droits et comment poursuivre les auteurs. Comment pensez-vous que nous pouvons avancer sur ce sujet ?
Mme George Pau-Langevin. On dit souvent qu’il existe déjà une régulation contre la haine en ligne. Pourriez-vous faire le point sur la loi existante sur l’économie numérique ? Pourquoi, de votre point de vue, est-elle inefficace ?
S’agissant de la situation allemande, ne pourrait-on pas envisager que les plateformes retirent des contenus de manière conservatoire qui serait ensuite confirmée ou infirmée par le juge ? Quels problèmes poserait un tel dispositif ?
M. Philippe Latombe. Vous avez abordé la suppression par anticipation de contenus par les plateformes au titre de leurs conditions générales d’utilisation. En France, Facebook a censuré la diffusion de tableaux célèbres. Le tribunal a considéré que la rédaction des conditions générales d’utilisation de Facebook posait problème, mais il ne s’est pas prononcé sur la possibilité de diffuser des œuvres artistiques. Vous l’avez évoqué à travers Charlie Hebdo : la régulation interdira-t-elle les caricatures de Mahomet ? La régulation de ce domaine pose un vrai problème de libertés publiques. Il faut se demander si les conditions générales d’utilisation doivent continuer d’être la base de la modération ou de la censure par les plateformes. Comment ce système peut-il fonctionner ?
La proposition de loi a fait l’objet d’un avis du Conseil d’État. Serait-il possible de demander l’avis préalable de la CNIL ? En effet, cette proposition de loi touche à la question de la protection des données, notamment à l’automatisation des systèmes de retrait. Le retrait automatique peut entrer en contradiction avec le RGPD tel que nous l’avons adopté l’an dernier.
M. Pierre Morel-à-l’Huissier. Pouvez-vous nous expliquer quel est le pouvoir du juge des référés en matière de numérique ?
Mme la présidente Yaël Braun-Pivet. Je redonne la parole à Laëtitia Avia, qui souhaite intervenir sur la saisine de la CNIL.
Mme Laëtitia Avia. La CNIL a été entendue deux fois dans le cadre des travaux parlementaires et elle a indiqué que le texte n’entrait pas dans son champ de compétences.
M. Cédric O, secrétaire d’État chargé du numérique. Sur la question des juges des référés, j’avoue ne pas pouvoir apporter une réponse suffisamment précise d’un point de vue juridique.
Il me semble prématuré de légiférer sur le contenu diffusé en direct, pour deux raisons. D’abord, le problème ne réside pas tant dans la diffusion en direct que dans le caractère viral du contenu. À Christchurch, l’assassin a diffusé la tuerie pendant quatorze minutes, vidéo qui a été vue en direct par 4 000 personnes ; mais le problème principal tient au fait que, dans les 24 heures suivantes, Facebook a dû retirer 1,5 million de copies de cette vidéo. Cependant il est vrai que la conservation des contenus pose un véritable problème, car certains peuvent disparaître sans avoir été sanctionnés. Les contenus, qu’ils aient été refusés par la modération ou publiés, doivent être conservés par les plateformes pour permettre à la justice de faire son travail, sous la supervision du régulateur et de la CNIL pour que l’on ne porte pas atteinte à la vie privée.
La modération préalable par les plateformes fera l’objet de la supervision par le régulateur dans le cadre de la proposition de loi de Mme Avia. Le régulateur jugera du bon équilibre de la politique de la modération de la plateforme. Tout le problème est de mettre en place un régulateur qui soit techniquement compétent et juridiquement habilité.
Madame Pau-Langevin, la loi du 7 octobre 2016 pour une République numérique dispose que la plateforme a l’obligation de retirer promptement des contenus manifestement illicites. Ce qu’il faut entendre par « promptement » n’est pas précisé, et la loi ne définit aucune obligation de moyens. Les sanctions ne sont pas dissuasives et elles ne sont pas appliquées. Dans les faits, la loi existante n’a aucun effet sur la publication des contenus.
La loi allemande oblige les plateformes à retirer en un temps très court les contenus, sous peine de sanctions pour chaque contenu diffusé. Les départements juridiques américains refusent alors de prendre le moindre risque d’être condamnés et pratiquent des retraits massifs. Les délais pour que soit rendue une décision de justice sont tels que les contenus qui sont finalement publiés le sont à contretemps. Il faut trouver le chemin de crête qui assure l’équilibre entre liberté d’expression et protection des citoyens.
Monsieur Latombe, ce sont effectivement les conditions générales d’utilisation qui priment aujourd’hui. Il est vrai que L’Origine du monde a été retirée parce qu’elle ne correspondait pas à ces conditions ; je ne pense pas que les caricatures de Charlie Hebdo le soient pour les mêmes raisons, mais je suis certain qu’elles seraient censurées si nous mettions en place un système comparable au système allemand.
Il est difficile de modifier ces conditions en fonction des différentes cultures nationales, car on considère aux États-Unis, entre autres, que, puisque ces plateformes appartiennent à la sphère privée, personne n’est obligé de les utiliser, et que si quelqu’un choisit de le faire, il doit respecter les conditions générales d’utilisation.
Nous sommes tous confrontés à de très grandes difficultés de jugement sur des contenus particuliers. Si l’on veut que les plateformes appliquent efficacement la loi, il faut instituer une zone d’échanges entre les plateformes, l’administration, la justice et probablement des acteurs privés de la société civile qui donnent un avis sur le caractère licite ou non d’un contenu. Il ne nous paraît pas souhaitable que ce soient les plateformes qui décident de ce qui est légal ou illégal. Nous devons répondre à leur besoin de se tourner vers une instance qui détermine ce qui est licite, instance dont nous pensons qu’elle doit être un cénacle constitué par l’État et la société civile, conçu en relation très étroite avec le régulateur. Un tel dispositif est déjà en place pour le terrorisme.
Mme Laëtitia Avia. Le fait est que le référé civil existe, mais cela reste une procédure judiciaire qui prend du temps et qui ne permet pas de traiter la masse de contenus haineux. Ainsi, en 2016, 269 condamnations pour injures racistes sur internet ont été rendues.
Mme Caroline Abadie. Le rapport remis l’an dernier par Laëtitia Avia, Karim Amellal et Gil Taieb évoquait la création d’un observatoire de la haine qui permettrait d’étudier les comportements haineux sur internet qui diffèrent largement des comportements dans la rue. Il examinerait aussi comment contrer ces comportements et nourrir le contre-discours, en particulier sur les réseaux sociaux, qui constituent désormais le premier vecteur de communication. Avant cette proposition de loi, nous avions étudié les fake news et le harcèlement en ligne. Ces sujets se recoupent, car ces comportements constituent une attaque contre notre démocratie et le vivre ensemble. La publication de ces contenus haineux, erronés et mensongers pose problème, car l’enfermement algorithmique a pour effet que celui qui a lu ces contenus les retrouvera plusieurs fois, éventuellement les colportera lui-même, voire même passera à l’acte. Que pensez-vous donc de créer un observatoire de la haine ? Quel serait son périmètre d’action ?
Mme Danièle Obono. L’interopérabilité des grandes plateformes, idée défendue par un certain nombre de collectifs de l’internet libre, serait une alternative à la responsabilisation dont vous parlez. En effet, étant donné la nature et le nombre des communications simultanées, il est très difficile pour les plateformes de réguler effectivement. L’interopérabilité permettrait aux victimes de cyber-attaques de se retirer de ces plateformes tout en gardant le lien social que ces réseaux permettent d’entretenir.
M. Erwan Balanant. Ne cherchons-nous pas à contrôler un domaine qui ne peut pas l’être ? L’espace virtuel est un espace public, comme l’espace de la rue. Or dans la rue, on ne contrôle pas ce que chacun dit, mais on prend des mesures quand un comportement illicite a été signalé. Je crains qu’un traitement automatisé en amont bride vraiment la liberté d’expression.
Par ailleurs, je suis effaré que certaines personnes condamnées en aient été surprises. C’est le signe que la société a pris du retard sur la technologie, comme l’a écrit Paul Virilio. Ces questions de savoir-vivre sur les réseaux sociaux doivent être traitées à l’école, dès le plus jeune âge.
Du reste, le harcèlement scolaire est exclu par votre texte, puisqu’il ne relève pas nécessairement de la haine ou du racisme. Cependant il faut en protéger les enfants : on les protège aussi de ce qu’ils pourraient devenir et on prévient des comportements néfastes sur les réseaux.
M. Pacôme Rupin. Dire que la liberté d’expression sur internet n’est pas la même qu’ailleurs, c’est légitimer des discours de haine, qui peuvent parfois entraîner des actes violents.
Si la France est attachée à la liberté d’expression, celle-ci est encadrée : on ne doit pas offenser ou discriminer individuellement quelqu’un pour ce qu’il est. Notre droit sanctionne tout propos raciste ou homophobe ; il doit s’appliquer également sur internet.
Beaucoup pensent que les règles sur internet doivent être dérogatoires, moins strictes que dans d’autres domaines, parce qu’internet serait virtuel. Il faut rappeler qu’internet, c’est la vie réelle, et que quelqu’un qui tient des propos racistes sur internet est quelqu’un qui tient des propos racistes, tout simplement. Il doit évidemment être sanctionné.
En revanche, il est vrai que le dispositif à mettre en place pour lutter contre la haine sur internet est spécifique. Je soutiens comme vous que la modération des plateformes ne suffit pas à régler le problème. Nous devons donc mettre en place un système judiciaire efficace. Comment faire en sorte que les victimes puissent porter plainte et que la justice réponde plus rapidement ?
M. Stéphane Peu. Les médias sont des lieux de communication semblables aux autres. Or, dans la presse, le directeur de la publication est responsable de ce qui est publié et il peut être sanctionné. Il existe donc dans le droit de la presse des outils efficaces, qui ont beaucoup évolué avec le temps, et qui pourraient par extension être appliqués aux contenus numériques. Pensez-vous que l’on puisse trouver un équivalent de cette responsabilisation pour internet ?
En second lieu, quelle est votre réflexion sur la question de l’anonymat ? Ma propre réflexion sur ce point n’est pas arrêtée : c’est un sujet important pour la liberté d’expression, mais on sait également, si l’on pense au rôle des lettres anonymes dans l’histoire de notre pays, que l’anonymat peut poser problème.
M. Jean Terlier. Nous constatons également qu’il est nécessaire de légiférer pour lutter contre la haine sur internet. La plupart des parlementaires en ont eux-mêmes fait l’expérience, dans leur engagement, ou comme parents d’adolescents, souvent effarés par les échanges des collégiens.
Comment mettre en place la prévention contre la haine en ligne ? Même des étudiants en quatrième année d’études ne comprennent pas pourquoi, lorsqu’ils reçoivent un contenu haineux, ils ne peuvent pas répondre de la même façon.
Mme Cécile Untermaier. Au moment où nous mettons en place l’Assemblée parlementaire franco-allemande, je constate avec regret que nous n’élaborerons pas pour l’instant un dispositif commun dans ce domaine, car nous ne sommes qu’aux premières étapes de la mise en place d’un système très complexe. J’ai cependant apprécié votre humilité.
Quels moyens envisagez-vous pour poursuivre effectivement les auteurs ? La justice est à bout de souffle, malgré les efforts de programmation budgétaire.
La traçabilité est-elle garantie, que l’on utilise ou non un pseudonyme ?
Mme Naïma Moutchou. Si, dans l’ensemble, le développement des réseaux sociaux est une bonne nouvelle pour la liberté d’expression, en revanche, on ne peut pas tolérer qu’ils soient un exutoire pour des propos haineux, racistes, antisémites ou homophobes. La proposition de loi prévoit un certain nombre de dispositifs efficaces. Le Président de la République a évoqué en février dernier la possibilité d’interdire aux auteurs de propos racistes ou antisémites de recréer un compte sur ces réseaux, comme on interdit à des hooligans qui ont été condamnés de pénétrer dans les stades. Cette proposition est très intéressante mais sa mise en œuvre pose un certain nombre de problèmes, pour éviter le contournement, notamment, et parce qu’elle pourrait obliger à fournir une pièce d’identité au moment de créer un compte. Quelle est votre position sur ce sujet ?
Mme Isabelle Florennes. Les jeunes constituent un public particulièrement fragile. Il y a des lacunes dans la prévention. En outre, beaucoup de propos haineux sont véhiculés par des messageries instantanées qui ne laissent pas de traces apparentes. Quelle est la traçabilité de ces données ? Une coordination est nécessaire entre l’Éducation nationale et votre ministère.
M. Stéphane Mazars. Pouvons-nous envisager que pèse sur les plateformes une obligation de dénonciation de certains propos qui, aujourd’hui, sont modérés et, par conséquent, ne sont pas poursuivis ?
Si demain on poursuit plus facilement les auteurs de propos haineux, discriminatoires ou diffamatoires, le support sera-t-il la loi de 1881 ? Les juristes y sont très attachés, car c’est une loi d’équilibre qui consacre la liberté d’expression et ses limites. Cependant c’est une loi très technique, dont l’usage n’est pas aisé, même par des professionnels. En particulier, elle impose des délais de prescription très courts, or on sait que l’identification des auteurs de propos discriminatoires sur internet demande du temps. La loi de 1881 peut-elle alors permettre d’atteindre les objectifs recherchés ?
Mme Émilie Guerel. Comme dans le domaine de la lutte contre le piratage ou dans celui de la protection de la vie privée, la France pourrait-elle devenir le fer de lance de la régulation européenne en matière de lutte contre la haine sur internet ?
Pourriez-vous, par ailleurs, nous éclairer sur la charte sur la haine en ligne que la France veut faire adopter au G7 qui se tiendra à Biarritz à la fin du mois d’août ?
M. Rémy Rebeyrotte. Avons-nous un premier retour d’expérience sur les mesures prises dans le RGPD ? En particulier, il était demandé aux plateformes d’expliquer sur leur site en amont les enjeux de l’accès au numérique et ainsi de mettre en œuvre la prévention. Je rappelle que, normalement, avant l’âge de 15 ans, on ne peut pas accéder seul au réseau.
M. Cédric O, secrétaire d’État chargé du numérique. Madame Abadie, il faut favoriser tous les cercles qui permettent une approche concertée. L’observatoire de la haine que vous avez évoqué me paraît donc être une excellente idée. On peut l’expérimenter dès maintenant, à condition de le concevoir en cohérence avec les orientations du projet de loi sur l’audiovisuel.
Madame Obono, la question de l’interopérabilité est vaste et difficile. Comme je l’ai exposé à l’Organisation de coopération et de développement économiques, nous pensons que cette question doit être portée à un niveau européen. Notre démarche actuelle est compatible avec un progrès vers l’interopérabilité, or celui-ci prendra beaucoup de temps. Aujourd’hui, on ne peut envoyer un message Whatsapp qu’à quelqu’un qui est inscrit sur Whatsapp, tandis qu’on peut envoyer un courriel depuis une boîte Gmail vers une boîte Wanadoo. L’interopérabilité permettrait de communiquer depuis Whatsapp avec quelqu’un qui utiliserait une autre plateforme. Cependant, il est difficile de la mettre en œuvre techniquement pour les plateformes qui offrent des fonctionnalités multiples. En outre, elle pose des problèmes de portabilité des données. Elle pose aussi une question de principe : on ne résoudrait pas le problème, on se contenterait de permettre à la victime de se reporter vers un autre réseau. Enfin, elle constitue une agression très importante envers les grandes plateformes, et cela posera par conséquent problème avec nos partenaires chez qui celles-ci sont domiciliées. Je considère donc l’interopérabilité avec une certaine bienveillance, mais je doute qu’elle soit applicable à court terme.
Monsieur Balanant, la gestion automatisée ne s’appliquera qu’au contenu signalé.
Monsieur Peu, si l’on considère les plateformes comme des éditeurs, cela les oblige à lire et à contrôler a priori tout ce qu’elles publient, ce qui pose un problème de liberté publique. Nous estimons qu’il existe une position intermédiaire entre l’absence de régulation et l’édition, qui est celle de l’accélérateur de contenus.
Le premier sujet que j’ai abordé est celui de la responsabilité individuelle, parce que la masse des contenus est telle que la régulation doit reposer sur l’autolimitation. Nous travaillons avec Jean-Michel Blanquer et Gabriel Attal sur l’éducation, qui est fondamentale. En outre, la répression doit faire en sorte que la peur change de côté : ceux qui tiennent des propos haineux doivent avoir peur du gendarme.
Nous n’aborderons pas le harcèlement scolaire, qui est un problème fondamental, dans cette proposition de loi, car celle-ci se fonde juridiquement sur l’interdiction des atteintes à la dignité humaine. En revanche, le harcèlement sexuel peut probablement y être abordé.
Monsieur Rupin, la ministre de la Justice s’est engagée à ce que les victimes puissent déposer des plaintes en ligne à partir du premier semestre 2020. C’est indispensable pour les plaignants et pour les policiers. Aujourd’hui, les plaignants s’adressent au commissariat de proximité, or les policiers n’ont pas tous une très bonne connaissance des outils informatiques. Avec quel compte se connecteront-ils sur Facebook Live ou sur Twitter ? Aujourd’hui, comme ils n’ont aucun moyen de transmettre des informations de manière sécurisée, dans le meilleur des cas, ils font des saisies d’écran, ils les impriment et ils les envoient par la poste.
La ministre de la Justice sera présente lors de l’examen de la proposition de loi ; elle pourra donc répondre plus précisément. Les plaintes seront traitées de manière centralisée, par un personnel bien formé, qui sera en relation directe avec les plateformes.
Par ailleurs, monsieur Peu, nous devons pouvoir identifier les auteurs de contenus haineux, alors qu’actuellement le processus d’identification ne fonctionne pas. Cependant, nous ne souhaitons pas obliger les gens à s’identifier de manière substantielle sur internet. Par exemple, une fille ou un garçon qui veut jouer à League of Legend doit pouvoir le faire sous le nom de « Bisounours 767 » sans être obligé de s’inscrire sous son nom ; un jeune homosexuel qui souhaite consulter des forums doit pouvoir le faire sans s’identifier même auprès de la plateforme ; un lanceur d’alerte doit pouvoir s’exprimer sans être contraint de révéler son identité. Vous avez évoqué les lettres anonymes ; nous étions assez contents à l’époque de n’avoir pas de fichier centralisé qui permette d’établir ce que chacun a fait.
À partir du moment où le juge a identifié un contenu haineux, il faut qu’il puisse obtenir l’adresse IP du possesseur de l’ordinateur, puis, avec cette adresse, obtenir son identité auprès du fournisseur d’accès. Actuellement, chaque étape pose problème : certaines grandes plateformes ne donnent les adresses IP que dans les cas de terrorisme, et si elle disposait de toutes les adresses IP, la justice telle qu’elle est organisée actuellement ne serait pas en mesure de poursuivre tous les auteurs.
Cette proposition de loi ne traitera pas le grand banditisme de l’antisémitisme ou de la haine en ligne. Nous voulons réguler les comportements quotidiens et créer une prise de conscience collective. Les professionnels de l’antisémitisme et de la haine en ligne continueront à se connecter en utilisant des réseaux privés virtuels afin de protéger leur identité.
Monsieur Terlier, je m’engage à vous donner plus de précisions, après concertation avec le ministre de l’éducation nationale et Gabriel Attal, sur ce que nous ferons dans le cadre du service national universel.
Madame Untermaier, je pense que nous parviendrons à un accord européen. La pression politique conduit les gouvernements à prendre des décisions dont la portée n’est pas totalement maîtrisée. Je crois que les Allemands ont désormais compris qu’ils devaient ajuster leur position.
Madame Moutchou, il n’est pas attentatoire aux libertés d’interdire à quelqu’un qui a été condamné pour propos haineux de communiquer sur Twitter et le Président de la République en ayant pris l’engagement devant le CRIF, cette interdiction sera prévue. Mais cela n’est possible que si l’on sait identifier les auteurs, et il s’agit évidemment d’un traitement ex post, après une ou plusieurs condamnations, avec une graduation des peines. Cela me semble proportionné : l’accès à Twitter ne répond pas à un besoin vital.
Monsieur Mazars, les contenus interdits de publication par la modération posent effectivement le problème de leur conservation et de leurs modalités de transmission à la justice. Ce serait un non-sens que les contenus supprimés par la modération soient assurés d’une impunité totale.
À ce stade, nous n’avons pas de volonté de toucher à la loi de 1881, qui ne me semble pas antinomique avec le dispositif que nous mettons en œuvre.
Madame Guerel, nous nous efforçons de progresser au niveau international sur la charte contre la haine en ligne. Pour être honnête, nous ne trouverons pas d’accord avec les Américains sur la régulation des contenus haineux, pour des raisons de culture et d’attachement à la liberté d’expression. Cependant nous voulons nous accorder avec eux sur les modalités de régulation des contenus terroristes, qui aujourd’hui font l’objet d’une régulation européenne et non internationale. Nous voulons également obtenir de la transparence en ce qui concerne l’activité des plateformes sur les autres types de contenus. Nous le porterons au sein du G7, car tous les pays ont des intérêts en la matière.
Monsieur Rebeyrotte, les régulateurs doivent s’approprier le RGPD pour pouvoir l’appliquer. Une première sanction a été prise par la CNIL, qui ne peut juger que les atteintes en France et non en Europe. L’application du RGPD pose également le problème de la réactivité.
M. Rémy Rebeyrotte. Il serait utile de disposer d’une évaluation à moyen terme.
M. Cédric O, secrétaire d’État chargé du numérique. Je suis tout à fait prêt à faire le point avec vous dans six mois, par exemple.
Mme la présidente Yaël Braun-Pivet. Monsieur le secrétaire d’État, nous vous remercions. Je rappelle à nos collègues que le texte sera examiné le 19 juin en Commission, et probablement dans la première semaine de juillet en séance publique.
— 1 —
Première réunion du mercredi 19 juin 2019
Lien vidéo : http://assnat.fr/rPIXCP
La Commission examine la proposition de loi visant à lutter contre la haine sur internet (Mme Laetitia Avia, rapporteure)
Mme la présidente Yaël Braun-Pivet. Nous sommes réunis pour examiner la proposition de loi visant à lutter contre la haine sur internet, déposée par Mme Laetitia Avia, qui en est la rapporteure.
Mme Laetitia Avia, rapporteure. La prolifération de contenus haineux sur internet est un phénomène que nous ne pouvons ignorer, car il nous touche tous. Que ce soit en tant que victimes ou en tant que témoins, nous y avons tous été confrontés à des propos offensants et agressifs.
Lorsqu’ils s’inscrivent dans un débat d’idées et dans les contours de notre liberté d’expression, pilier de nos valeurs démocratiques, ces propos peuvent être dérangeants, sans pour autant être illégaux, mais, lorsqu’ils franchissent les lignes rouges de notre liberté d’expression, qu’ils viennent nous frapper en plein cœur, non pas pour ce que nous disons ou pensons, mais pour ce que nous sommes – noirs, arabes, chinois, juifs, musulmans, homosexuels, handicapés, ou tout simplement femmes –, lorsqu’ils atteignent le cœur de la dignité humaine, ces propos illicites, qui ne sont rien d’autre que la manifestation de la haine la plus abjecte, ne sauraient prospérer impunément.
Tel est l’objet de cette proposition de loi.
Bien entendu, il s’agit non pas d’éradiquer la haine dans notre société mais de l’empêcher de proliférer là où elle s’exprime sans retenue, dans le parfait déni du respect de l’autre, et s’expose à la vue de tous, c’est-à-dire sur internet, en particulier sur les réseaux sociaux. C’est le premier lieu d’expression de la haine aujourd’hui, et nous ne manquons pas d’exemples. Il y a eu, bien sûr, les attentats de Christchurch, qui ont donné lieu à une prise de conscience collective et internationale, mais n’oublions pas tous les actes de haine ordinaire et gratuite, qui font le quotidien des réseaux sociaux – je peux en témoigner. Le dernier rapport de SOS Homophobie est édifiant : 23 % des agressions homophobes ont lieu sur internet – c’est le premier lieu d’expression de la haine. Et, il y a quelques mois, la société de modération Netino sonnait également l’alerte, en relevant une augmentation de 30 % des contenus haineux en un an. Surtout, va-t-on encore longtemps détourner le regard des phénomènes de cyberharcèlement et de cyberviolences qui poussent les plus jeunes et les plus vulnérables à vouloir commettre l’irréparable pour ne plus subir ce torrent de haine ?
Internet est censé être un lieu d’opportunités, d’ouverture, d’échanges, mais cela peut devenir un enfer pour ceux qui ne correspondent pas aux standards fixés par une minorité de « trolls » ou de haters. Certains nous diront : « Vous n’avez qu’à quitter les réseaux sociaux ! » Ce serait limiter la liberté d’expression des victimes de propos haineux. Et je crois que chaque fois que quelqu’un quitte les réseaux sociaux en raison de la haine qu’il y subit, c’est notre liberté d’expression collective qui est mise à mal. On nous dira aussi : « Ce n’est pas grave, c’est internet, ce n’est pas la vraie vie ! » Mais nos usages d’internet font partie intégrante de notre vie, et il nous faut affirmer que nous ne pouvons plus tolérer sur internet ce que nous n’accepterions jamais dans un bus, dans un restaurant, dans l’espace public. Nous avons la responsabilité de tracer ces lignes rouges, et, en somme, d’écrire une nouvelle page d’internet.
Reposant essentiellement sur la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN), qui transposait une directive de 2000, la directive « e‑commerce », notre cadre juridique n’est plus adapté : tout cela était avant Facebook, Twitter, Snapchat, les stories, les lives, les hashtags… avant tout. Ce régime repose sur une dichotomie obsolète entre des éditeurs, à forte responsabilité, et les hébergeurs, régime sous lequel sont placées toutes les plateformes que nous connaissons aujourd’hui et qui ne sont jamais inquiétées. Et si les objectifs de la directive « e-commerce » restent d’actualité, elle n’a jamais visé à mettre en place un système permettant la libre circulation de la haine via les services de communication en ligne. Il est donc de notre devoir de ne plus laisser ce secteur en proie à une autorégulation qui s’essouffle et d’assumer pleinement qu’il est de notre mission de protéger nos concitoyens et de décider de l’héritage que nous laisserons. Pour ma part, je souhaite que cet héritage soit un internet vertueux.
Pour ce faire, j’ai travaillé, depuis maintenant plus d’un an, avec Gil Taieb, vice‑président du Conseil représentatif des institutions juives de France (CRIF), et l’écrivain Karim Amellal pour trouver des solutions concrètes. Nos propositions ont été remises au Premier ministre le 20 septembre 2018. Dans le cadre de cette mission, nous avons rencontré de nombreux acteurs du numérique, institutions, associations de lutte contre les discriminations, dont je tiens ici à saluer le travail. Ces auditions ont été réitérées par votre rapporteure après le dépôt de la proposition de loi. Le dispositif que nous vous soumettons aujourd’hui a donc été bien pesé, il est opérationnel.
Consciente de l’importance des enjeux, j’ai souhaité que le Conseil d’État rende un avis sur cette proposition de loi, et je remercie les rapporteurs Thierry Tuot et Paul-François Schira pour leur accompagnement précieux dans la finalisation du texte qui vous est proposé aujourd’hui. Cet avis, rendu à l’unanimité des membres de l’assemblée générale du Conseil d’État, vient soutenir les objectifs de la proposition de loi, consolider ses dispositifs et ainsi veiller au succès du combat dans lequel nous nous engageons. J’ai déposé plusieurs amendements visant à mettre en œuvre les recommandations du Conseil d’État.
Le texte que nous vous proposons repose sur une disposition clef, qui est son cœur : une obligation de retrait des contenus manifestement illicites en vingt-quatre heures. Ses poumons sont des obligations de moyens, qui viennent assurer la vitalité et l’efficacité de cette obligation de retrait.
Ainsi, à l’article 1er, nous proposons d’ajouter un article à la LCEN pour créer un nouveau délit de non-retrait de contenus manifestement illicites en vingt-quatre heures, applicable aux grandes plateformes et moteurs de recherche, comme le préconise le Conseil d’état. C’est une obligation qui s’applique après le signalement de contenus manifestement illicites, c’est-à-dire d’incitations à la haine ou d’injures à la haine à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle, du handicap. Je sais que vos amendements viendront compléter ce champ d’application, dans le respect total de l’avis du Conseil d’État, qui le limite à l’atteinte à la dignité humaine telle qu’elle ressort de la LCEN actuelle.
À l’article 1er, nous intégrerons une partie des dispositions qui figuraient à l’origine à l’article 2, relatives à la simplification des mécanismes de signalement. L’idée est de simplifier l’« expérience utilisateur » lors de la mise en œuvre de l’obligation de retrait renforcée.
Nous intégrerons ensuite un second chapitre dédié au devoir de coopération des plateformes en ajoutant à la LCEN un nouvel article 6-3. Son objet sera de prévoir : l’obligation de répondre à toute notification ; la mise en place d’un bouton de signalement unique ; l’obligation pour les plateformes d’avoir des moyens humains ou technologiques proportionnés ; un mécanisme de recours interne, initialement prévu à l’article 1er, pour que les utilisateurs puissent alerter les plateformes sur les erreurs d’application de la loi, corriger, contextualiser ou se justifier, et ainsi améliorer le dispositif ; des obligations d’information des utilisateurs sur leurs droits ; une obligation de transparence vis-à-vis du Conseil supérieur de l’audiovisuel (CSA) quant à l’organisation interne adoptée pour lutter contre la haine sur internet, comme le propose le Conseil d’État ; des obligations de coopération judiciaire renforcées, qui figuraient initialement à l’article 5 de la proposition de loi, pour mieux identifier les auteurs de contenus quand ils commettent un délit.
Nous aborderons ensuite un troisième chapitre, relatif au rôle de supervision du CSA dans la lutte contre les contenus haineux. Il sera chargé d’accompagner les plateformes en émettant des recommandations, lignes directrices et bonnes pratiques pour la mise en œuvre de ces obligations. Il assurera leur suivi et publiera un bilan de leur application et de leur effectivité. Comme le souligne le Conseil d’État : « La crédibilité de la régulation administrative confiée au CSA repose sur un pouvoir de sanction ». Celui-ci s’appliquera à tout manquement au devoir de coopération édicté par cette proposition de loi. Je vous présenterai un amendement détaillant l’ensemble de la procédure de sanction, de son ouverture jusqu’au prononcé éventuel d’une amende administrative, dont le montant pourra atteindre 4 % du chiffre d’affaires mondial de l’opérateur, en passant par la mise en demeure.
Enfin, dans un quatrième chapitre, nous améliorerons les dispositifs judiciaires de lutte contre les sites à caractères haineux et leurs sites miroirs. Nous parlons ici de sites tels que le bien trop célèbre « Démocratie participative » dont le nom est aux antipodes de la haine crasse qu’il véhicule. Comme le propose le Conseil d’État, l’intervention du juge en amont et en aval sera précisée dans le texte.
Voici le schéma que nous vous proposons pour lutter contre la propagation des discours de haine sur internet. Il repose sur trois piliers : une responsabilisation des plateformes, largement assurée par ce texte ; une responsabilisation des auteurs de contenus illicites, qui nécessitera une amélioration de la réponse pénale, notamment avec la création d’un parquet spécialisé, mais je vous propose d’aborder cela surtout en séance, en présence de la ministre de la Justice ; une responsabilisation de la société tout entière, car chacun doit être sensibilisé aux enjeux dont nous débattons aujourd’hui.
Mes chers collègues je sais que nos débats seront denses, j’espère surtout qu’ils seront riches et à la hauteur du combat qui transcende largement nos diverses étiquettes et sensibilités, car il nous unit dans cette mission ultime qu’est la protection de la dignité de la personne humaine face à toutes les formes de haine.
Mme Fabienne Colboc, rapporteure pour avis de la commission des Affaires culturelles et de l’éducation. Madame la rapporteure, mes chers collègues, une étude conduite en 2019 par la société de modération Netino sur la haine en ligne estimait, à partir d’un échantillon de commentaires publiés sur vingt-quatre pages Facebook de grands médias français, que 14 % de ces commentaires comportaient des propos haineux ou agressifs. Cela témoigne d’une évolution inquiétante que le législateur doit prendre à sa juste mesure.
C’est tout l’objet de la proposition de loi qui vous est aujourd’hui soumise par notre collègue Laetitia Avia, dont la commission des Affaires culturelles et de l’éducation a souhaité se saisir pour avis. Elle tend à pallier l’impunité quasi-totale dans laquelle évoluent aujourd’hui les auteurs de tels propos sur les plateformes, dont le zèle à combattre les contenus haineux est pour l’heure limité à ce que la loi française rend obligatoire. Dont acte : la proposition de loi rendra obligatoire leur retrait en vingt-quatre heures ! Il est grand temps d’établir une législation efficace pour assurer le respect, par des plateformes virtuelles, de lois conçues pour le monde réel. Se retranchant systématiquement derrière leur statut d’hébergeur, les moteurs de recherche, les réseaux sociaux, les plateformes de partage de contenus mis en ligne par leurs utilisateurs doivent aujourd’hui combattre de façon plus volontaire l’hydre numérique qu’ils ont contribué à créer, car c’est bien leur modèle économique, fondé sur l’exploitation algorithmique de nos données, qui nourrit l’enfermement intellectuel et, partant, l’intolérance croissante aux opinions contraires. Et c’est l’impunité totale des auteurs anonymes de propos haineux sur internet qui favorise leur expression exponentielle mais également leur banalisation dans la vie réelle.
C’est la raison pour laquelle cette proposition de loi comporte plusieurs mesures tendant à renforcer substantiellement les obligations à la charge des opérateurs de plateforme. Ils auront notamment à répondre au CSA, dont les missions sont complétées pour lui permettre d’exercer un contrôle fin de l’action des plateformes en matière de lutte contre la haine en ligne. C’est à ce titre que la commission des Affaires culturelles et de l’éducation a souhaité se saisir pour avis. En effet, les missions du CSA ont été récemment modifiées, notamment par la loi du 22 décembre 2018 relative à la manipulation de l’information, et sont appelées à évoluer à la faveur du futur projet de loi sur la régulation audiovisuelle. Il s’agit donc de veiller à la cohérence de l’ensemble normatif existant et futur, afin de donner à la loi sa pleine efficacité.
Ainsi, je vous proposerai, au nom de ma commission, plusieurs amendements précisant les contours des nouvelles missions confiées au CSA et tendant notamment à ce que la sanction qu’il prononce réponde non plus à l’obligation de résultat imposée aux plateformes mais bien à l’obligation de moyens qui leur est faite. Au-delà, la périodicité des différentes dispositions est précisée : le bilan de la loi effectué par le CSA serait annuel, tandis que la remontée d’informations de la part des plateformes serait, elle, mensuelle. Je vous proposerai aussi de permettre au CSA de rendre publiques tout ou partie de ces informations, soit pour dénoncer une plateforme récalcitrante, soit pour valoriser l’efficacité de ses actions. Je souhaite également que les associations reconnues qui œuvrent aujourd’hui dans le domaine de la lutte contre la haine et les discriminations aient une place de choix auprès du CSA.
Au-delà, c’est bien sûr la compétence de la commission en matière d’éducation et de jeunesse qui justifie sa saisine. J’estime nécessaire de renforcer les outils existants, notamment au sein de l’éducation nationale, pour permettre une prévention adéquate de ces comportements chez les mineurs et assurer leur protection vis-à-vis des contenus haineux auxquels ils sont involontairement, mais de plus en plus fréquemment, exposés. Je vous proposerai ainsi de renforcer les obligations des plateformes qui permettent à des mineurs de moins de quinze ans, âge de la majorité numérique, l’inscription à leurs services. Elles devront obligatoirement sensibiliser les enfants de moins de quinze ans et leurs parents à la diffusion de la haine en ligne et les informer des risques juridiques encourus dans ce domaine. Je crois que c’est là un axe majeur de prévention, car, bien souvent, les parents n’ont qu’une conscience très limitée des risques que leurs enfants encourent dans l’environnement numérique et de la responsabilité juridique qui est aussi la leur en cas d’infraction.
Mme la présidente Yaël Braun-Pivet. Chers collègues, nous abordons la discussion générale. Les porte-parole des groupes disposent chacun de cinq minutes.
Mme Caroline Abadie. Une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ne sont permises ni dans la rue, ni à la télévision, ni à la radio, ni dans la presse. Pourquoi le seraient-elles sur internet ?
Nous examinons aujourd’hui une proposition de loi déposée par notre collègue Laetitia Avia, rapporteure de ce texte. Nous sommes fiers de ce texte dont l’objectif est de protéger la liberté d’expression de tous sur internet. Chaque jour, des femmes, des homosexuels, des personnes de couleur, des juifs, des musulmans ou des personnes handicapées se font insulter sur internet parce qu’ils sont des femmes, des homosexuels, des personnes de couleur, des juifs, des musulmans ou des personnes handicapées. Chaque jour, les auteurs de propos haineux sont de plus en plus nombreux. Et, chaque jour, ils sont de plus en plus odieux.
Nous sommes bien loin des années 2000 où nous pouvions mettre tout ce que nous voulions sur nos « murs » Facebook, sans craindre la malveillance des autres. Chaque jour, les victimes adoptent un ton plus policé, évitent les sujets à risque, modèrent leurs points de vue, jusqu’à se taire. La liberté des uns s’arrête où commence celle des autres, la liberté d’expression aussi, c’est ce qu’affirme cette proposition de loi, c’est ce qu’affirme aussi la loi de 1881 sur la liberté de la presse. Toutefois, il n’est pas question ici de redéfinir ce qu’est une injure ou une incitation à la haine, ce que définit déjà cette grande loi. Qu’elle nécessite une réforme ne fait aucun doute, c’est ce que devra dire la mission lancée par Mme la garde des Sceaux. Quant à nous, et pour l’heure, nous n’y toucherons pas ; cela constitue notre ligne rouge. Il ne serait pas sérieux de réformer la loi sur la liberté de la presse sans une étude approfondie au préalable. Si nous le faisions, les groupes d’opposition pourraient nous reprocher notre impréparation, et ils auraient raison.
En revanche, s’il y a eu un travail sérieux et poussé, c’est bien sur la lutte contre le racisme et l’antisémitisme en ligne, conduit par notre collègue Laetitia Avia en collaboration avec Karim Amellal et Gil Taieb. L’aboutissement de ce travail de près d’un an est le rapport remis au Premier ministre au mois de septembre dernier. C’est le socle de cette proposition de loi. Deux ans après l’Allemagne, mais sans faire de copier-coller de la loi Netzwerkdurchsetzungsgesetz, dite « NetzDG », nous pouvons nous appuyer sur ce rapport et sur l’expérience outre-Rhin pour proposer ce dispositif simple, lisible et que nous voulons efficace.
Le cœur du dispositif – vous le disiez, madame la rapporteure –, c’est l’obligation de retrait sous vingt-quatre heures de tout contenu manifestement illicite et signalé. Cela veut dire que le contenu gris, celui dont on ne sait pas au premier coup d’œil s’il est illicite, n’est pas visé. Nous visons les contenus manifestement illicites, les propos incitant à la haine ou à l’injure discriminatoire. C’est le cœur du dispositif, car c’est cette obligation de retrait qui pèse sur les grands réseaux sociaux qui va les responsabiliser enfin. Et si l’obligation de vingt-quatre heures est le cœur, le signalement est le poumon. Cette procédure de notification se devait donc d’être accessible et simple : c’est le fameux bouton uniformisé qui se présenterait partout de la même façon pour que, d’un réseau social à un moteur de recherche, on retrouve le même design. C’est ensuite le CSA qui régulera. Il aidera les plateformes internet à lutter contre les contenus haineux. Il vérifiera que tout est mis en œuvre pour atteindre les objectifs. Le cas échéant, il sanctionnera. L’échelle des sanctions ira de la mise en demeure jusqu’à l’amende de 4 % du chiffre d’affaires annuel mondial des plateformes.
Par ses amendements, le groupe La République en Marche tentera justement de parfaire le dispositif de notification afin de le rendre plus efficace. Nous proposerons notamment que le bouton soit non seulement facile d’accès mais surtout directement accessible depuis le contenu illicite. Parallèlement, nous voulons que le notifiant soit bien informé de ce qu’il encourt en cas de signalement abusif.
Avec cette proposition de loi, le groupe La République en Marche a clairement la volonté qu’internet ne soit plus une zone de non-droit. Le civisme doit y retrouver sa place, il y va de la liberté d’expression et du pluralisme des expressions. Les réseaux sociaux étant devenus le premier vecteur de communication et d’information du XXIe siècle, sans exagération, il pourrait bien aussi y aller de notre démocratie.
M. Frédéric Reiss. Merci, madame la présidente, de m’accueillir une nouvelle fois en commission des Lois.
Chers collègues, sur internet, le meilleur côtoie le pire. Sa gouvernance est une question centrale pour les droits humains. La proposition de loi cible la lutte contre la haine sur internet, réelle préoccupation au cœur de nos sociétés démocratiques. Les Républicains ont toujours pris position contre le cyberharcèlement et la propagation des messages de haine, d’antisémitisme ou de discrimination en tous genres. Aussi souhaitons-nous que cette proposition de loi puisse apporter des solutions nouvelles, d’autant que 70 % de nos compatriotes disent avoir été confrontés à des propos haineux sur les réseaux sociaux. En commission des Affaires culturelles et de l’éducation, nous avons examiné deux articles dont le texte a été significativement bouleversé par rapport au texte initial. Madame la rapporteure, vous venez de dire que vous avez déposé plusieurs amendements ; c’est peu dire car on constate, en y regardant de près, que c’est quasiment l’ensemble du texte qui s’en trouvera réécrit. C’est donc en séance publique que nous déposerons d’éventuels amendements. Par son importance, le sujet mérite une grande attention, d’autant plus qu’il intéresse non seulement les Français mais aussi nos voisins européens, voire le monde entier. Nous devons donc aborder ces discussions avec un grand sens des responsabilités.
Membre de l’assemblée parlementaire du Conseil de l’Europe, j’ai conscience que ce débat doit s’inscrire également dans le cadre du respect des droits de l’homme et du citoyen. Dans une démocratie, les individus et les organisations, quelles qu’elles soient, doivent pouvoir s’exprimer, diffuser des informations, des opinions, par le biais des réseaux sociaux, mais on atteint très vite les limites de la liberté d’expression dans les domaines controversés : avec l’incitation à la violence, voire des comportements criminels, sous la forme de la propagande du terrorisme ou du djihadisme, avec les discours de haine en raison de la race, de la religion du sexe ou du handicap. La diffusion des contenus haineux connaît incontestablement une progression exponentielle en l’absence de contrôle ou de sanctions.
La proposition de loi a donc pour objectif d’apporter des solutions, même si la question de la définition d’un contenu offensant ou illicite n’est pas tranchée. Le CSA va jouer un rôle déterminant en matière de sanctions, mais aura-t-il les moyens d’agir sur internet et dans quel délai ? Le fait qu’il se voie attribuer une mission préventive et pédagogique avec l’établissement de lignes directrices et de bonnes pratiques me semble une bonne chose.
J’ai noté avec satisfaction que les recommandations du Conseil d’État quant à la procédure à suivre par le CSA avant le prononcé d’une sanction pécuniaire à l’encontre des opérateurs qui n’auront pas respecté leurs obligations ont été suivies. La possibilité de rendre publiques les mises en demeure et sanctions est aussi une bonne proposition.
La question du contrôle et des sanctions liées au déréférencement des contenus haineux est évidemment centrale. Malgré une politique affichée d’autorégulation via une armada de vérificateurs et autres modérateurs, la réalité montre que les grands acteurs du numérique sont loin d’être exemplaires. Leur faire porter la responsabilité de supprimer tout contenu illicite dans un délai de vingt-quatre heures est l’objectif majeur de cette proposition de loi.
Il est important que les entreprises du net et les médias sociaux se conforment aux obligations juridiques auxquelles les soumet chaque État en luttant contre la propagation de contenus illicites par le biais des profils de leurs utilisateurs. C’est pourquoi le travail que nous allons réaliser, qui s’inspire lui-même de la Netzwerkdurchsetzungsgesetz, aidera peut‑être à son tour d’autres pays confrontés aux mêmes dérives à légiférer.
Je termine par deux réflexions.
Chez les jeunes, le cyberharcèlement peut rapidement dégénérer. En l’absence de cadre juridique, on voit fleurir des initiatives citoyennes, comme le groupe Facebook francophone « Je suis là », inspiré d’un groupe suédois pour lutter collectivement contre la cyber-haine, une sorte d’anti-« Ligue du LOL » – l’exposé des motifs de la proposition de loi évoque d’ailleurs ladite ligue. Ce n’est pas très satisfaisant d’autant plus que certaines attaques haineuses en ligne proviennent de trolls, avec des messages tendancieux et polémiques.
Deuxième réflexion, un rapport en préparation au Conseil de l’Europe, notamment à la suite des révélations du scandale Cambridge Analytica, pourrait recommander aux États membres la création d’un ombudsman de l’internet, sorte de médiateur qui serait compétent pour qualifier de licites ou d’illicites les contenus diffusés sur internet. Ce pourrait être un outil supplémentaire pour compléter les dispositifs de lutte contre les messages de haine sur internet.
Le groupe Les Républicains aborde favorablement l’examen de cette proposition de l’eau.
Mme Isabelle Florennes. Je veux tout d’abord saluer Mme la rapporteure et la remercier de son travail. Elle n’a cessé de consulter et d’associer à sa démarche les acteurs du secteur et les citoyens français, notamment à travers l’organisation d’une consultation.
Chacun d’entre nous ici a pu, directement ou indirectement, expérimenter le déferlement quotidien de contenus haineux sur les réseaux sociaux. Sous des dehors parfois désincarnés, les propos diffusés à qui voudra bien les lire sont finalement très concrets – il est important que nous l’ayons à l’esprit avant d’examiner le texte. En définitive, nous sommes aujourd’hui à un tournant. Certes, nous nous attaquons à des objets complexes sur lesquels le législateur a finalement peu de prise mais, comme vous le rappelez, madame la rapporteure, dans votre projet de rapport, il n’y a pas de fatalité en la matière. Je crois qu’il ne faut plus, désormais, masquer les petits renoncements derrière de grandes critiques des nouvelles technologies et des nouveaux modes de communication. Ce texte propose précisément de sortir des ambages habituelles et vient compléter l’arsenal juridique disponible pour les utilisateurs quotidiens de ces plateformes. L’angle adopté est intéressant car il s’agit ici d’envisager les plateformes comme étant des catalyseurs de contenus afin de mieux les réguler en les responsabilisant et en responsabilisant les utilisateurs ; c’est là un point d’équilibre qui garantit la protection de la liberté d’expression et empêche ceux qui voudraient la détourner de ses fondements de s’en prévaloir. Bien sûr, certains éléments appellent des précisions, notamment le champ d’application de la proposition de loi, mais je crois que des amendements apportant les précisions souhaitables ont été déposés.
Je veux tout de même vous interroger, madame la rapporteure, sur plusieurs points. N’est-il pas envisageable de dépasser le critère du seul trafic dans la définition des plateformes visées ? Des plateformes de moindre importance accueillent et permettent elles aussi la diffusion de contenus haineux. Ne pouvait-on pas imaginer de viser l’ensemble de ces plateformes ? Par ailleurs, l’article 1er peut soulever plusieurs questions quant à la définition précise des contenus illicites. Quid de la latitude laissée aux opérateurs dans leur appréciation pour déterminer le caractère manifestement illicite ou non des contenus ? Ne devrait-on pas, à terme, réintroduire le juge judiciaire dans ce processus afin de protéger les utilisateurs ? Enfin, du point de vue de la liberté d’expression, comment gérer les éventuelles censures abusives de la part des opérateurs ? La pression des sanctions et du name and shame va pousser les plateformes à systématiser la censure. C’est aussi toute la question des moyens humains absolument nécessaires à la bonne gestion de la modération des plateformes.
Désireux d’apporter sa pierre à l’édifice, le groupe Mouvement démocrate et apparentés a également déposé des amendements. Ils traduisent notre volonté de renforcer certains éléments du texte, notamment en ce qui concerne la responsabilisation des plateformes. C’est tout le sens des deux amendements qui viennent préciser les informations que les opérateurs devront rendre publiques et transmettre au CSA pour que ce dernier les intègre à son rapport annuel.
Nous avons également choisi d’ouvrir ce texte à d’autres problématiques relatives à l’éducation et à la protection des mineurs. Nous vous proposons, par deux amendements dont notre collègue Laurence Vichnievsky est l’auteure, de permettre aux mineurs recevant des contenus abusifs d’avoir recours, sans autorisation préalable, à un signaleur de confiance et de mettre à leur disposition une protection spécifique. En complément de ces réflexions sur la protection des mineurs, souvent plus exposés aux cyberviolences et plus vulnérables, notre collègue Erwan Balanant suggère de renforcer la prévention autour de la haine sur internet en la faisant entrer dans le champ de la mission d’information sur les violences confiée à tous les établissements du premier et du second degrés.
Ainsi, notre groupe souhaite pleinement s’investir dans le mouvement dessiné par votre proposition de loi, déjà engagé au niveau européen par l’Allemagne. Il est plus que temps de traiter effectivement ce sujet.
Je terminerai en évoquant deux initiatives. Des élèves d’une classe de deuxième année de cours moyen (CM2) ont conçu une proposition de loi très intéressante relative à l’éducation des plus jeunes au numérique dans le cadre de l’édition 2019 du Parlement des enfants, et un entrepreneur suresnois Thomas Fauré a développé un réseau social, Whaller, garantissant le respect de la vie privée des utilisateurs. Nos concitoyens prennent donc le problème à bras-le-corps et répondent avec des initiatives pertinentes. Il est grand temps maintenant que le législateur leur emboîte le pas.
M. Hervé Saulignac. Je ne reviendrai pas sur le fond de ce texte. Toute notre énergie et toute notre intelligence doivent être mobilisées pour repousser des expressions qui relèvent non pas de l’opinion, mais du délit, même du délit insupportable.
Sur la forme, madame la rapporteure, je déplore la méthode. Nous avons découvert vos quarante-trois ou quarante-quatre amendements hier seulement, c’est-à-dire la veille de notre examen en commission, des amendements qui déstructurent totalement le texte et passent par pertes et profits une partie du travail que nous avions déjà fait sur ce texte. Je tenais à vous le dire car je crois que vous devez l’avoir à l’esprit.
Sur le fond, même si ce texte va dans le bon sens – le groupe Socialistes et apparentés soutiendra un certain nombre de dispositions –, légiférer n’est pas tout. Il faudra des moyens financiers et humains extrêmement importants, pour la justice, pour la police, pour l’éducation ; c’est même le cœur du sujet.
Par ailleurs, il est assez étonnant de constater que vous avez laissé de côté, dans le texte initial, la justice de la République, alors qu’il y va des libertés publiques, à valeur constitutionnelle. Les plateformes et les autorités administratives ne sont pas garantes du droit et de la justice. Les sanctions et les divergences d’interprétation que peuvent susciter certains propos appellent absolument l’intervention du juge judiciaire. Je pense que nous avons encore à y travailler, nonobstant les amendements que vous avez pu déposer.
M. Michel Zumkeller. Les grands progrès des nouvelles technologies de l’information et de la communication nous ont fait vivre une révolution et mis de plain-pied dans le XXIe siècle. Les possibilités sont désormais immenses de communiquer et de partager. Malheureusement, pris dans cette effervescence, nous n’avons pas anticipé les dérives et nous subissons aujourd’hui une fuite en avant de cet instrument utilisé à mauvais escient par certains. Pour lutter contre ces contenus illicites qui portent atteinte à la dignité et abusent de la liberté d’expression, nous avons pourtant déjà beaucoup légiféré : en 2004, avec la LCEN ; en 2009, avec la mise en place de la Plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS) ; en 2016, avec la loi pour une République numérique ; en 2018, pour lutter contre le cyberharcèlement. S’ajoutent plusieurs directives européennes.
Force est de constater que les difficultés demeurent, que les discours de haine sont exacerbés et peu sanctionnés. Les attaques en raison des origines, de la religion, du sexe ou de l’orientation sexuelle d’autrui tendent à devenir, sur les réseaux sociaux, une banalité. Le racisme et l’antisémitisme prolifèrent. Les lacunes du cadre législatif sont donc réelles. Dans les faits, peu de plaintes sont déposées, peu d’enquêtes aboutissent, peu de condamnations sont prononcées. Tout se déroule comme si internet était une sphère au sein de laquelle tout peut être dit, vu et montré, la possibilité de l’anonymat ne faisant qu’amplifier la sensation d’une immunité choisie. Le défi que nous, législateurs, devons relever est donc toujours de lutter contre ces contenus.
En ce sens, la proposition de loi de notre collègue Laetitia Avia est bienvenue, mais la tâche est ardue : la liberté d’expression est une liberté fondamentale qui ne saurait être compromise. Il est souvent aisé de faire la différence entre un contenu licite et un contenu illicite, mais, parfois, ce n’est pas le cas. Par conséquent, l’autorité administrative ne doit pas bénéficier de trop grandes marges d’appréciation et les contenus ne peuvent être appréciés uniquement par des algorithmes. De plus, la toile offre une multitude de supports et de viralités exponentielles, alors que les contenus doivent pouvoir être identifiés et retirés rapidement. Nous souscrivons donc aux objectifs visés par cette proposition de loi. De même, les opérateurs doivent être mieux responsabilisés, et les sanctions effectives. Cela semble être également ce à quoi tend ce texte. Enfin, l’articulation avec le droit européen est indispensable dans ce domaine qui ne connaît évidemment pas de frontières.
Ainsi, sur un sujet aussi délicat, la rigueur juridique est de mise afin de s’assurer que les droits de chacun sont respectés. C’est le sens des amendements des membres du groupe UDI et Indépendants, dont je tiens à souligner à quel point ils se sont investis. Nous devons nous saisir de cette proposition de loi visant à lutter contre la haine sur internet pour envoyer un signal fort. C’est dans cet esprit que Philippe Dunoyer a déposé des amendements afin de soumettre tous les opérateurs, moteurs de recherche compris, à des mesures visant à lutter contre les contenus haineux sur internet mais aussi contre les incitations à la violence. Un volet éducation absent de la proposition initiale est également nécessaire. L’un de nos amendements vise donc à mettre en place, comme en Nouvelle-Calédonie, un référent en matière de cyberharcèlement dans les établissements du second degré.
Ces amendements permettront de clarifier ou d’enrichir un texte qui souffre de manques et d’imprécisions. Le Conseil d’État les souligne longuement dans l’avis qu’il a rendu. Les nombreuses auditions ont également mis en avant les problèmes posés par la rédaction actuelle, parfois peu claire ou attentatoire aux libertés. Je crois d’ailleurs que beaucoup d’articles seront modifiés par vos amendements, madame la rapporteure. Je ne peux que m’associer à la remarque de notre collègue sur nos conditions de travail : nous dénonçons chaque fois ces amendements de dernière minute et chaque fois on nous répond que cela s’arrangera, mais chaque fois cela recommence ! C’est quand même très préjudiciable au bon déroulement de nos travaux.
Ainsi, si nous souscrivons aux objectifs visés, nous attendons de voir quel sera le texte issu des travaux de notre commission.
Mme la présidente Yaël Braun-Pivet. Les amendements déposés par la rapporteure tiennent compte de l’avis du Conseil d’État. Il eût été bien malheureux que nous n’en tenions pas compte. Par ailleurs, ils ont été déposés et diffusés jeudi dernier et non pas hier, contrairement à ce qui a été affirmé. Vous avez donc eu largement le temps d’en prendre connaissance.
Mme Danièle Obono. Internet est un espace d’expression publique extrêmement important en raison du nombre absolument incroyable de personnes qui s’y expriment et par son caractère, parfois, d’outil d’émancipation et de mobilisation. Nous l’avons vu au cours des dernières années, notamment en Égypte, où il a permis aux citoyennes et aux citoyens de s’organiser. Dernièrement, les mouvements comme #Balancetonporc ou #MeToo ont permis de dénoncer la violence systémique dont les femmes sont victimes.
C’est aussi un lieu d’expression où des personnes, notamment les plus vulnérables, les femmes, les personnes LGBT et les personnes racisées, tout en trouvant parfois, en dehors des canaux habituels, des espaces de discussion et d’émancipation, sont confrontées aux mêmes violences et aux mêmes rapports de force sans les cadres de la loi ou sans que chacun y ait conscience de ses droits et de ses devoirs. Il est donc important d’en débattre.
Malheureusement, le texte proposé, tel qu’il est conçu, expose nos libertés fondamentales à des risques mal mesurés, mal maîtrisés. Il témoigne en outre d’une analyse qui nous semble incomplète, partielle et biaisée des problématiques de discrimination sur internet.
En matière de garanties démocratiques, rappelons que la Convention européenne des droits humains en son article 10 et la Déclaration des droits de l’homme et du citoyen de 1789 en son article 11 protègent la liberté d’opinion et la liberté d’expression qui en découle. La Cour européenne des droits humains exige une prévisibilité et une proportionnalité des blocages, et une protection renforcée de la parole à visée politique et militante. Or le texte actuel ne prévoit pas les garanties nécessaires. Le champ des plateformes visées est bien trop large. Ainsi, La Quadrature du Net souligne que l’exigence de retrait de contenus en moins de vingt-quatre heures fait peser une obligation disproportionnée sur les plateformes non commerciales que beaucoup de personnes consultent, comme Wikipedia, qui n’a pas les moyens de Facebook.
Ce défaut du texte initial est aggravé par l’amendement CL90 de la rapporteure, qui élargit encore le champ des sites concernés aux sites de référencement de contenus proposés ou mis en ligne par des tiers, tandis que l’amendement CL91 substitue à un seuil de nombre de connexions un simple seuil d’activité. Par un autre amendement, elle étend le champ des motifs de blocage possible, sans que des garanties substantielles soient données quant à la possibilité, pour les personnes concernées, de contester un sur-blocage. Ce sont donc maintenant des opérateurs privés qui vont déterminer, sous peine de sanctions pécuniaires, quels contenus relèvent de l’apologie des crimes de guerre, des crimes contre l’humanité, des crimes de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage, des crimes et délits de collaboration avec l’ennemi, des crimes d’atteinte volontaire à la vie ou à l’intégrité physique, d’agressions sexuelles, de vol aggravé, d’extorsion, de destruction, dégradation ou détérioration volontaire dangereuse pour les personnes. Cela me semble tout de même assez discutable. De notre point de vue, cette multiplication des motifs de blocage est une incitation au sur-blocage et une multiplication des possibilités de censure par une plateforme privée à qui des prérogatives sont ainsi déléguées. Rappelons que le pouvoir économique de ces plateformes privées à qui l’on confie un rôle de contrôle de la parole publique est parfois comparable au produit intérieur brut de certains États !
Du point de vue du groupe La France insoumise, il est possible de protéger les victimes tout en garantissant la liberté d’expression, par exemple en limitant le pouvoir des GAFA tout en développant plus d’outils. Nous avions ainsi déposé un amendement sur la question de l’interopérabilité. Il a été jugé irrecevable, mais je crois que ce débat sera rouvert – il est nécessaire.
Par ailleurs, la problématique de la lutte contre les discriminations sur internet n’est pas abordée. Nous considérons que les agressions verbales discriminantes méritent des réponses judiciaires. Il y a un problème en termes de prise en charge et de formation des agents de la justice mais aussi de la police. Ces moyens n’étant pas donnés aux services publics dont la responsabilité est de traiter ce type de situations, cette proposition de loi n’est malheureusement, de notre point de vue, qu’un texte cosmétique, en même temps que dangereux pour la liberté d’expression.
M. Stéphane Peu. Au sein du groupe de la Gauche démocrate et républicaine, nous étions plutôt favorables à ce texte, mais nous constatons qu’il n’est absolument pas stabilisé, comme en témoigne le nombre d’amendements déposés à la dernière minute. Pour ce qui nous concerne, nous réserverons nos amendements pour la séance publique et je me contenterai de quelques remarques générales.
Ce texte n’est pas fait pour nous faire plaisir et il ne doit pas être redondant par rapport à la législation existante, je pense notamment à la loi sur la liberté de la presse ou à la loi de 2004 pour la confiance dans l’économie numérique. Nous regrettons que l’étude d’impact n’ait pas été plus poussée sur le sujet, ce qui aurait peut-être permis d’éviter un accueil plutôt frais de la part de certaines organisations et institutions : le Conseil d’État, le Conseil national du numérique, le Conseil national des barreaux, des associations et des syndicats. Si votre étude d’impact avait mieux pris en compte toutes leurs observations, elle aurait permis d’éviter ces amendements de dernière minute qui vont faire tomber ceux des parlementaires.
Sur le fond, l’article 1er de la proposition de loi s’inspire beaucoup de la législation allemande qui est en vigueur depuis un an et peut donc faire l’objet d’une première évaluation. En fait, son bilan est assez mitigé. Les observateurs allemands font état de l’excès de zèle que l’on pouvait redouter de la part des plateformes : pour éviter de laisser passer un contenu illicite, elles sont tentées de filtrer très largement au point que 80 % des contenus retirés ne sont finalement pas réellement illicites.
Quelle place ce texte réserve-t-il au juge ? Dans un État de droit, personne n’est mieux placé que le juge pour dire ce qui est légal ou illégal, licite ou illicite. Au cours de cette législature, ce n’est pas la première fois que l’on constate un affaiblissement du pouvoir du juge en la matière. Ce n’est pas un mince problème que cette tentation de transférer au privé, par petites touches, le soin de dire le droit en lieu et place du juge.
Les plateformes, auxquelles vous proposez de donner beaucoup de responsabilités et de pouvoir, prospèrent sur le modèle de l’économie de l’attention. Bien souvent, ce ne sont pas les internautes qui sollicitent et répandent des contenus haineux. En réalité, ce sont les algorithmes de ces géants que sont Twitter ou Facebook qui les propagent. Vous avez sans doute constaté, comme moi, que, par exemple, on vous met sous les yeux les vidéos ou les propos du raciste et antisémite Soral, sans que vous l’ayez demandé. Si vous regardez bien, vous verrez que ce sont les algorithmes qui vous imposent ces vues et non pas les gens qui sont sur les réseaux sociaux. Selon le principe de ces entreprises privées, ces algorithmes déployés cherchent par tous les moyens à générer de l’audience synonyme de valeur. C’est par ce biais que se répandent les propos racistes et haineux, dans cette recherche éperdue de la valeur et du profit. Il ne faut donc pas confier la régulation à ces plateformes qui obéissent à des logiques non fondées sur l’intérêt général.
Nous étions d’emblée plutôt favorables à ce texte mais nous chercherons à l’amender en séance pour qu’il soit plus respectueux de l’État de droit.
M. François Pupponi. Au groupe Libertés et Territoires, nous attendions ce texte avec beaucoup d’impatience car nous estimons qu’il faut légiférer le plus vite possible dans ce domaine. Toutefois, il ne faut pas confondre vitesse et précipitation.
Les amendements de la rapporteure tendent à montrer que le texte n’était pas abouti. Pour être parlementaire depuis 2007, je connais un peu la technique et je lui trouve aussi un inconvénient : ces amendements risquent de faire tomber tous les nôtres et de supprimer le débat. Madame la présidente, nous autoriserez-vous à défendre nos amendements qui risquent de tomber pour que nous puissions au moins en débattre ? Je le demande gentiment, sans polémique aucune. Cela se fait dans toutes les commissions, mais je pose quand même la question.
J’en arrive maintenant à la vraie question : peut-on faire confiance aux plateformes pour effectuer le travail qu’on leur demande ? Au vu d’expériences passées, je ne suis pas sûr que les sanctions prévues les feront trembler. N’aurons-nous pas intérêt à renforcer le pouvoir du juge judiciaire pour que nous puissions créer une sanction réellement efficace contre la diffusion de tels propos ?
Quoi qu’il en soit, nous participerons activement et avec beaucoup d’intérêt au débat sur ce texte.
Mme la présidente Yaël Braun-Pivet. Madame la rapporteure va répondre aux orateurs des groupes.
Mme Laetitia Avia, rapporteure. Certains de vos commentaires portent sur la forme, d’autres sur le fond.
En ce qui concerne la forme, le dernier orateur nous a invités à ne pas confondre vitesse et précipitation, et certains tweets évoquent une impréparation de la rapporteure. Je travaille sur ce texte depuis un an et demi. Je l’ai rédigé. J’assume pleinement le fait de ne pas écrire des lois tous les quatre matins... J’assume pleinement d’avoir travaillé au plus près du Conseil d’État pour faire un texte solide et juridiquement viable qui pourra atteindre son objectif.
J’en viens au dépôt des amendements, sujet soulevé notamment par Mme Obono et M. Saulignac. Un rapporteur peut déposer des amendements jusqu’à la dernière minute. Par respect du Parlement, j’ai fait le choix de les déposer jeudi dernier.
M. Hervé Saulignac. Ils étaient déposés mais inaccessibles !
Mme Laetitia Avia, rapporteure. Ils ont été rendus publics ce jour-là. Vous pouviez les sous-amender jusqu’à ce matin. Vous aviez pratiquement une semaine pour appréhender ces écritures et les modifier.
Mme George Pau-Langevin, ici présente, a suivi les auditions avec énormément d’assiduité. Elle peut témoigner du fait qu’à chacune des auditions, je rendais compte des échanges que nous avions avec le Conseil d’État et des évolutions prévisibles du texte, afin que chacun puisse s’y préparer. Je pense avoir fait le maximum possible en la matière. Que l’on appelle cela de l’impréparation, je ne peux que m’en désoler.
Sur le fond, il est important de rappeler un principe de base contenu dans l’article 6 de la LCEN : les plateformes ont d’ores et déjà une obligation de prompt retrait des contenus manifestement illicites. Nous ne créons pas cette obligation mais nous indiquons dans quel délai ce retrait doit être opéré. Le caractère manifestement illicite résulte d’une réserve d’interprétation du Conseil constitutionnel. En combinant ces deux éléments, nous prévoyons que les plateformes devront retirer les contenus manifestement illicites de manière prompte, c’est-à-dire dans un délai de vingt-quatre heures. Nous précisons les conditions d’application de cette obligation bien délimitée dans le temps.
Le juge n’a jamais été exclu du dispositif. Dans la première version du texte, il n’apparaissait peut-être pas de manière suffisamment explicite et claire, ce qui a suscité des débats. Dès les premiers mots pourtant, il était indiqué « sans préjudice des dispositions de l’article 6 de LCEN », lesquelles renvoient à la responsabilité judiciaire. Après réécriture, le juge et le délit sont nettement plus affirmés. C’est le juge qui sanctionne les plateformes pour non-retrait de contenus manifestement illicites.
Nous aurons l’occasion de débattre de la question du seuil de trafic qui a été évoquée.
Quant à la loi allemande, j’assume le fait de l’avoir prise comme point de départ des travaux mais je vous propose un système différent. La loi allemande a un champ d’application très vaste et elle ne sanctionne pas la sur-censure et les retraits excessifs. Cette proposition de loi a un champ extrêmement limité et elle sanctionnera les retraits excessifs.
Comme vous, je pense qu’il est nécessaire de travailler à l’échelle européenne – ce qui implique la création d’un cadre harmonisé – et de développer un volet éducatif. Je serai à votre écoute si vous faites des propositions. Mme Florennes signalait que le thème du Parlement des enfants de cette année était le bon usage du numérique, ce qui me paraît de très bon augure.
Mme la présidente Yaël Braun-Pivet. Les autres orateurs inscrits ont maintenant deux minutes chacun pour s’exprimer.
Mme Emmanuelle Ménard. Je vous remercie, madame la présidente, pour les deux minutes que vous m’accordez. Du coup, je vais aller très vite et passer sur les précautions d’usage : personne ne peut évidemment s’opposer à la lutte contre la haine sur internet ; on ne peut évidemment pas fermer les yeux sur la propagation – et même la généralisation – des propos haineux sur la toile. Votre texte est le bienvenu pour agir en ce sens, même si je ne suis pas absolument convaincue de la nécessité de passer par le vecteur législatif pour ce faire.
Ce qui est problématique, en revanche, c’est l’article 1er de votre proposition de loi. Vous demandez aux opérateurs de plateforme en ligne d’être davantage responsables en les obligeant à retirer les contenus haineux sous vingt-quatre heures maximum. Très bien. Mais dans l’absolu, cela pose une question difficile à trancher : ces opérateurs sont-ils les mieux placés pour exercer cette mission a priori quand il est déjà parfois si difficile pour les juges de le faire a posteriori ? Quelle légitimité auront ces opérateurs à le faire ? Avec cet article 1er, vous prenez le risque d’autoriser ces plateformes à exercer une certaine forme de censure. Vous le savez, les zones de gris sont toujours très difficiles à appréhender. Les plateformes ne sont probablement pas les mieux placées pour le faire. C’est un véritable risque que vous faites peser sur nos libertés fondamentales et en premier lieu la liberté d’expression.
Quant à l’alinéa 2 de votre article 1er, il pose deux problèmes. Tout d’abord, en prononçant une sanction pécuniaire basée sur le chiffre d’affaires de la plateforme fautive, que faites-vous du respect du principe de proportionnalité entre la sanction et l’infraction ? Ensuite, l’indexation de l’amende sur le chiffre d’affaires pose problème puisqu’elle ne peut être justifiée que par un lien entre l’infraction et le chiffre d’affaires qui en est retiré, ce qui n’est manifestement pas le cas ici.
Le Conseil constitutionnel a déjà eu l’occasion de censurer de nombreux dispositifs de sanctions financières dont le plafond était calculé en pourcentage du chiffre d’affaires, dès lors qu’il n’y avait pas de lien rationnel entre le comportement prohibé et les modalités de calcul du plafond de l’amende envisagée. Je fais notamment référence à une décision du 4 décembre 2013. Le Conseil constitutionnel a jugé que lorsque le maximum de la peine est établi en proportion du chiffre d’affaires de la personne morale prévenue et que le législateur a retenu un critère de fixation du montant maximum de la peine encourue qui ne dépende pas du lien entre l’infraction et le chiffre d’affaires, cela est susceptible de revêtir un caractère manifestement hors de proportion avec la gravité de l’infraction constatée.
Certains juristes considèrent en outre qu’une telle disposition serait contraire à l’article 8 de la Déclaration des droits de l’homme et du citoyen. Il me semble donc qu’en l’état, ce texte ne permettra pas d’atteindre l’objectif qu’il se donne, et qu’il mérite d’être retravaillé en séance.
M. Arnaud Viala. Je voudrais intervenir sur trois points.
Le premier, qui a été largement abordé par les précédents orateurs, concerne l’éducation. Sur mon territoire comme ailleurs, des classes ont travaillé dans le cadre du Parlement des enfants sur les dangers du numérique. J’ai passé du temps avec deux de ces classes. J’ai pu constater à quel point les plus jeunes ne sont pas conscients des dangers qu’ils courent lorsqu’ils sont sur le web. Il est donc nécessaire, en effet, d’ajouter ce volet à la proposition que vous défendez, si nous voulons que les générations futures s’emparent du problème et si nous voulons éviter d’en arriver au stade où, malheureusement, nous sommes obligés de légiférer.
Deuxième sujet de préoccupation : la capacité du CSA à faire face à l’afflux de plaintes qui vont lui être soumises. J’attends des précisions car, à mes yeux, il n’y aurait rien de pire que des délais de traitement très longs, donnant à penser qu’il y a finalement une quasi-impunité.
Mon troisième sujet de préoccupation concerne l’oubli. Lorsqu’une publication a été faite sur un réseau social ou sur internet, elle laisse toujours une trace même si elle a été retirée dans des délais très brefs. Les dispositions que vous proposez dans votre texte sur le plan technique, qui consistent à mettre en évidence un bouton sur lequel on va pouvoir appuyer pour faire retirer la publication, n’abordent pas ce sujet. À mon avis, il faut forcer les différentes plateformes à trouver les moyens techniques de faire complètement disparaître toute trace des contenus condamnés et retirés.
M. Philippe Gosselin. Pour ma part, je voudrais saluer le travail effectué par la rapporteure depuis de longs mois. Personne ne vous fait de mauvais procès d’intention, chère Laetitia, mais les interventions successives montrent qu’il reste des problèmes à résoudre.
Nous avons eu des difficultés à déposer des amendements, sachant qu’il y aurait un gros travail de réécriture du texte. C’est ce qui s’est produit après l’avis du Conseil d’État, ce qui ampute un peu les capacités de travail de notre commission. Même si je ne vous en fais pas grief, je constate qu’une partie du travail va se faire dans l’hémicycle, ce qui limite les capacités d’échange. Vous avez d’ailleurs souligné vous-même que le volet pénal serait vu avec la garde des Sceaux en séance. Nous allons donc manquer un peu de recul.
Or nous sommes tous d’accord sur la philosophie générale du texte : nous ne pouvons pas laisser prospérer des propos haineux sur internet. Comme Arnaud Viala vient de le rappeler, le Parlement des enfants a travaillé sur ce sujet qui traverse toutes les couches de la société. Il faut se donner les moyens de bannir cette haine mais sans restreindre la liberté d’expression, le droit à la différence et la liberté d’opinion. Il ne faut pas confondre opinion et délit.
Tout cela nous donne le sentiment d’un texte inabouti qui reste à parfaire en veillant au contrôle par le juge qui permettrait de lever certaines ambiguïtés. L’équilibre actuel est sans doute instable mais c’est avec vigilance et sens des responsabilités que nous allons examiner ce texte. C’est la position de notre groupe et de bon nombre d’entre nous. Notre attente réelle, qui ne vaut pas blanc-seing, correspond à celle de la société.
Mme George Pau-Langevin. En effet, ce texte est important et attendu. Depuis des années, nous assistons à un déferlement de propos haineux sur internet et nous avons l’impression que notre société n’est pas prête à prendre les mesures indispensables pour les endiguer. La liberté d’expression en France n’est pas sans limite. Ni le droit français ni les textes européens n’autorisent les propos racistes, antisémites ou négationnistes. Ce n’est pas une question de liberté d’expression.
La loi de 1972 contre le racisme était efficace mais elle est devenue quasiment inopérante sur internet en raison de la multiplication de messages en tout genre et de l’importance d’aspects techniques que les associations et même les parquets ne maîtrisent pas. Nous avons tenté d’y remédier en 2004, en obligeant les plateformes à retirer les contenus odieux, mais cette loi n’est pas suffisamment efficace compte tenu de l’absence de sanctions.
Nous sommes très favorables à l’idée d’accroître l’efficacité de la lutte contre ce déferlement de haine. Nous pensons d’ailleurs qu’il était urgent de se saisir du problème et d’essayer d’avancer. Le texte n’est pas abouti et il est en train de se peaufiner.
C’est une bonne idée de prévoir des sanctions administratives pour obliger les plateformes à retirer immédiatement les contenus manifestement illicites. Il faut préciser la place du juge qui intervient ensuite pour gérer les difficultés ou les interprétations divergentes. Il faut aussi préciser la place des associations qui sont très efficaces dans la lutte contre le racisme et les propos odieux.
M. Alexis Corbière. Merci, madame la présidente, de m’accueillir dans votre commission où je voulais intervenir même si Danièle Obono et d’autres collègues ont déjà dit beaucoup de choses.
Madame la rapporteure, je ne doute pas que vous travaillez sur le sujet depuis longtemps et je ne cherche pas la controverse. Admettez tout de même que vos amendements, que vous avez certes déposés jeudi mais dont nous n’avons pris connaissance qu’en début de semaine, remettent en cause tout le travail accompli. Nous les découvrons la veille alors que nous sommes sur d’autres dossiers. Cela complique sacrément le travail concernant ces matières complexes qui nécessitent des rencontres et des échanges avec de nombreuses associations.
Pour ma part, j’aimerais que vous m’éclairiez sur l’article 6 qui prévoit en quelque sorte le remplacement de l’autorité judiciaire par une autorité administrative aux capacités étendues. Comment envisagez-vous la relation entre les deux autorités ? L’application de ce texte va se heurter à des problèmes qu’il ne règle pas et qui le dépassent : les conditions très difficiles dans lesquelles exercent les juges et l’engorgement du système judiciaire. Nous pouvons multiplier les textes mais si les magistrats sont écrasés de travail, nous en revenons toujours au point de départ. Comme le soulignait notre collègue Pau-Langevin, il existe déjà des lois mais il est difficile de les faire appliquer. Quoi qu’il en soit, j’aimerais avoir des précisions sur cet article 6 qui est assez peu compréhensible et sans doute contestable sur le fond.
M. Jean-Louis Masson. À mon tour, je voudrais reconnaître le travail de notre collègue Laetitia Avia que je ne mets nullement en cause. Ce texte recèle néanmoins un danger potentiel : pour ne pas encourir les sanctions financières prévues, les grands opérateurs pourraient être tentés d’appliquer le principe de précaution et censurer des publications considérées à tort comme haineuses.
Je vais vous donner deux exemples qui montrent la difficulté d’établir cette frontière. Il y a douze ans, lors du procès retentissant des caricatures de Mahomet, le tribunal correctionnel de Paris avait retenu, en première instance, la qualification d’injures envers les musulmans. Par la suite, cette analyse avait été infirmée par la cour d’appel. En 2018, il a fallu aller jusqu’en cassation pour trancher la qualification à donner à l’expression Fuck Church peinte sur la poitrine dénudée de plusieurs militantes de Femen. C’est dire s’il est compliqué d’établir la qualification de propos haineux.
Or cette proposition de loi apporte une réponse préoccupante. Elle donne aux grands opérateurs la capacité de se prononcer sur la légitimité ou le caractère haineux d’une publication, sans intervention du juge. Cette disposition se heurte au respect des droits fondamentaux, à la Déclaration des droits de l’homme et du citoyen de 1789 et à la loi du 29 juillet 1881 sur la liberté de la presse. Comme certains collègues, je pense qu’il convient de redéfinir avec beaucoup plus de précision le rôle du juge – garant des libertés individuelles – et celui du CSA.
Mme la présidente Yaël Braun-Pivet. Comme il n’y a pas d’autres demandes de prise de parole, je vais demander à Mme la rapporteure de répondre si elle le souhaite, puis nous examinerons les articles de la proposition de loi.
Mme Laetitia Avia, rapporteure. Nous aurons l’occasion de débattre sur chacun des articles mais je vais répondre aux questions très concrètes qui m’ont été posées.
Quel sera le rôle du CSA ? Il interviendra tout le temps, en fait. En amont, il émettra des recommandations, tracera des lignes directrices, préconisera de bonnes pratiques. Les grandes plateformes ont un recueil de jurisprudences puisqu’elles ont déjà une obligation de retrait des contenus manifestement illicites. Le CSA prendra ses responsabilités en transmettant ses recommandations aux plateformes pour qu’elles sachent ce qu’elles ont à retirer. Il aura aussi un rôle de supervision des plateformes. Il sera l’interlocuteur référent sur le territoire national et il sera en lien avec les plateformes pour les accompagner. N’oublions pas que les dispositions ne s’appliquent qu’aux contenus manifestement illicites et pas du tout aux contenus gris pour lesquels il n’y a pas ce délai de vingt-quatre heures même si l’obligation de traitement et de retrait demeure.
Qu’est-ce qui caractérise un contenu manifestement illicite ? La question se pose déjà dans le cadre actuel. Les contenus manifestement illicites sont ceux qui ont déjà été qualifiés comme tels. La jurisprudence est assez dense : 269 arrêts traitent des injures racistes sur internet, par exemple. Tout ce qui est plus sensible et demande une interprétation n’entre pas dans le champ du texte.
Le dispositif prévu à l’article 6 concerne les sites miroirs. Nous nous situons dans le cas où un site a fait l’objet d’une interdiction judiciaire, c’est-à-dire que le juge a demandé au fournisseur d’accès ou au moteur de recherche de le déréférencer. Si un site miroir est créé, permettant d’accéder exactement au contenu déjà jugé illicite, l’autorité administrative pourra demander au fournisseur d’accès ou au moteur de recherche d’effectuer ce même blocage. L’autorité administrative, c’est l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication (OCLCTIC), qui met sa plateforme PHAROS à la disposition des internautes. Cette disposition permet d’éviter de refaire une procédure et de repasser devant le juge pour chaque site miroir créé comme c’est le cas actuellement. En cas de contestation, il y a évidemment un recours judiciaire. Le juge est présent au début pour interdire un site et toutes ses éventuelles duplications, et il intervient en cas de contestation. Le juge est donc bien là en amont et en aval de la procédure.
Mme la présidente Yaël Braun-Pivet. Nous allons commencer l’examen des articles de la proposition de loi.
Avant l’article 1er
La Commission examine l’amendement CL87 de la rapporteure.
Mme Laetitia Avia, rapporteure. Cet amendement est le premier d’une série d’amendements visant à structurer la proposition de loi en cinq chapitres pour lui donner une meilleure lisibilité comme je vous l’ai expliqué dans mon propos liminaire. Ce premier chapitre porte sur l’obligation de retrait renforcée des contenus haineux en ligne.
La Commission adopte l’amendement. Un chapitre Ier est inséré.
Article 1er : Obligation de retrait en vingt-quatre heures des contenus manifestement haineux en ligne
La Commission est saisie de l’amendement CL88 de la rapporteure.
Mme Laetitia Avia, rapporteure. Toujours dans cet objectif de structuration, l’amendement propose de créer un nouvel article 6-2 après l’article 6-1 de la LCEN, qui porte sur les dispositions liées à l’obligation de retrait en vingt-quatre heures.
La Commission adopte l’amendement.
Puis elle examine l’amendement CL142 de M. Philippe Dunoyer.
Mme Laetitia Avia, rapporteure. Cet amendement vise à élargir considérablement le champ du texte à tous les opérateurs de retrait et, en plus, il enlève la notion de manifestement illicite pour les contenus. Demande de retrait ou, à défaut, avis défavorable.
Mme Laure de La Raudière. Je ne le retire pas parce que ce n’est pas moi qui l’ai déposé. En revanche, je retire ma signature car je ne l’avais pas compris comme ça.
La Commission rejette l’amendement.
Elle adopte l’amendement rédactionnel CL89 de la rapporteure.
Puis elle examine l’amendement CL229 de M. Thomas Rudigoz.
M. Thomas Rudigoz. Par le présent amendement, je vous propose d’étendre le spectre de cette proposition de loi aux plateformes de financement participatif en ligne telles que Leetchi ou Le Pot commun. Ces plateformes se sont en effet largement démocratisées et elles sont devenues un moyen comme un autre de diffuser des idées, hélas parfois haineuses, sur internet. En décembre dernier, PHAROS a ainsi ouvert une procédure contre le créateur d’une cagnotte Leetchi destinée à financer un tueur à gages pour éliminer le Président de la République, ce qui peut être qualifié juridiquement d’incitation à commettre un crime.
La loi permet déjà de sanctionner ce type de cagnotte mais l’intérêt d’inclure les plateformes de financement participatif dans le champ de cette proposition de loi serait de les soumettre à l’obligation de retirer la cagnotte litigieuse dans un délai de vingt-quatre heures après signalement.
Afin d’intégrer les plateformes de financement participatif dans ce nouveau dispositif, je vous propose de reprendre les termes de l’article L. 111-7 du code de la consommation pour étendre l’application de l’article 1er aux opérateurs mettant en relation plusieurs parties en vue de la fourniture d’un service ou de l’échange d’un contenu et pas seulement en vue du partage de contenus publics.
Je précise, madame la rapporteure, qu’il s’agit d’une des trente-deux recommandations que nous avons formulées dans le cadre du rapport d’enquête sur la lutte contre les groupuscules d’extrême droite en France, qui vient d’être présenté. Nous devons en effet clarifier le régime de responsabilité des plateformes de financement participatif à l’égard des actions qu’elles permettent de financer.
Mme Laetitia Avia, rapporteure. Cet amendement étend le champ d’application du texte aux plateformes de financement participatif mais aussi à l’ensemble des places de marché, dites marketplaces. Le Conseil d’État a débattu du champ d’application complet du texte, je vous le dis en toute transparence. Il a estimé qu’il fallait l’étendre aux moteurs de recherche mais pas aux plateformes qui font de l’échange de biens et de services pour deux raisons : cette obligation extrêmement renforcée doit répondre à un véritable besoin qui n’a pas encore été identifié pour ce type d’opérateurs ; une telle extension du nombre d’acteurs soumis à cette obligation renforcée élargirait du même coup le champ de régulation du CSA, au risque de nuire à l’efficacité de ce dernier. Demande de retrait ou, à défaut, avis défavorable.
M. Thomas Rudigoz. Je n’ai pas eu connaissance de cet avis du Conseil d’État. Je souhaiterais que nous puissions avoir un temps d’échange avant l’examen du texte dans l’hémicycle car ces plateformes de financement participatif posent un vrai problème. L’exemple que je vous ai cité n’est pas anodin. Il est peut-être possible de faire évoluer le texte en prenant des précautions pour tenir compte de la position du Conseil d’État. À ce stade, je souhaiterais maintenir mon amendement.
La Commission rejette l’amendement.
Puis elle examine l’amendement CL90 de la rapporteure.
Mme Laetitia Avia, rapporteure. Dans la continuité de ce que je viens d’indiquer à Thomas Rudigoz, cet amendement tire la conséquence de la recommandation du Conseil d’État d’intégrer les moteurs de recherche dans le champ d’application du texte en respect du principe d’égalité.
M. Frédéric Reiss. Cet amendement propose en effet d’élargir le plus possible le champ d’application du texte et de ne pas épargner les moteurs de recherche. Certains collègues l’ont d’ailleurs souligné dans leurs interventions. Les prestataires de services, les fournisseurs d’accès à internet ou les hébergeurs invoquent souvent le caractère un peu technique, souvent automatique, voire passif, de leur métier pour rejeter toute responsabilité concernant le contenu qu’ils se bornent à transmettre et à stocker. Comment être sûr qu’ils ont la connaissance effective du caractère illicite des contenus ?
Mme Laetitia Avia, rapporteure. C’est toujours après signalement. Aucune obligation ne s’applique hors signalement.
La Commission adopte l’amendement.
Puis elle examine, en discussion commune, l’amendement CL91 de la rapporteure et l’amendement CL69 de Mme George Pau-Langevin.
Mme Laetitia Avia, rapporteure. Mon amendement réécrit les dispositions concernant le seuil en tenant compte de commentaires faits dans le cadre des auditions sur les difficultés que pouvait poser la référence explicite à un nombre de connexions. J’ai préféré une rédaction plus large qui permet aussi plus d’agilité.
Mme George Pau-Langevin. Pour notre part, nous souhaitions que soit fixé un seuil de 500 000 connexions mensuelles pour élargir la possibilité d’utiliser ce texte. Dans un autre amendement, nous proposons une référence trimestrielle.
Mme Laetitia Avia, rapporteure. Je suis défavorable à l’amendement CL69.
La Commission adopte l’amendement CL91.
En conséquence, l’amendement CL69 tombe, ainsi que l’amendement CL48 de Mme Laurence Vichnievsky.
La Commission est saisie de l’amendement CL49 de Mme Laurence Vichnievsky.
Mme Laurence Vichnievsky. Nous proposons de supprimer une partie de l’alinéa 1er , qui mentionne « l’intérêt général attaché à la lutte contre les contenus publiés sur internet et comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ».
À mon sens, ce membre de phrase relève davantage de l’exposé des motifs que de la description du dispositif prévu par le législateur pour atteindre l’objectif. C’est un amendement rédactionnel mais il me semble que le législateur doit bien délimiter ce qui relève du dispositif et ce qui relève de l’exposé des motifs.
Mme Laetitia Avia, rapporteure. Je pense, au contraire, que la précision est nécessaire. D’autres dispositions de la LCEN, au 7 du I de l’article 6 notamment, explicitent ce dont il s’agit. La rédaction répond aussi à un objectif de clarté et de lisibilité de la loi. Il est important de vraiment dire ce que sont ces contenus haineux, une fois au moins dans l’article 1er, pour bien circonscrire le champ d’application du texte.
La Commission rejette l’amendement.
Puis elle se saisit de l’amendement CL253 de Mme Laure de La Raudière.
Mme Laure de La Raudière. Pour bien préciser ce qui qualifie la nature des contenus visés par l’article 1er, je propose d’écrire « manifestement illicites » après le mot « contenus ».
Mme Laetitia Avia, rapporteure. Cet article 1er tient en une phrase qui dit expressément que, parmi ces contenus, seuls ceux « contrevenant manifestement » aux infractions listées seront concernés par l’obligation de retrait en vingt-quatre heures. Demande de retrait ou, à défaut, avis défavorable.
La Commission rejette l’amendement.
La Commission adopte l’amendement CL299, de précision, de la rapporteure.
Puis elle en vient à l’amendement CL283, toujours de la rapporteure.
Mme Laetitia Avia, rapporteure. Cet amendement vise à intégrer dans le champ d’application du texte les contenus provoquant à la commission d’actes de terrorisme ou faisant l’apologie du terrorisme.
Cette mesure ne figurait pas dans le texte initial, notamment parce que le sujet fait l’objet de discussions à l’échelle européenne. Il m’a semblé nécessaire d’intégrer ces contenus parmi ceux qui imposent une obligation de retrait sous vingt-quatre heures, c’est-à-dire un retrait effectué après signalement par tout utilisateur, dans la mesure où le règlement européen va prévoir un retrait en une heure, mais après un signalement par des autorités.
Cette disposition nous permet d’avoir un régime complet pour les contenus à caractère terroriste. Une fois que le règlement européen sera adopté, ils devront être retirés en une heure après le signalement par une autorité. En l’absence de signalement par une autorité, ils devront l’être en vingt-quatre heures s’ils ont été signalés par un internaute.
M. Frédéric Reiss. Je voudrais remercier la rapporteure pour cet amendement qui est quasiment identique à ceux que Mme Anthoine et Mme Bazin-Malgras avaient présentés en commission des Affaires culturelles et de l’éducation. Nous en avions discuté avec la rapporteure pour avis. Je suis content que cette idée soit reprise par la rapporteure. Je n’ai pas le droit de vote dans cette commission, mais suis très favorable à son amendement.
La Commission adopte l’amendement.
Puis elle examine l’amendement CL40 de M. Jacques Marilossian.
M. Jacques Marilossian. Cet amendement propose d’élargir les contenus illicites publiés sur internet à ceux portant atteinte à la dignité de la personne humaine.
En effet, le respect de la dignité humaine me semble tout aussi primordial que la liberté d’expression.
La loi du 3 septembre 1986 relative à la liberté de communication a prévu que l’exercice de cette liberté par les diffuseurs soit limité dans certains cas, précisément par le respect de la dignité humaine. Dans une décision de juillet 1994, le Conseil constitutionnel a déduit le principe à valeur constitutionnelle de sauvegarde de la dignité de la personne humaine contre toute forme d’asservissement et de dégradation de la première phrase du préambule de la Constitution de 1946. Enfin, dans une décision du 27 octobre 1995, le Conseil d’État rappelle que le respect de la dignité de la personne est une des composantes de l’ordre public. Il est donc établi que le respect de la dignité humaine prévaut sur la liberté d’expression.
Par ailleurs, dans une décision-cadre de novembre 2008 sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal, le Conseil de l’Union européenne invite les États membres à prendre « les mesures nécessaires pour faire en sorte que les actes intentionnels soient punissables », s’agissant entre autres de l’apologie, de la négation ou de la banalisation grossière et publique des crimes de génocide. En effet, la négation et l’apologie des crimes de génocide ou des crimes contre l’humanité ne sont pas des délits d’opinion ordinaires, dans la mesure où, procédant de la négation d’autrui, ils constituent une atteinte à la dignité de la personne humaine, la dignité des victimes mais aussi celles de leurs descendants. Pour citer l’avocat Bernard Jouanneau, membre de la Ligue internationale contre le racisme et l’antisémitisme (LICRA), « ce ne sont pas les juifs, les Arméniens, les Tutsis, les Cambodgiens, les Yougoslaves qui ont été victimes du négationnisme, c’est l’humanité ».
C’est la raison pour laquelle je vous invite à encadrer la liberté d’expression des négationnistes sur internet.
Mme Lætitia Avia, rapporteure. Cet amendement est essentiel car il permet de nommer ce que nous visons clairement dans cette proposition de loi, à savoir l’atteinte à la dignité humaine, le fait, en l’occurrence, de s’en prendre à quelqu’un sur internet pour ce qu’il est intrinsèquement. C’est la raison pour laquelle j’y suis évidemment favorable.
Je tiens néanmoins à préciser que, si cette atteinte à la dignité humaine – dont le Conseil d’État a estimé dans son avis qu’elle fondait en légitimité les dispositions de cette proposition de loi – permet d’en étendre le champ, on ne peut y inclure l’ensemble des infractions que vous citez dans votre exposé des motifs et dans la défense de votre amendement. Je pense notamment à la négation des crimes de génocide, mais nous y reviendrons. Il s’agit en effet de s’assurer de la parfaite conventionnalité de ce texte.
La Commission adopte l’amendement.
Puis elle en vient à l’amendement CL70 de Mme George Pau-Langevin.
Mme George Pau-Langevin. Nous proposons que puisse être retiré d’une plateforme tout contenu constituant une contestation ou une négation d’un crime contre l’humanité ou d’un génocide. On ne peut en effet tolérer que soient diffusés sur internet certains propos sur le génocide arménien ou l’abolition de l’esclavage.
En 2017, la loi relative à l’égalité et à la citoyenneté entendait incriminer la négation des crimes contre l’humanité, mais le Conseil constitutionnel, suivant en cela la position défendue par son président Laurent Fabius, a censuré cette disposition au motif que ne pouvait être incriminé que le négationnisme visant des crimes jugés par le tribunal de Nuremberg, ce qui élimine, de fait, le génocide arménien et l’esclavage. Il faut pourtant que tout négationnisme en la matière puisse être sanctionné sur internet.
Mme Lætitia Avia, rapporteure. Pour garantir la conventionnalité de ce texte, je suis obligée de m’en tenir au champ fixé par le Conseil d’État, qui inclut notamment l’apologie des crimes contre l’humanité, des crimes de guerre et des crimes de réduction en esclavage. Nous ne pouvons aller au-delà. Avis défavorable.
M. Alexis Corbière. Sur ce sujet extrêmement sensible, le législateur français a permis de cadrer les débats, grâce, entre autres, aux lois « Gayssot » et « Taubira ». Or l’objet de cette proposition de loi est de contraindre les opérateurs à supprimer d’eux-mêmes les contenus délictueux de leurs plateformes. Il me semble que c’est une manière de privatiser des décisions qui relèvent de la justice. Certes, il n’y aura nul débat entre nous sur la manière de qualifier la Shoah, l’esclavage ou le génocide arménien, mais l’ensemble des mémoires blessées est aujourd’hui si complexe qu’il me paraît nécessaire de circonscrire juridiquement ces sujets sensibles et de ne pas miser sur l’interprétation qu’en feront les opérateurs, au risque d’empêcher tout débat.
Le négationnisme sous toutes ses formes doit être combattu, c’est une évidence, mais avec des armes juridiques, d’où les réserves que j’exprime.
Mme George Pau-Langevin. J’ai beaucoup de considération pour les magistrats, mais nous devons admettre que la justice met du temps pour se prononcer. Si l’on prend l’exemple des propos sur l’esclavage entendus récemment dans l’émission On n’est pas couchés, dans le cas où une plainte serait déposée, il y aura une décision de justice, mais qui n’interviendra pas avant six mois ou un an, voire deux. Au contraire, les réactions sur les réseaux sociaux peuvent être si rapides qu’en l’espèce, le nombre de signalements faits aux CSA a obligé l’animateur de l’émission à réagir. Il est donc normal de saisir la justice mais, lorsqu’elle rendra son verdict, le mal aura été fait.
La Commission rejette l’amendement.
Puis elle examine l’amendement CL266 de M. Belkhir Belhaddad.
M. Belkhir Belhaddad. Cet amendement vise à élargir le champ d’application du texte, défini à l’article 1er, en y ajoutant un combat important pour notre majorité : la lutte contre les discriminations, telle que définie par l’article 225-1 du code pénal.
Il a quelques semaines, j’ai tenu à apporter tout mon soutien à Jean Dib Ndour, victime d’actes racistes intolérables. Rappelons que cet écrivain originaire du Sénégal, à qui j’ai, en début d’année, remis la médaille de l’Assemblée nationale, est l’auteur de deux romans. Arrivé en France en 2002, il conjugue la gestion de son café littéraire et son goût pour les mots et la littérature. Petit-fils de tirailleur sénégalais, il dresse des ponts entre son Afrique natale et sa Moselle d’adoption, et c’est le jour de notre fête nationale qu’il a choisi pour inaugurer son café. C’est aussi en pensant à lui que j’ai déposé cet amendement, fondamental pour caractériser la discrimination sur internet et en neutraliser les effets.
Mme Lætitia Avia, rapporteure. Avis favorable sur cet amendement qui permet de rappeler que sont visées par cette proposition de loi l’incitation à la haine, mais également l’incitation à la violence et à la discrimination envers une personne ou un groupe de personnes.
La Commission adopte l’amendement.
Puis elle est saisie de l’amendement CL193 de M. Erwan Balanant.
M. Erwan Balanant. Cet amendement a pour objectif d’intégrer les propos constitutifs de harcèlement moral, sexuel ou scolaire dans le champ d’application de la présente proposition de loi. En effet, le cyberharcèlement est un fléau pour notre société, et nous devons trouver des moyens de le combattre. Toutes tranches d’âge confondues, 8 % des Français déclarent avoir déjà été victimes de ce type de violences.
Le cas du harcèlement scolaire est éloquent : internet, les réseaux sociaux en particulier, ne sont que le prolongement de l’établissement scolaire et de ses périphéries, où les élèves en souffrance sont exposés aux propos et comportements déplacés de leurs camarades.
Il est donc primordial d’intégrer les faits de harcèlement, de tous types, dans le spectre de la proposition de loi.
Mme Lætitia Avia, rapporteure. Votre amendement recouvre différents sujets. Si le harcèlement sexuel est déjà visé dans les infractions que je vous propose d’inclure dans le champ de la proposition de loi, le harcèlement scolaire n’est pas une infraction autonome. Quant au harcèlement moral, il pose une vraie difficulté, dans le sens ou, pour être établi, il nécessite la réitération. Il est donc difficile, en pratique, de l’inclure dans le cadre des contenus manifestement illicites pouvant être signalés sur une plateforme. Les infractions signalées ne doivent pas être sujettes à interprétation, et c’est sans doute la raison pour laquelle le Conseil d’État a tenu à ce que le champ d’application de cette proposition de loi soit très limité.
Avis défavorable, même si j’entends la nécessité de mieux protéger les plus jeunes, et notamment les mineurs.
M. Erwan Balanant. Nous avons déjà eu le débat sur la définition pénale du harcèlement scolaire lors de l’examen du projet de loi pour une école de la confiance. Nos échanges avaient abouti à un amendement proscrivant le harcèlement, que la commission mixte paritaire a adopté dans une version allégée. Puisque le harcèlement scolaire est désormais défini dans le code de l’éducation, il me semble qu’il doit pouvoir être intégré dans ce texte.
Nous parlons d’un fléau ! En outre, en plus d’être un fléau, le harcèlement scolaire, c’est le début de la haine dans la cour de récréation, là où peuvent se forger les mauvaises habitudes. Il est donc essentiel de s’attaquer à la racine du mal.
Je prends note du fait que vous êtes ouverte à l’idée que nous travaillions sur cette question, car, grâce à ce texte ou à un autre, nous devons trouver une manière de mieux protéger nos enfants contre ce fléau.
Mme Caroline Abadie. Les chiffres cités par Erwan Balanant sont suffisamment édifiants pour que nous acceptions de lutter contre le harcèlement. Notre groupe a néanmoins considéré qu’il était difficile d’imposer aux plateformes une obligation de résultat et un retrait des contenus dans les vingt-quatre heures en matière de harcèlement scolaire, dans la mesure où ce n’était pas un délit. Nous avons, cela étant, déposé d’autres amendements introduisant une obligation de moyens en matière de lutte contre le cyberharcèlement et mettant en œuvre des mesures de prévention.
M. Bruno Fuchs. Cette question est centrale car elle concerne des jeunes qui n’ont pas encore nécessairement trouvé les bons repères et où l’on peut blesser l’autre sans réellement l’avoir voulu. C’est donc à nous de fixer les limites.
Mme Laure de La Raudière. Bruno Fuchs a raison de dire que c’est à nous de fixer les limites, mais cet amendement soulève un problème, car il n’existe pas de définition juridique du harcèlement scolaire, et nous n’allons pas confier le soin à un acteur privé de le faire à notre place !
Je voudrais, cela étant, insister sur le fait que face à des enfants de CM1, CM2, sixième ou cinquième, l’accent doit avant tout être mis sur la pédagogie. Il y a un effort considérable à faire, et je milite en ce sens depuis des années, pour transformer le cours de technologie au collège en un cours de culture numérique, dans lequel seraient abordées l’ensemble des problématiques, du codage aux enjeux sociétaux, l’accent étant tout particulièrement mis sur le mode d’emploi des réseaux sociaux. Sur ce point malheureusement, l’éducation nationale manque d’ambition au regard de la rapidité avec laquelle évoluent les comportements numériques. Travailler en ce sens sera beaucoup plus efficace que de demander à des plateformes de rendre la justice à notre place.
M. Erwan Balanant. Je répète que, depuis la CMP de la semaine dernière, le projet de loi pour une école de la confiance définit, dans son article 1er bis C, ce qu’est le harcèlement scolaire : « Aucun élève ne doit subir de la part d’autres élèves des faits de harcèlement ayant pour objet ou pour effet une dégradation de ses conditions d’apprentissage, susceptibles de porter atteinte à ses droits et à sa dignité ou d’altérer sa santé physique ou mentale ».
Ce n’est certes pas une définition pénale mais elle figure désormais à l’article L. 511‑3‑1 du code de l’éducation, de la même façon que le code du travail propose une définition du harcèlement moral ou le code pénal une définition du harcèlement sexuel.
Je veux bien entendre que nous ne soyons pas prêts mais il s’agit d’une urgence, et j’appelle donc les collègues qui le souhaitent à travailler sur ce sujet, pour aboutir éventuellement à une proposition de loi transpartisane sur les moyens de lutter contre le harcèlement scolaire.
M. Frédéric Reiss. Tout commence à l’école. C’est là que se prennent les bonnes mais aussi les mauvaises habitudes. Il me semble donc qu’il serait intéressant que cette proposition de loi s’inscrive dans le prolongement du projet de loi pour une école de la confiance, et que nous devrions retravailler cette question, en vue de la séance, pour l’intégrer dans le texte.
M. Alexis Corbière. Même si ce débat est extrêmement important, ce n’est pas du code de l’éducation dont il nous faut parler mais du code pénal et du fait qu’il revienne à des opérateurs privés de prendre ce type de décisions. Prenons donc garde à ne pas rater notre cible.
Il est évidemment indispensable qu’un juge ait les moyens d’intervenir rapidement quand un mineur est harcelé moralement ou sexuellement – car le harcèlement n’est en somme rien d’autre que du harcèlement moral ou sexuel. Le juge pour enfant est en effet parfaitement qualifié pour entendre cette souffrance, qui nécessite une appréciation extrêmement fine de la situation, sachant qu’une simple image, en apparence innocente, peut être une arme de harcèlement.
Il n’empêche que cet amendement ne règle pas le problème que j’ai soulevé tout à l’heure, à savoir que confier à des opérateurs privés le soin d’apprécier des sujets aussi sensibles sera au mieux inefficace, aboutira au pire à une forme de privatisation de la justice, à laquelle je suis personnellement opposé.
La Commission rejette l’amendement.
Elle examine ensuite, en discussion commune, les amendements CL153 de Mme Aude Luquet et CL267 de M. Jacques Marilossian.
Mme Aude Luquet. Le mot « race » n’apparaît plus aujourd’hui comme un terme pertinent car il représente un concept scientifiquement infondé et juridiquement inopérant. Le recours à ce mot dans notre droit, même s’il a pour objet de prohiber les discriminations entre les êtres humains, est une forme de validation et de légitimation de l’existence de « races humaines », alors que la science ne reconnaît qu’une seule espèce.
Utiliser le mot « race », c’est laisser penser qu’il y en aurait plusieurs et supposer que certaines seraient supérieures à d’autres, ce qui est intolérable. Je rappelle qu’en juillet 2018, lors des premiers débats sur la révision constitutionnelle, nous avions acté collectivement la suppression du mot « race » de notre constitution. Il convient en conséquence, par cet amendement, de remplacer le mot « à raison de la race » par les mots « fondée sur des motifs racistes » qui apparaissent plus pertinents.
M. Jacques Marilossian. Le Président de la République Emmanuel Macron a rappelé, dans sa lettre aux élèves du collège de l’Esplanade à Saint-Omer, en mars 2018, qu’il était indigne que le mot « race » subsiste encore dans notre Constitution.
Lors de l’examen du projet de loi constitutionnelle l’année dernière, nous avons voté la suppression du mot « race » de la Constitution.
L’héritage de l’histoire coloniale et de certaines théories dites « scientifiques » du XIXe siècle l’y a fait figurer. Or ce terme – qui d’ailleurs n’existait pas avant les années 1930 – est aujourd’hui non seulement désuet, mais doté d’une connotation raciste.
Le décret d’août 2017 relatif aux provocations, diffamations et injures non publiques présentant un caractère raciste ou discriminatoire a supprimé l’usage du mot « race » de l’article R. 625-7 du code pénal, pour le remplacer par les termes « prétendue race », montrant que la République ne reconnaît plus de différence entre êtres humains. Cet amendement propose de reprendre les termes du code pénal.
Mme Lætitia Avia, rapporteure. J’avais, lors des discussions sur la révision constitutionnelle, pris très clairement position en faveur de la suppression du mot « race » de la Constitution. Il importe toutefois que cette suppression ne compromette pas la lutte contre les discriminations.
Entre les deux solutions proposées, ma préférence va à l’emploi des termes « prétendue race », pour une raison d’harmonisation, car c’est la formule employée dans de nombreux textes. Je donnerai donc un avis favorable à l’amendement CL267.
La Commission rejette l’amendement CL153.
Elle adopte l’amendement CL267.
Puis elle en vient à l’amendement CL207 de Mme George Pau-Langevin.
Mme George Pau-Langevin. Il s’agit d’intégrer dans le champ des contenus haineux les discriminations à raison de l’origine des personnes qui en sont les victimes.
Mme Lætitia Avia, rapporteure. C’est une précision utile. Avis favorable.
La Commission adopte l’amendement.
Suivant l’avis favorable de la rapporteure, elle adopte l’amendement CL219 de M. Buon Tan.
Elle examine ensuite l’amendement CL279 de M. Jean-Pierre Cubertafon.
M. Jean-Pierre Cubertafon. Cet amendement vise à lancer une réflexion sur les insultes à raison de l’apparence physique, sur les réseaux sociaux.
La grossophobie par exemple, ou discrimination et stigmatisation envers les personnes obèses ou en surpoids, est un phénomène devenu récurrent au sein de notre société, bien qu’elle soit considérée par le code pénal, en son article 225-1, comme une discrimination.
La discrimination physique étant un motif privilégié des campagnes de cyberharcèlement, le présent amendement propose d’ajouter cette discrimination au texte du premier alinéa, afin de faciliter le retrait des contenus discriminants.
Mme Lætitia Avia, rapporteure. J’en suis profondément désolée, mais le Conseil d’État a très précisément cadré le champ d’application du texte. Nous devons nous en tenir à des contenus pouvant être qualifiés de manifestement illicites et ne pouvant prêter à l’interprétation des opérateurs.
Par ailleurs, la loi de 1881 ne vise pas l’apparence physique, et votre proposition impliquerait donc de la modifier. Or, en l’état, elle me paraît constituer un socle solide pour définir les discriminations visées par cette proposition de loi.
Cela étant, il me semble que l’ensemble des obligations de moyens proposées dans le texte permettront, comme pour le harcèlement scolaire, d’appréhender ces phénomènes. Demande de retrait ou avis défavorable.
M. Erwan Balanant. Je comprends vos arguments juridiques mais, lorsque l’on se fait insulter sur les réseaux sociaux parce que l’on est trop gros, ou trop maigre, n’est-ce pas une atteinte à la dignité de la personne ?
Mme Lætitia Avia, rapporteure. Aujourd’hui, ce n’est pas complètement le cas au titre des infractions aggravées de la loi de 1881. Sont distinguées les injures simples et les injures aggravées : une injure relative au physique est une injure simple, là où une injure liée à la prétendue race, à la religion ou à l’orientation sexuelle est une injure aggravée.
La ministre de la justice a confié à la Commission nationale consultative des droits de l’homme une mission d’étude de l’application actuelle de la loi de 1881. Nous pourrons nous reposer sur les résultats de ce travail, qui devrait être rendu en octobre, pour nous saisir le cas échéant de cette question. En tout état de cause, cette proposition de loi n’a pas vocation à changer l’état de notre droit mais à garantir sa bonne application.
La Commission rejette l’amendement.
Puis elle examine, en discussion commune, l’amendement CL191 de M. Erwan Balanant, et les amendements identiques CL2 de la commission des Affaires culturelles, CL192 de M. Erwan Balanant et CL231 de M. Buon Tan.
M. Erwan Balanant. Mon amendement a pour objet d’intégrer les propos comportant une incitation à la haine ou une injure à raison du genre dans le champ d’application de la présente proposition de loi.
En effet, dans la version qui nous est soumise, la proposition de loi couvre les incitations à la haine et les injures à raison de certains facteurs de discrimination, notamment le sexe. En revanche, le genre ne fait pas partie des facteurs pris en compte. Or, si le sexe et le genre sont deux facteurs de discrimination souvent liés, ils sont différents et doivent être distingués : alors que le sexe est une donnée physiologique, le genre ressortit à une construction culturelle et subjective.
Pour autant, le genre et le sexe sont deux facteurs de discrimination qui doivent être combattus avec la même vigueur. Cette obligation de les mettre sur le même plan découle notamment de la Convention du Conseil de l’Europe sur la prévention et la lutte contre la violence à l’égard des femmes et la violence domestique, ratifiée par la France.
Mme Fabienne Colboc, rapporteure pour avis de la commission des Affaires culturelles. L’amendement CL2 est un amendement de clarification, qui vise à intégrer explicitement l’identité de genre mentionnée par la loi de 1881 aux dispositions de l’article 1er.
M. Erwan Balanant. Il s’agit, par l’amendement CL192, d’ajouter à la référence au genre la référence à l’identité de genre.
Mme Lætitia Avia, rapporteure. L’actualité de ces derniers mois a été marquée par une augmentation des comportements transphobes d’une extrême violence sur les réseaux sociaux. Je suis donc favorable au fait d’intégrer les discriminations à raison de l’identité de genre – lesquels relèvent déjà de la loi de 1881, dans le champ d’application de la proposition de loi. Les discriminations à raison du genre ne sont, en revanche, pas conformes aux prescriptions de notre droit pénal. Je soutiens donc les amendements identiques.
La Commission rejette l’amendement CL191.
Elle adopte les amendements identiques CL2, CL192 et CL231.
Puis elle est saisie, en discussion commune, des amendements CL62 de M. Guillaume Chiche et CL220 de M. Buon Tan.
M. Guillaume Chiche. Le présent amendement tend à introduire les discriminations à raison de l’état de santé des individus. Le récent documentaire diffusé sur France Télévisions concernant la grossophobie ou encore la censure par Instagram de la photo d’un mannequin taillant du 54 justifient de prévoir des dispositions législatives fortes pour condamner ces actes discriminants intolérables.
L’état sérologique mais aussi l’état psychiatrique des individus peuvent également être l’objet de cyber-haine sur les réseaux sociaux. Les termes « état de santé » nous apparaissent donc pertinents, dans la mesure où ils embrassent les différentes pathologies.
M. Jean-François Eliaou. Comme les discriminations à raison du handicap, les discriminations à raison de l’état de santé doivent être interdites sur les plateformes internet.
Mme Lætitia Avia, rapporteur. Le handicap figure déjà dans la proposition de loi, puisqu’il est visé par la loi de 1881, et il n’est pas question de revenir sur ce point. En ce qui concerne l’état de santé, je ferai la même réponse que celle que j’ai faite auparavant sur l’apparence physique : il n’est pas visé par la loi de 1881 au titre de l’injure aggravée.
Par ailleurs j’en appelle à votre sens des responsabilités pour faire preuve de prudence dans les termes que nous retenons : l’état de santé est une notion extrêmement large, et son emploi pourrait aboutir à ce que, concrètement, on ne puisse plus critiquer quelqu’un pour un rhume. Avis défavorable.
La Commission rejette successivement les amendements.
La Commission adopte l’amendement CL300, de précision, de la rapporteure.
Elle est ensuite saisie de l’amendement CL190 de M. Erwan Balanant.
M. Erwan Balanant. Cet amendement va nous permettre d’ouvrir un débat mais, en réalité, il ne me satisfait pas complètement. Il vise à réduire de vingt-quatre heures à douze heures le délai sous lequel les plateformes en ligne sont tenues d’effacer les contenus faisant l’objet d’un signalement.
Vingt-quatre heures sur internet, c’est une éternité. Cela étant, c’est un délai qui peut conduire à des formes de censure automatique, voire préventive – et c’est encore plus vrai lorsque le délai est ramené à douze heures. Il y a donc un problème, mais j’aimerais avoir votre point de vue, madame la rapporteure, de manière à réfléchir à une solution d’ici la séance.
Mme Lætitia Avia, rapporteure. J’ai une obsession avec ce texte, c’est qu’il soit opérationnel. Le délai de vingt-quatre heures est réaliste, c’est en tout cas la conclusion à laquelle j’ai abouti à l’issue de mes travaux sur la manière dont les plateformes fonctionnent et dont elles traitent les contenus.
Par ailleurs, il correspond à ce qui se pratique en Allemagne ainsi qu’au code de bonne conduite européen. Avis défavorable.
L’amendement est retiré.
La Commission examine l’amendement CL256 de Mme