—  1  —

N° 2583

______

ASSEMBLÉE   NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

 

Enregistré à la Présidence de l’Assemblée nationale le 15 janvier 2020

RAPPORT

FAIT

AU NOM DE LA COMMISSION DES LOIS CONSTITUTIONNELLES, DE LA LÉGISLATION
ET DE L’ADMINISTRATION GÉNÉRALE DE LA RÉPUBLIQUE, EN NOUVELLE LECTURE, SUR LA PROPOSITION DE LOI, MODIFIÉE PAR LE SÉNAT APRÈS ENGAGEMENT DE LA PROCÉDURE ACCÉLÉRÉE,

visant à lutter contre les contenus haineux sur internet ( 2534)

PAR MME Laetitia AVIA

Députée

——

 

Voir les numéros :

Assemblée nationale : 1re lecture : 1785, 2062, 1989 et T.A. 310.

   Commission mixte paritaire : 2558.

   Nouvelle lecture : 2534.

  Sénat : 1re lecture : 645 (2018-2019), 197, 198, 173, 184 et T.A. 36 rect. (2019-2020).

   Commission mixte paritaire : 239 et 240 (2019-2020).


—  1  —

  SOMMAIRE

___

Pages

EXAMEN DES ARTICLES DE LA PROPOSITION DE LOI

Chapitre Ier Obligation renforcée de retrait des contenus haineux en ligne

Article 1er (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004  pour la confiance dans l’économie numérique) Obligation de retrait des contenus manifestement haineux en ligne

Article 1er bis (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004  pour la confiance dans l’économie numérique) Formalisme de la procédure de notification d’un contenu haineux en ligne

Article 1er ter A (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) Mise en cohérence du formalisme de la notification  des autres contenus illicites

Article 1er ter B (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004  pour la confiance dans l’économie numérique) Rôle des associations de protection de l’enfance en matière  de notification des contenus haineux en ligne

Article 1er ter (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) Sanction des notifications abusives ou malveillantes

Chapitre II Devoir de coopération des opérateurs de plateforme  dans la lutte contre les contenus haineux en ligne

Article 2 (art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004  pour la confiance dans l’économie numérique) Obligations de moyens en matière de traitement des notifications  de contenus manifestement haineux en ligne

Article 3  (art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004  pour la confiance dans l’économie numérique) Obligations de moyens en matière d’information, de transparence  et de coopération avec les autorités publiques compétentes

Article 3 bis (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) Triplement du montant de la peine d’amende encourue  en cas de non-coopération avec les autorités publiques

Chapitre III  Rôle du Conseil supérieur de l’audiovisuel  dans la lutte contre les contenus haineux en ligne

Article 4 (art. 17-3 [nouveau], 19 et 42-7 de la loi n° 86-1067 du 30 septembre 1986  relative à la liberté de communication et art. 6 et 6-1 de la loi n° 2004-575  du 21 juin 2004 pour la confiance dans l’économie numérique) Rôle du Conseil supérieur de l’audiovisuel dans  la lutte contre les contenus haineux sur internet

Chapitre IV  Amélioration de la lutte contre la diffusion de contenus haineux en ligne

Article 6 (art. 6 et 6-4 [nouveau] de la loi n° 2004-575 du 21 juin 2004  pour la confiance dans l’économie numérique) Simplification de la procédure de blocage  et de déréférencement des sites haineux

Article 6 bis AA Obligations de transparence à la charge des régies publicitaires

Chapitre IV bis Renforcement de l’efficacité de la réponse pénale  à l’égard des auteurs de contenus haineux en ligne

Article 6 bis A (art. 15-3-3 [nouveau] du code de procédure pénale) Spécialisation d’un parquet et d’une juridiction  en matière de lutte contre la haine en ligne

Article 6 bis B (art. 132-45 et 138 du code de procédure pénale) Création d’une nouvelle interdiction dans les obligations  du contrôle judiciaire et du sursis avec mise à l’épreuve

Article 6 bis C (art. 398-1, 510 et 512 du code de procédure pénale) Compétence du juge unique pour le délit de refus  de retrait d’un contenu manifestement haineux en ligne

Chapitre IV ter Prévention de la diffusion de contenus haineux en ligne

Article 6 ter A  (art. L. 121-1 du code de l’éducation) Mission d’information des écoles, collèges et lycées sur les violences en ligne

Article 6 ter  (art. L. 721-2 du code de l’éducation) Formation des enseignants en matière de  lutte contre les contenus haineux en ligne

Chapitre V Dispositions finales

Article 7 Création d’un observatoire de la haine en ligne

Article 7 bis  (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) Consécration dans la loi de la jurisprudence du Conseil constitutionnel relative à la mise en cause de la responsabilité des hébergeurs à raison des contenus manifestement illicites qu’ils stockent

Article 9  Modalités d’entrée en vigueur

Article 10 (art. L. 371-1, L. 771-1, L. 773-1 et L. 774-1 du code de l’éducation, art. 108  de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication  et art. 57 et 58 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) Conditions d’application outre-mer

COMPTE RENDU DES DÉBATS


—  1  —

 

   avant-propos

 

Mesdames, Messieurs,

Réunie au Sénat le mercredi 8 janvier 2020, la commission mixte paritaire chargée d’élaborer un texte sur les dispositions restant en discussion de la proposition de loi visant à lutter contre les contenus haineux sur internet n’est pas parvenue à un accord.

–  l’instauration d’un délai de retrait en 24 heures des contenus manifestement haineux notifiés aux grandes plateformes d’échange et de partage de contenus en ligne, afin de rendre effectif l’impératif de prompt retrait des contenus illicites déjà posé par la loi du 21 juin 2004 pour la confiance dans l’économie numérique ;

–  la création d’un devoir de coopération renforcée de ces mêmes plateformes, s’articulant autour de plusieurs obligations de moyens à respecter, sous la supervision du Conseil supérieur de l’audiovisuel (CSA) ;

–  la possibilité offerte à l’autorité administrative, spécialement habilitée par l’autorité judiciaire en même temps qu’elle se prononce sur l’illicéité d’un contenu haineux, de rendre rapidement inaccessible tout contenu en tout ou partie identique à celui-ci et apparu postérieurement à la décision du juge.

–  la création d’un délit autonome destiné à sanctionner le refus par un opérateur de retirer un contenu manifestement haineux dans les 24 heures suivant sa notification, le juge judiciaire étant seul compétent pour ordonner ou contrôler un tel retrait au regard de l’exigence de protection de la liberté d’expression ;

–  des précisions et compléments apportés aux obligations de moyens mises à la charge des grandes plateformes en matière de lutte contre la haine en ligne ;

–  une clarification de la régulation dont ces plateformes seraient l’objet de la part du CSA et des sanctions administratives encourues en cas de non-respect du devoir de coopération ;

–  une sécurisation de la procédure de lutte contre la duplication des contenus haineux afin que l’autorité administrative ne puisse agir que sur l’habilitation de l’autorité judiciaire ;

–  l’ajout de dispositions destinées à mieux prévenir la diffusion de ces contenus et mieux sanctionner leurs auteurs.

Trois nouveaux articles ont été ajoutés, le premier destiné à lutter contre le financement des sites haineux par la limitation de la publicité susceptible d’y être diffusée (article 6 bis AA), le deuxième relatif à la mission confiée aux écoles, collèges et lycées en matière d’information sur les violences en ligne (article 6 ter A), le dernier consacrant dans la loi pour la confiance dans l’économie numérique la jurisprudence du Conseil constitutionnel sur la mise en jeu de la responsabilité civile et pénale des hébergeurs (article 7 bis).

S’agissant du devoir de coopération renforcée des grandes plateformes en ligne et de leur régulation par le CSA (articles 2, 3 et 4), le Sénat a opportunément complété ou clarifié certaines des obligations de moyens proposées par l’Assemblée nationale et précisé les modalités d’intervention du CSA. Il a toutefois modifié le champ des plateformes concernées en excluant les moteurs de recherche, qui jouent pourtant un rôle décisif dans la diffusion des contenus en ligne, tout en permettant au CSA d’attraire devant lui d’autres acteurs numériques, dans des conditions juridiquement fragiles.

Plusieurs modifications apportées au texte par le Sénat ont visé à tenir compte des observations émises par la Commission européenne sur l’articulation de ces dispositions avec la directive sur le commerce électronique ([1]), dont les articles 3, 14 et 15 protègent la libre prestation des services de la société de l’information, fixent le régime de responsabilité aménagée des hébergeurs et interdisent toute surveillance généralisée des réseaux de leur part.

À la suite des remarques formulées à cet égard par le Conseil d’État dans son avis sur la proposition de loi ([2]), votre rapporteure avait elle-même anticipé ces observations et fait adopter des amendements en première lecture à l’Assemblée nationale pour permettre à la France de déroger à cette directive afin de lutter contre les atteintes portées en ligne au respect de la dignité humaine ([3]). Dans ses observations, la Commission admet d’ailleurs une telle dérogation mais appelle la France à mieux cibler les obligations mises à la charge des opérateurs visés par la proposition de loi. Pour votre rapporteure, le texte, tel qu’il a été modifié par l’Assemblée nationale et le Sénat, satisfait cet objectif, sous réserve des améliorations qu’elle proposera en nouvelle lecture.

Les différences d’approche entre les deux assemblées n’étaient donc pas insurmontables et auraient pu faire l’objet d’un compromis en commission mixte paritaire. Subsistait, pour l’essentiel, un seul point de désaccord : le retrait des contenus manifestement haineux en ligne (articles 1er, 1er bis, 1er ter et 6 bis C). Le Sénat a supprimé l’obligation spécifique de retrait de ces contenus dans les 24 heures suivant leur notification, au profit du maintien du droit actuel ([4]), légèrement aménagé mais qui a fait la démonstration de ses insuffisances et de son inefficacité.

Pour justifier sa position, le rapporteur du Sénat évoque les risques de « sur-censure et de contournement du juge » liés à l’instauration d’une telle obligation de retrait dont le non-respect serait pénalement sanctionné.

Introduit par l’Assemblée nationale, le délit autonome de refus de retrait a au contraire pour objet de redonner toute sa place à l’autorité judiciaire, seule compétente pour apprécier les atteintes susceptibles d’être portées à la liberté d’expression. Comme le souligne le Conseil d’État, qui recommandait sa création, ce délit « ne viendrait que donner une portée effective » aux dispositions actuelles de la directive e‑commerce et de la loi pour la confiance dans l’économie numérique : il « ne soulèverait pas de difficulté au regard du droit constitutionnel et des obligations conventionnelles de la France ». En supprimant cette disposition, le Sénat, outre qu’il a vidé de sa substance le premier pilier du texte, a amoindri le rôle du juge judiciaire qu’il souhaitait pourtant renforcer. L’incohérence est encore plus manifeste à l’aune de la disposition autrement plus attentatoire à la liberté d’expression que le Sénat a adoptée à l’article 3, sur proposition du président du groupe Les Républicains, M. Bruno Retailleau, en donnant des pouvoirs exorbitants aux plateformes pour supprimer des comptes d’utilisateurs sans infraction constituée, sur la seule base de signalements, ouvrant ainsi la voie à la multiplication de raids numériques.

Le Sénat fait valoir également une « contrariété probable au droit européen » du dispositif envisagé, en se fondant sur les observations émises par la Commission européenne. Or ces observations portent, à titre principal, sur le volet relatif à la régulation administrative des plateformes, et non sur l’obligation d’agir dans un délai fixé. Les remarques formulées par la Commission sur cette obligation pouvaient être prises en compte en précisant les conditions de mise en cause de la responsabilité pénale des opérateurs et en explicitant la place de l’autorité judiciaire, ainsi que le proposait votre rapporteure.

En définitive, si l’Assemblée nationale avait accepté le texte adopté par le Sénat, rien n’aurait changé pour les victimes de contenus haineux sur internet, qui n’auraient pas eu les moyens d’obtenir leur retrait dans un délai bref. Les grands opérateurs de plateforme en ligne, quant à elles, auraient été, comme aujourd’hui, exemptées de toute obligation de résultat dans ce domaine. Leur régime de responsabilité pénale serait resté identique à celui des autres hébergeurs, alors que tous n’ont pas un rôle identique dans la diffusion des contenus stockés.

Malgré le caractère constructif des discussions qui se sont engagées entre le rapporteur du Sénat et votre rapporteure, la position inflexible de la majorité sénatoriale Les Républicains sur l’article 1er n’a pas permis d’aboutir à une rédaction acceptable de part et d’autre. En raison de ce différend insurmontable et, conformément à l’article 45, alinéa 4, de la Constitution ([5]), l’Assemblée nationale est aujourd’hui saisie, en nouvelle lecture, de cette proposition de loi, dans la version que le Sénat a adoptée en première lecture.

Pour votre rapporteure, le droit actuel a montré ses limites en ignorant le rôle d’intermédiaires actifs et d’accélérateurs de diffusion que jouent certaines grandes plateformes d’échange de contenus en ligne, inconnues du législateur européen et français lorsque le principe de neutralité des prestataires de services de communication au public en ligne à l’égard des contenus a été posé au début des années 2000. Or s’il est essentiel que le comportement global de ces plateformes à l’égard des contenus manifestement haineux soit contrôlé par un tiers indépendant, il est tout aussi indispensable qu’elles procèdent, à chaque fois que cela est nécessaire, au retrait, dans un bref délai, de tels contenus lorsqu’ils sont portés à leur connaissance, dans le respect de la libre communication des pensées et des opinions.

C’est la raison pour laquelle, en nouvelle lecture, votre Commission a rétabli, à l’article 1er, l’obligation pour les grandes plateformes – moteurs de recherche inclus – de retirer en 24 heures, sous peine de sanction pénale, les contenus manifestement haineux qui leur sont notifiés mais a renforcé les garanties applicables à la mise en œuvre de cette obligation.

Pour le reste et sous réserve des mises en cohérence nécessaires avec le choix opéré à l’article 1er, elle a conservé l’essentiel des autres dispositions adoptées par le Sénat, en y apportant les aménagements et les précisions qu’imposait le respect des exigences de sécurité juridique et de proportionnalité.


—  1  —

 

EXAMEN DES ARTICLES DE LA PROPOSITION DE LOI

Chapitre Ier
Obligation renforcée de retrait des contenus haineux en ligne

Article 1er
(art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Obligation de retrait des contenus manifestement haineux en ligne

Adopté par la Commission avec modifications

L’article 1er visait initialement à renforcer l’effectivité de l’obligation faite à certains opérateurs numériques de retirer les contenus manifestement haineux qu’ils hébergent et contribuent à diffuser afin que ceux-ci soient soustraits dans les 24 heures suivant leur notification, sous peine d’être condamnés par l’autorité judiciaire.

Le Sénat a remplacé ce dispositif, qu’il jugeait déséquilibré, par le maintien du régime actuellement prévu par la loi du 21 juin 2004 pour la confiance dans l’économie numérique pour lutter contre certains contenus, sous réserve de l’intégration dans ce régime des injures publiques à caractère discriminatoire, que la proposition de loi transmise par l’Assemblée nationale visait, et du négationnisme, qui n’y figurait pas.

1.   La proposition de loi initiale

Dans sa version initiale, l’article 1er renforçait, en matière de lutte contre les contenus haineux en ligne, les obligations des grands opérateurs de plateforme en ligne dont l’activité consiste à mettre en relation plusieurs personnes en vue du partage de contenus :

–  en précisant l’obligation de retrait des contenus manifestement illicites qui pèse déjà sur eux en vertu du droit actuel ([6]) afin qu’elle conduise au retrait, dans un délai de 24 heures à compter de leur notification, des contenus faisant l’apologie de certains crimes et de ceux constitutifs d’une injure publique ou d’une provocation à la discrimination, à la haine ou à la violence à raison de l’origine, de l’ethnie, d’une prétendue race, de la religion, du sexe, de l’orientation sexuelle, du genre ou d’un handicap ;

–  en permettant de contester les décisions, de retrait ou non, prises par les opérateurs ;

–  en confiant au Conseil supérieur de l’audiovisuel (CSA) le soin de sanctionner le non-respect de cette obligation.

2.   La position de l’Assemblée nationale en première lecture

a.   En commission

En première lecture, suivant en cela les recommandations formulées par le Conseil d’État dans son avis sur la proposition de loi, votre Commission a procédé à plusieurs modifications :

–  en ajoutant les moteurs de recherche à la liste des opérateurs concernés par l’obligation de retrait afin de viser tous les acteurs numériques jouant un rôle particulier dans la diffusion et la propagation de contenus publics partagés ;

–  en fondant l’obligation de retrait sur le champ des contenus déjà visés au 7 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique ([7]), sous réserve d’y adjoindre les injures publiques discriminatoires ;

–  en remplaçant la compétence du CSA pour sanctionner l’éventuel non‑retrait d’un contenu manifestement haineux par celle du juge judiciaire, seul à même d’apprécier les conditions d’exercice de la liberté d’expression, à travers la création d’un délit de refus de retrait d’un tel contenu.

Par ailleurs, elle a confié au pouvoir réglementaire le soin de définir le champ précis des opérateurs visés à partir d’un seuil d’activité sur le territoire français. Elle a également prévu l’affichage d’un message informatif en remplacement du contenu retiré.

Enfin, elle a supprimé les dispositions relatives à la contestation des décisions prises par les opérateurs en matière de retrait ou de déréférencement, pour les transférer à l’article 2 dédié aux obligations de moyens mises à la charge de ces opérateurs.

b.   En séance

En séance, l’Assemblée nationale a procédé à trois modifications principales :

–  dans un souci de souplesse et de proportionnalité, elle a autorisé le pouvoir réglementaire à fixer des seuils différenciés d’activité sur le territoire français pour définir le champ précis des opérateurs concernés par les obligations instaurées par la proposition de loi ;

–  pour faciliter les poursuites pénales à l’encontre des auteurs de contenus haineux, elle a prévu que les contenus supprimés devraient être conservés par les opérateurs pendant une durée maximale d’un an ;

–  pour garantir l’effectivité de l’obligation de retrait en 24 heures des contenus manifestement haineux, elle a habilité les associations de lutte contre les discriminations à exercer les droits reconnus à la partie civile en ce qui concerne le nouveau délit de refus de retrait de tels contenus.

3.   La position du Sénat

a.   En commission

Sur proposition de son rapporteur, la commission des Lois du Sénat a supprimé ces dispositions au bénéfice du maintien du régime de coopération renforcée actuellement prévu par le 7 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, qui oblige les hébergeurs, outre à retirer « promptement » les contenus manifestement illicites qui leur sont notifiés, à mettre en place un dispositif facilement accessible et visible permettant à toute personne de porter à leur connaissance certains contenus haineux, à en informer promptement les autorités publiques compétentes et à rendre publics les moyens qu’ils consacrent à la lutte contre ces contenus.

La commission des Lois du Sénat a toutefois conservé deux dispositions qui avaient été adoptées par l’Assemblée nationale :

–  d’une part, l’obligation faite aux hébergeurs de substituer au contenu retiré un message indiquant qu’il l’a été ;

–  d’autre part, la conservation pendant un an maximum des contenus illicites retirés pour les besoins de l’autorité judiciaire, que l’Assemblée nationale avait rendu obligatoire et que le Sénat a transformé en simple faculté.

La seule modification de fond apportée au droit existant par la commission des Lois du Sénat a consisté à étendre l’application des dispositions du régime de coopération renforcée aux injures publiques à caractère discriminatoire – visées par le texte adopté par l’Assemblée nationale – et au négationnisme ([8]).

Les contenus manifestement haineux devraient donc être retirés « promptement », comme le prévoit le droit actuel sans autre précision sur la durée laissée pour procéder à ce retrait ni sanction pénale du non-respect de cette obligation.

b.   En séance

À l’initiative de Mme Maryse Carrère et de plusieurs sénateurs du groupe Rassemblement Démocratique et Social Européen, avec l’avis favorable de la Commission mais défavorable du Gouvernement, le Sénat a précisé que le message informant du retrait du contenu devrait indiquer qu’il a été rendu inaccessible en raison de son caractère illicite.

Par ailleurs, sur proposition de M. Claude Malhuret et de sénateurs du groupe Les Indépendants - République et Territoires, suivant l’avis favorable de la Commission et de sagesse du Gouvernement, le Sénat est revenu sur les modifications apportées en commission aux règles de conservation des contenus retirés, afin de la rendre obligatoire et de renvoyer à un décret en Conseil d’État, pris après avis de la Commission nationale de l’informatique et des libertés, le soin d’en définir la durée et les modalités.

4.   La position de la Commission en nouvelle lecture

Sur proposition de votre rapporteure, la Commission a rétabli l’obligation de retrait, en 24 heures, des contenus manifestement haineux et la sanction pénale du non-respect de cette obligation, qui constituent le cœur de la proposition de loi. Elle a toutefois pris en compte certains apports du Sénat et répondu aux critiques que son rapporteur avait formulées à l’encontre du dispositif approuvé par l’Assemblée nationale en première lecture.

Le champ des contenus visés est identique à celui adopté en première lecture, sous réserve de l’ajout, opéré par le Sénat, du négationnisme, qui avait été réclamé par de nombreux groupes politiques.

Il est proposé, comme en première lecture, de soumettre au respect de cette obligation les moteurs de recherche au même titre que les grandes plateformes de partage de contenus publics, ces deux catégories d’opérateurs devant être traitées de la même manière à raison de leur interaction active avec les contenus, dont ils favorisent la diffusion accélérée. Afin de mieux cibler la portée de cette obligation, la rédaction retenue n’exige plus le déréférencement du lien vers le contenu litigieux mais le retrait de la seule mention de ce contenu de la page de résultats des recherches.

Le délit de refus de retrait d’un contenu manifestement haineux qu’avait créé, sur la préconisation du Conseil d’État, l’Assemblée nationale est rétabli, sous réserve de deux modifications :

–  la peine encourue pour ce délit serait une amende, à l’exclusion de tout emprisonnement, dont l’utilité n’est pas avérée s’agissant de personnes morales ;

–  le caractère intentionnel de l’infraction, qui procède des dispositions de portée générale du premier alinéa de l’article 121‑3 du code pénal, pourra résulter « de l’absence d’examen proportionné et nécessaire du contenu notifié » : cette disposition permet de tenir compte du cas, envisagé par la Commission européenne dans ses observations sur le texte, où la nature du contenu nécessiterait une évaluation de son contexte plus conséquente, qui ne peut pas raisonnablement être effectuée dans le délai de 24 heures, ou de l’hypothèse d’un contenu destiné à dénoncer un propos haineux.

Soucieuse d’expliciter le rôle central de l’autorité judiciaire en matière de préservation de la liberté d’expression, votre rapporteure a ajouté à cette rédaction des dispositions rappelant la compétence du juge pour statuer à tout moment, en cas de litige, sur la licéité d’un contenu, par renvoi aux dispositions actuelles de la loi du 21 juin 2004 pour la confiance dans l’économie numérique et du code de procédure civile, afin de permettre :

–  à une personne qui s’estime victime d’un contenu d’en obtenir le retrait, en vertu du 8 du I de l’article 6 de cette loi, qui prévoit que « l’autorité judiciaire peut prescrire en référé ou sur requête, à toute personne mentionnée au 2 [hébergeurs], (…) toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne » ([9]) ;

–  à l’auteur d’un contenu retiré d’en obtenir le rétablissement, sur le fondement de l’article 835 du code de procédure civile, qui dispose que « le président [du tribunal judiciaire] peut toujours, même en présence d’une contestation sérieuse, prescrire en référé les mesures conservatoires ou de remise en état qui s’imposent, soit pour prévenir un dommage imminent, soit pour faire cesser un trouble manifestement illicite ».

Pour le reste, la Commission a rétabli les dispositions, qui figuraient à l’article 1er, relatives à la durée de conservation des contenus retirés, qui devra correspondre aux besoins de l’autorité judiciaire pour la répression des infractions concernées, au remplacement du contenu retiré par un message informatif et à la possibilité pour certaines associations d’exercer les droits reconnus à la partie civile en ce qui concerne le délit de refus de retrait de contenus manifestement haineux.

Pour améliorer la lisibilité du dispositif, la Commission a intégré à l’article 1er des dispositions en lien direct avec l’obligation de retrait mais qui figuraient dans d’autres articles de la proposition de loi, d’une part celles relatives au calcul du délai de 24 heures, initialement fixées par l’article 1er bis, et, d’autre part, celles sanctionnant les notifications abusives, auparavant prévues par l’article 1er ter.

*

*     *

Article 1er bis
(art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Formalisme de la procédure de notification d’un contenu haineux en ligne

Suppression maintenue par la Commission

Le présent article, adopté par votre Commission en première lecture, tendait à alléger le formalisme des notifications de contenus manifestement haineux afin de faciliter les démarches des victimes de ces contenus auprès des grands opérateurs de plateforme en ligne.

Le I de l’article 2 de la proposition de loi initiale, dont le présent article est la reprise, limitait les éléments à transmettre aux opérateurs pour ne viser, en lieu et place des nombreuses informations aujourd’hui demandées aux utilisateurs de leurs plateformes, que ceux strictement nécessaires à l’identification du notifiant, à la détermination de la catégorie du contenu litigieux, à partir d’une liste dressée par décret, et à sa localisation, par la communication du lien d’accès à ce contenu.

En première lecture, votre Commission a précisé que le notifiant devrait indiquer la catégorie à laquelle peut être rattaché le contenu litigieux sans renvoyer à un décret le soin d’en dresser une liste. Suivant une préconisation formulée par le Conseil d’État dans son avis sur la proposition de loi, elle a également exigé du notifiant qu’il décrive les contenus dont il sollicite le retrait ou le déréférencement et les motifs le justifiant.

En séance, l’Assemblée nationale a précisé que les éléments permettant l’identification du notifiant étaient réputés établis lorsque celui-ci est un utilisateur du service de l’opérateur, qu’il est connecté au moment de la notification et que l’opérateur a recueilli les informations nécessaires à la vérification de son identité.

Dans le prolongement de la suppression des dispositions adoptées par l’Assemblée nationale en première lecture à l’article 1er et par cohérence avec les modifications apportées au formalisme de la notification de tout type de contenus illicites à l’article 1er ter A, la commission des Lois du Sénat, suivant son rapporteur, a supprimé le présent article, qui n’a pas été rétabli en séance.

En nouvelle lecture, votre Commission n’a pas rétabli cet article. En effet, elle a transféré ces dispositions à l’article 1er, avec lequel elles sont en lien direct, afin de clarifier les règles applicables à l’obligation de retrait en 24 heures des contenus manifestement haineux ([10]).

*

*     *

Article 1er ter A
(art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)
Mise en cohérence du formalisme de la notification
des autres contenus illicites

Adopté par la Commission avec modifications

Issu de l’adoption, par l’Assemblée nationale en première lecture, d’un amendement du Gouvernement, le présent article visait à mettre en cohérence les modalités simplifiées de notification de tous les contenus illicites en ligne avec celles prévues pour les contenus haineux, en modifiant à cette fin les deuxième à avant‑dernier alinéas du 5 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

La commission des Lois du Sénat, sur proposition de son rapporteur, a conservé la simplification proposée par l’Assemblée nationale du formalisme de notification des contenus illicites, qui aurait donc vocation à s’appliquer aux contenus haineux, sous réserve de trois modifications principales :

–  elle a exigé du notifiant qu’il indique à l’hébergeur la localisation précise du contenu litigieux, exigence qui est prévue par le droit actuel ;

–  elle a précisé que les conditions liées à la description du contenu, à sa localisation précise et aux motifs légaux justifiant son retrait seraient réputées satisfaites dès lors que le site internet permettrait de procéder à la notification par un dispositif technique accessible directement depuis le contenu ou proposant d’indiquer la catégorie d’infraction à laquelle il peut être rattaché ;

–  elle a dispensé les personnes notifiant des contenus haineux de l’obligation qui s’impose aujourd’hui à elles d’apporter la preuve des démarches entreprises pour contacter préalablement l’auteur des propos litigieux.

Cet article n’a fait l’objet d’aucune modification en séance.

En nouvelle lecture, votre Commission a adopté un amendement de votre rapporteure afin de modifier la liste des contenus pour lesquels le notifiant n’aura pas à prouver les démarches entreprises pour contacter préalablement leur auteur afin que sa notification soit considérée comme valable, en cohérence avec la nouvelle rédaction de l’article 1er.

*

*     *

Article 1er ter B
(art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Rôle des associations de protection de l’enfance en matière
de notification des contenus haineux en ligne

Adopté par la Commission avec modifications

Le présent article résulte de l’adoption, par l’Assemblée nationale en première lecture, de trois amendements identiques des groupes La République en marche, Mouvement démocrate et apparentés ainsi que Socialistes et apparentés, sous-amendés par le Gouvernement. Il a pour objet de préciser le rôle des associations de protection de l’enfance dans la notification de contenus haineux se rapportant à des mineurs.

Le dispositif finalement adopté prévoit que ces associations puissent être saisies par un mineur pour notifier un contenu manifestement haineux le concernant, à condition toutefois qu’elles informent de leurs démarches le mineur et ses représentants légaux ([11]).

L’opérateur destinataire de la notification de l’association devra accuser réception sans délai de celle-ci et l’informer des suites qui lui sont données ainsi que des motifs de sa décision, dans les conditions prévues par la proposition de loi pour toute autre notification.

Enfin, l’association pourra contester, si nécessaire, le défaut de retrait ou de déréférencement du contenu litigieux, sans que cela n’empêche les représentants légaux du mineur de le faire également. Elle devra informer le mineur et ses parents des suites données à sa demande et assurer la conservation des données que lui a transmises le mineur pour procéder à la notification, le temps nécessaire à l’action tendant à obtenir le retrait ou le déréférencement effectif du contenu ([12]).

Sur proposition de son rapporteur, la commission des Lois du Sénat a approuvé cet article et ne lui a apporté que deux séries de modifications :

–  sur la forme, des modifications de cohérence destinées à tirer les conséquences des choix qu’elle avait opérés aux articles précédents ;

–  sur le fond, elle a permis qu’il soit dérogé à l’information systématique des représentants légaux du mineur lorsque cela est contraire à son intérêt, afin de tenir compte des situations dans lesquelles les contenus litigieux portent sur la vie affective ainsi que sur les pratiques ou l’orientation sexuelles du mineur.

En séance, le Sénat a apporté des corrections de nature rédactionnelle à cet article et modifié le champ des associations visées :

–  d’une part, à l’initiative de Mme Nathalie Goulet et de sénateurs du groupe Union centriste, suivant l’avis favorable de la Commission et de sagesse du Gouvernement, il a permis à toutes les associations de protection de l’enfance d’être concernées, sans qu’il soit nécessaire que leur objet statutaire comporte la protection des enfants « dans le cadre de leur usage des plateformes en ligne » ;

–  d’autre part, il a adopté un amendement de la Commission, avec l’avis favorable du Gouvernement, réservant l’application du dispositif aux associations de protection de l’enfance reconnues d’utilité publique afin « de s’assurer de la qualité de la prise en charge des mineurs dans le cadre des signalements aux plateformes pour les faits dont ils sont victimes et (…) de prévenir tout risque de sur-notification » ([13]).

En nouvelle lecture, après avoir tiré les conséquences, à cet article, de la nouvelle rédaction de l’article 1er, votre Commission a procédé à deux modifications de fond :

–  à l’initiative conjointe des membres du groupe La République en marche et de votre rapporteure, elle n’a pas conservé la limitation du dispositif, adoptée par le Sénat, aux associations reconnues d’utilité publique afin de ne pas réduire trop drastiquement le nombre de celles qui pourront venir en aide aux mineurs victimes de contenus haineux en ligne ;

–  sur proposition de votre rapporteure, elle a aménagé la dérogation, prévue par le Sénat, à l’information systématique des représentants légaux du mineur afin que celle-ci s’opère « selon des modalités adaptées à l’intérêt de l’enfant ».

*

*     *

Article 1er ter
(art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)
Sanction des notifications abusives ou malveillantes

Suppression maintenue par la Commission

Introduit en première lecture par votre Commission, le présent article avait pour objet de sanctionner pénalement les notifications abusives ou malveillantes de contenus présentés comme haineux aux grands opérateurs de plateforme en ligne afin de prévenir les risques de surblocage ou de déréférencement excessif du fait d’actes malhonnêtes.

En cohérence avec la suppression, aux précédents articles, des dispositions relatives à l’obligation de retrait en 24 heures des contenus manifestement haineux et au formalisme des notifications de ces contenus, la commission des Lois du Sénat, sur proposition de son rapporteur, a supprimé cet article, qui n’a pas été rétabli en séance.

En nouvelle lecture, votre Commission n’a pas rétabli cet article dont les dispositions ont été transférées à l’article 1er, avec lequel elles sont en lien direct, afin de clarifier les règles applicables à l’obligation de retrait en 24 heures des contenus manifestement haineux ([14]).

*

*     *

Chapitre II
Devoir de coopération des opérateurs de plateforme
dans la lutte contre les contenus haineux en ligne

Article 2
(art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Obligations de moyens en matière de traitement des notifications
de contenus manifestement haineux en ligne

Adopté par la Commission avec modifications

Cet article, combiné à l’article 3, instaure un devoir de coopération renforcé à la charge des grands opérateurs de plateforme en ligne afin qu’ils concourent, à travers plusieurs obligations de moyens relatives au traitement des notifications, à la lutte contre la prolifération de contenus haineux sur internet, sous la supervision du Conseil supérieur de l’audiovisuel (CSA).

1.   La proposition de loi initiale

Dans sa version initiale, l’article 2 améliorait l’efficacité de la procédure de notification de contenus manifestement haineux en ligne par deux modifications du droit existant.

D’une part, il simplifiait les conditions dans lesquelles les hébergeurs de contenus litigieux sont présumés avoir connaissance de tels contenus et être tenus responsables de leur diffusion en exigeant du notifiant qu’il ne leur transmette que les éléments permettant son identification ainsi que la nature de ces contenus et un lien pour y accéder.

D’autre part, il améliorait la procédure de notification de ces contenus auprès des grands opérateurs de plateforme en ligne par l’obligation faite à ces derniers :

–  de mettre en place un dispositif de notification facilement accessible, uniformisé et disponible dans la langue d’utilisation du service ;

–  d’accuser réception sans délai de la notification ;

–  d’informer le notifiant des suites données à la notification dans un délai de 24 heures pour les contenus haineux et de sept jours pour les autres ;

–  et de mettre en œuvre les moyens nécessaires à un traitement dans les meilleurs délais des notifications reçues.

2.   La position de l’Assemblée nationale en première lecture

a.   En commission

En première lecture, votre Commission a transféré à l’article 1er bis les dispositions relatives à l’allègement du formalisme des notifications.

Par ailleurs, suivant une recommandation formulée par le Conseil d’État dans son avis sur la proposition de loi, elle a regroupé dans cet article l’ensemble des obligations de moyens destinées à garantir un traitement efficace des notifications de contenus haineux reçues par les grands opérateurs de plateforme en ligne. Ces obligations, comme les autres obligations de moyens mises à la charge des opérateurs par l’article 3 de la proposition de loi, ont été regroupées au sein d’un nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, dédié au devoir de coopération renforcé de ces plateformes.

Parmi les obligations de moyens ajoutées par votre Commission en vue d’améliorer le traitement des notifications, les opérateurs devraient :

–  se conformer aux recommandations du CSA pour la bonne application de l’obligation de retrait en 24 heures des contenus manifestement haineux et des obligations de moyens ;

–  mettre en place une procédure optimale de traitement des notifications, en respectant les dispositions prévues à cet égard dans le texte initial, et en informant non seulement le notifiant mais aussi l’auteur du contenu litigieux sur les suites données à la notification, les motifs de la décision prise et les sanctions encourues pour la publication de contenus manifestement illicites, dans un délai de 24 heures en cas de retrait ou de déréférencement ou, à défaut, de sept jours ;

–  mettre en œuvre les moyens suffisants pour, non pas traiter dans les meilleurs délais les notifications reçues, mais respecter plus généralement l’obligation de retrait dans les 24 heures des contenus manifestement haineux ;

–  permettre à leurs utilisateurs de contester devant eux les décisions prises à la suite de la notification d’un contenu litigieux, obligation qui figurait initialement à l’article 1er de la proposition de loi.

b.   En séance

En séance, l’Assemblée nationale a étendu la liste des informations à communiquer au notifiant et à l’auteur du contenu litigieux afin d’y inclure la date et l’heure du signalement.

Elle a précisé que le devoir d’information de l’auteur du contenu litigieux et la possibilité offerte à celui-ci comme au notifiant de contester la décision prise ne s’appliqueraient que si l’opérateur disposait des éléments pour contacter ces personnes, ce qui peut ne pas être le cas des moteurs de recherche.

Par ailleurs, l’Assemblée nationale a modifié l’obligation faite aux opérateurs de mettre en œuvre les moyens suffisants pour traiter les notifications qu’ils reçoivent :

–  cette obligation, qui portait initialement sur les moyens, a été étendue aux procédures mises en place ;

–  un contrôle humain sur le traitement des notifications a été imposé, afin de proscrire le recours exclusif à des traitements algorithmiques ;

–  ces moyens et procédures devraient également permettre un « examen approprié des contenus notifiés de manière à prévenir les risques de retrait injustifié ».

Enfin, l’Assemblée a ajouté à ces obligations celle de prévenir, au travers de « moyens appropriés », la rediffusion des contenus manifestement haineux, hors les cas dans lesquels cette rediffusion se ferait pour un motif légitime, comme leur dénonciation ou leur critique.

3.   La position du Sénat

Tout en approuvant l’instauration, proposée par l’Assemblée nationale, d’un devoir de coopération renforcée des opérateurs numériques dans la lutte contre les contenus haineux en ligne à raison de leur rôle dans la diffusion de ces contenus, le Sénat a apporté à cet article plusieurs modifications.

a.   Le champ des opérateurs concernés par le devoir de coopération renforcée

La commission des Lois du Sénat, sur proposition de son rapporteur, a exclu du champ des opérateurs visés les moteurs de recherche « en raison de leur rôle bien moins déterminant que les réseaux dans la propagation de la haine » ([15]).

Suivant une proposition conjointe de son rapporteur et de la commission des Affaires économiques, elle a dans le même temps élargi ce champ en permettant au CSA d’y attraire tout site internet « qui acquiert en France un rôle significatif pour l’accès du public à certains biens, services ou informations en raison de l’importance de son activité et de la nature technique du service proposé ».

Elle a également précisé que les seuils d’activité pris en compte pour soumettre les plateformes de partage de contenus à ce devoir de coopération seraient déterminés par décret en Conseil d’État, et non par décret simple comme le proposait l’Assemblée nationale.

b.   La proportionnalité des obligations de moyens

Par deux amendements de son rapporteur et de la commission des Affaires économiques, sous-amendés par le groupe La République en marche, la commission des Lois du Sénat a précisé que la mise en œuvre par les grands opérateurs de plateforme en ligne des obligations de moyens mises à leur charge devrait être « proportionnée et nécessaire au regard tant de la taille des plateformes et de la nature du service fourni que de l’atteinte susceptible d’être portée à la dignité humaine par les contenus dont ils assurent le stockage ».

c.   Le rôle du CSA

À l’initiative de son rapporteur, la commission des Lois du Sénat a prévu que les grands opérateurs de plateforme en ligne devraient se conformer non seulement aux recommandations que le CSA émettra pour la bonne mise en œuvre des obligations de moyens, comme le proposait l’Assemblée nationale, mais aussi « aux règles et modalités techniques » qu’il édictera en vertu du pouvoir réglementaire qu’il détient.

d.   Le traitement des notifications

La commission des Lois du Sénat, sur proposition de son rapporteur, a procédé à plusieurs modifications de la procédure de traitement des notifications :

–  elle a exigé que le dispositif de notification mis en place par ces opérateurs soit « facile d’utilisation » ;

–  elle a supprimé, au stade de la notification d’un contenu litigieux, l’information systématique de l’auteur du contenu et certaines informations que les opérateurs devaient lui communiquer ainsi qu’au notifiant (horodatage de la notification et sanctions encourues en cas de publication de contenus illicites) ;

–  elle a remplacé les délais – de 24 heures et sept jours – donnés aux opérateurs pour statuer sur la notification par une exigence plus générale de prompte réponse.

En séance, suivant l’avis favorable de la Commission et de sagesse du Gouvernement, le Sénat a adopté un amendement de Mme Marie-Pierre de la Gontrie et de sénateurs du groupe Socialiste et Républicain exigeant des grands opérateurs de plateforme qu’ils « accomplissent les diligences proportionnées et nécessaires au regard de la nature du contenu et des informations dont ils disposent » pour procéder au retrait en 24 heures des contenus manifestement illicites qui leur sont notifiés.

e.   La contestation de la décision d’un opérateur

Suivant son rapporteur, la commission des Lois du Sénat a approuvé l’obligation de moyens destinée à permettre de contester la décision prise par un opérateur à la suite d’une notification mais souhaité qu’elle passe par la mise en œuvre de « dispositifs de contre-notification et d’appel ».

Elle a rétabli l’information de l’auteur du contenu sur le sens et les motifs de la décision prise par l’opérateur à la suite d’une notification pour la réserver aux cas dans lesquels le contenu serait retiré et pas, comme le proposait l’Assemblée nationale, dès le début de la notification. Il serait toutefois possible de déroger à cette obligation d’information de l’auteur du contenu « lorsqu’une autorité publique le demande pour des raisons d’ordre public ou à des fins de prévention et de détection des infractions pénales, ainsi que d’enquêtes et de poursuites en la matière ».

f.   La lutte contre la réapparition de contenus haineux

Enfin, la commission des Lois du Sénat, sur la proposition conjointe de son rapporteur et des membres du groupe La République en marche, a supprimé l’obligation faite aux grands opérateurs de plateforme en ligne de mettre en œuvre les moyens appropriés pour empêcher la rediffusion de contenus haineux, au motif qu’elle contreviendrait à l’interdiction posée au niveau européen d’imposer aux intermédiaires techniques une obligation de surveillance générale de leurs réseaux ([16]).

4.   La position de la Commission en nouvelle lecture

Sur proposition de votre rapporteure, la Commission a adopté plusieurs amendements rédactionnels et de cohérence afin, en particulier, de revenir sur les modifications apportées par le Sénat au champ des opérateurs soumis à la régulation administrative :

–  d’une part, en rétablissant dans ce champ les moteurs de recherche, concernés, à l’article 1er, par l’obligation de retrait en 24 heures des contenus manifestement haineux ;

–  d’autre part, en ne permettant pas au CSA d’attraire devant lui tout site internet qui acquiert en France un rôle significatif pour l’accès du public aux contenus, dans la mesure où une telle disposition, qui dérogerait aux seuils d’activité applicables aux autres opérateurs, soulève de sérieuses difficultés constitutionnelles et conventionnelles.

*

*     *

Article 3
(art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Obligations de moyens en matière d’information, de transparence
et de coopération avec les autorités publiques compétentes

Adopté par la Commission avec modifications

Cet article, qui s’inscrit dans la continuité du précédent, complète le devoir de coopération renforcée des grands opérateurs de plateforme en ligne par des obligations de moyens en matière d’information, de transparence et de collaboration avec les autorités publiques compétentes.

1.   La proposition de loi initiale

Afin de renforcer la portée du devoir d’information des acteurs numériques les plus exposés dans la régulation des contenus illicites et d’améliorer la prise en charge des victimes de ces contenus, le présent article prévoyait, dans sa version initiale, que les grands opérateurs de plateforme en ligne devraient mettre à disposition « une information publique, claire et détaillée sur les dispositifs de recours, y compris judiciaires, dont disposent les victimes de contenus [haineux] et sur les acteurs en mesure d’assurer leur accompagnement ».

2.   La position de l’Assemblée nationale en première lecture

a.   En commission

En cohérence avec la création, par l’article 2 de la proposition de loi, d’un nouvel article 6-3 dans la loi du 21 juin 2004 pour la confiance dans l’économie numérique, dédié aux obligations de moyens des opérateurs, votre Commission a inscrit ces dispositions au sein de ce nouvel article 6-3.

Votre Commission a ensuite précisé la portée de l’obligation d’information mise à la charge de ces opérateurs :

–  suivant une recommandation formulée par le Conseil d’État dans son avis sur la proposition de loi, elle a permis que les auteurs des contenus notifiés soient eux-aussi informés des mécanismes de recours à leur disposition, afin de préserver la liberté d’expression de ces personnes ;

–  elle a aussi étendu la liste des informations à communiquer pour y ajouter les délais impartis pour former un recours interne ou judiciaire contre la décision prise par l’opérateur, les risques liés aux notifications abusives, les sanctions encourues en cas de publication de contenus haineux et les règles de modération.

Par ailleurs, votre Commission a ajouté quatre obligations afin que figure dans cet article l’ensemble des obligations d’information, de transparence et de coopération des grandes plateformes en ligne :

–  une obligation de transparence sur l’organisation adoptée ainsi que sur les moyens mis en œuvre pour se conformer à l’obligation de retrait renforcée et lutter contre les contenus haineux, qui figurait, en des termes très proches, au II de l’article 4 de la proposition de loi initiale ;

–  une obligation de sensibilisation des mineurs de moins de 15 ans et de leurs parents ;

–  l’obligation d’informer promptement les autorités publiques des activités haineuses qui leur sont notifiées, reprise de l’obligation prévue par la loi pour la confiance dans l’économie numérique pour les autres activités illicites ;

–  l’obligation de désigner un représentant légal en France, qui figurait initialement au II de l’article 5 et dont la nature a été précisée afin de tenir compte d’une observation du Conseil d’État.

b.   En séance

En séance, l’Assemblée nationale a continué d’enrichir ces dispositions :

–  en prévoyant que l’information délivrée par les opérateurs devra être « facilement accessible et visible » pour leurs utilisateurs et concerner, s’agissant des règles de modération, les modalités générales du dispositif mis en place à cette fin ;

–  en exigeant que les opérateurs soient également transparents sur les résultats qu’ils obtiennent dans la lutte contre les contenus haineux en ligne ainsi que sur les actions et moyens qu’ils mettent en œuvre en matière de prévention dans ce domaine, par la publication périodique d’informations selon des modalités déterminées par le Conseil supérieur de l’audiovisuel (CSA) dans le respect du secret des affaires ;

–  en précisant la portée de l’obligation de sensibilisation des mineurs et de leurs parents pour faire en sorte que l’information sur les risques relatifs à la publication de contenus haineux soit transmise à l’occasion de l’inscription sur la plateforme, qui requiert le consentement conjoint du mineur et de ses parents ;

–  en clarifiant l’obligation pour l’opérateur de désigner un représentant légal : ce dernier devra être une personne physique située sur le territoire français et aura pour mission de recevoir les réquisitions de l’autorité judiciaire et les demandes du CSA ;

–  en interdisant, au sein des conditions générales d’utilisation du service, les clauses floues, peu compréhensibles ou discriminatoires lorsqu’elles portent sur des contenus haineux, afin de parer au risque de sur-censure de la part des plateformes.

3.   La position du Sénat

La commission des Lois du Sénat, sur proposition de son rapporteur, a apporté à cet article des modifications principalement rédactionnelles et de cohérence. Elle a par ailleurs précisé que les informations rendues publiques pour apprécier les moyens mis en œuvre par les opérateurs pour lutter contre les contenus haineux en ligne devraient comporter des « indicateurs chiffrés ».

En séance, le Sénat a adopté, suivant l’avis favorable de la Commission mais contre celui du Gouvernement, un amendement de M. Bruno Retailleau et de sénateurs du groupe Les Républicains, mettant à la charge des opérateurs une nouvelle obligation de moyens en matière de lutte contre les faux comptes. Ces opérateurs devraient mettre en place « les moyens nécessaires à la suppression des comptes de leurs utilisateurs ayant fait l’objet d’un nombre de notifications par plusieurs personnes faisant apparaître, au vu de ce faisceau d’indices, une contravention sérieuse » aux infractions à caractère haineux visées par le devoir de coopération renforcée, à l’exclusion du négationnisme. Le dispositif adopté permet cependant à l’utilisateur concerné de contester la suppression de son compte, qui ne ferait pas obstacle à la conservation des données associées à ce compte pour les besoins de l’autorité judiciaire.

4.   La position de la Commission en nouvelle lecture

À l’initiative de votre rapporteure, la Commission a procédé à plusieurs modifications s’inscrivant en cohérence avec le rétablissement, à l’article 1er, de l’obligation de retrait en 24 heures des contenus manifestement haineux et avec la réintégration, à l’article 2, des moteurs de recherche dans le champ de la régulation administrative.

Par ailleurs, elle a adopté quatre amendements identiques de votre rapporteure, des groupes La République en Marche et La France insoumise ainsi que de M. Philippe Latombe (Mouvement Démocrate et apparentés) supprimant une disposition ajoutée par le Sénat aux termes de laquelle les opérateurs de plateforme en ligne auraient dû mettre en œuvre les moyens nécessaires à la suppression des comptes qui publient des contenus haineux dès lors qu’ils feraient l’objet d’un nombre important de notifications. Une telle obligation aurait en effet porté une atteinte disproportionnée à la liberté d’expression :

–  en conduisant à la suppression non pas de contenus ponctuellement manifestement illicites, comme le prévoit l’article 1er, mais de comptes entiers de personnes en l’absence d’infraction pénale qualifiée ;

–  en encourageant les « raids numériques » de la part d’utilisateurs malveillants afin d’exclure d’une plateforme certaines personnes.

*

*     *

Article 3 bis
(art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)
Triplement du montant de la peine d’amende encourue
en cas de non-coopération avec les autorités publiques

Adopté par la Commission avec modifications

Le présent article, adopté par la commission des Lois de l’Assemblée nationale en première lecture, est la reprise des dispositions figurant au I de l’article 5 de la proposition de loi initiale.

Il triple le montant de la peine d’amende encourue en cas de méconnaissance, par un fournisseur d’accès à internet ou un hébergeur, de ses obligations de coopération avec les autorités publiques en matière de lutte contre les contenus illicites ([17]).

Sur proposition de son rapporteur, la commission des Lois du Sénat a étendu cette disposition aux éditeurs de services qui ne mettraient pas à disposition du public les éléments d’information les concernant ou qui ne désigneraient pas un directeur de publication.

Cet article n’a pas fait l’objet de modification en séance.

En nouvelle lecture, sur proposition de votre rapporteure, votre Commission est revenue sur l’extension de cette disposition aux éditeurs de service, qui ne figurent pas dans le champ de la proposition de loi et ne sont pas placés dans la même situation que les grandes plateformes au regard de la diffusion des contenus publics.

*

*     *

Chapitre III
Rôle du Conseil supérieur de l’audiovisuel
dans la lutte contre les contenus haineux en ligne

Article 4
(art. 17-3 [nouveau], 19 et 42-7 de la loi n° 86-1067 du 30 septembre 1986
relative à la liberté de communication et art. 6 et 6-1 de la loi n° 2004-575
du 21 juin 2004 pour la confiance dans l’économie numérique)
Rôle du Conseil supérieur de l’audiovisuel dans
la lutte contre les contenus haineux sur internet

Adopté par la Commission avec modifications

Le présent article définit le nouveau rôle confié au Conseil supérieur de l’audiovisuel (CSA) en matière de supervision des grands opérateurs de plateforme en ligne dans la lutte contre les contenus haineux sur internet.

1.   La proposition de loi initiale

Dans sa version initiale, le présent article avait deux objets principaux.

D’une part, il confiait au CSA une nouvelle compétence dans la lutte contre la diffusion de contenus haineux sur internet, par l’établissement de recommandations aux grands opérateurs de plateforme en ligne, le suivi de leurs obligations et la publication d’un bilan périodique de leur application.

D’autre part, il obligeait ces opérateurs à rendre publics les actions et moyens mis en œuvre dans la lutte contre les contenus haineux.

2.   La position de l’Assemblée nationale en première lecture

a.   En commission

En première lecture, suivant les recommandations formulées par le Conseil d’État dans son avis sur la proposition de loi, votre Commission a réaménagé les pouvoirs dévolus au CSA dans la lutte contre la haine en ligne et tiré les conséquences de la nouvelle architecture des obligations imposées à ces opérateurs. Ont ainsi été supprimées les dispositions relatives au devoir de transparence des grands opérateurs de plateforme en ligne, déplacées à l’article 3 de la proposition de loi afin de consacrer le présent article aux seules compétences du CSA.

Sur le fond, les modifications les plus importantes ont porté sur la procédure en manquement d’un opérateur afin de sécuriser la mise en œuvre de cette procédure initialement prévue au II de l’article 1er de la proposition de loi :

–  pour caractériser un manquement, le CSA devrait se fonder sur le respect des obligations de moyens et les conditions dans lesquelles l’opérateur se conformerait à ses recommandations pour la bonne application de l’obligation de retrait et des obligations de moyens, le cas échéant en appréciant « le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait » ;

–  le prononcé d’une sanction devrait être précédé d’une mise en demeure ;

–  le montant de la sanction, dont le plafond resterait fixé à 4 % du chiffre d’affaires annuel mondial de l’opérateur comme le prévoyait la proposition de loi initiale, devrait prendre en considération la gravité des manquements commis et, le cas échéant, leur caractère réitéré ;

–  le CSA pourrait rendre publiques ces mises en demeure et sanctions.

Par ailleurs, votre Commission a procédé à d’autres modifications de moindre importance. Pour permettre au CSA de veiller au respect des obligations de moyens constitutives du devoir de coopération tel qu’il est prévu par le nouvel article 6-3 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique et faciliter la mise en œuvre de l’obligation de retrait renforcée, elle l’avait autorisé à émettre, en plus des recommandations, des bonnes pratiques et des lignes directrices et avait rendu annuelle la publication de son bilan sur l’application de ces obligations.

Enfin, par cohérence avec le rôle nouveau dévolu au CSA en matière de régulation des contenus illicites en ligne, votre Commission lui avait transféré la mission de contrôler la mise en œuvre des dispositions existantes en matière de blocage et de déréférencement administratifs de sites terroristes ou pédopornographiques, aujourd’hui exercée par une personnalité qualifiée désignée au sein de la Commission nationale de l’informatique et des libertés (CNIL).

b.   En séance

En séance, l’Assemblée nationale a enrichi les compétences du CSA :

–  dont les recommandations, bonnes pratiques et lignes directrices à destination des opérateurs pourraient également concerner l’accompagnement des victimes de contenus haineux ;

–  qui serait doté de tous les pouvoirs d’investigation nécessaires au contrôle des opérateurs relevant de sa régulation ;

–  qui pourrait encourager les grandes plateformes en ligne à mettre en œuvre des outils de coopération dans la lutte contre les contenus à caractère haineux.

Elle a par ailleurs rendu systématique la publication des mises en demeure et sanctions qu’il prononce.

3.   La position du Sénat

a.   En commission

Outre des amendements de cohérence avec les nouvelles rédactions retenues aux articles qui précèdent, le Sénat a procédé à plusieurs modifications de fond.

Sur proposition de la commission de la Culture, de l’Éducation et de la Communication, la commission des Lois a supprimé la possibilité pour le CSA d’émettre des bonnes pratiques et lignes directrices pour ne conserver que les recommandations.

La Commission a, dans les mêmes conditions, simplifié la procédure de sanction applicable aux opérateurs défaillants. La simplification proposée résulte principalement de la suppression, à l’article 1er, de l’obligation de retrait en 24 heures des contenus manifestement haineux pour laquelle le CSA devait jouer un rôle d’accompagnement. La seule évolution notable concerne le pouvoir donné au Conseil de déterminer les modalités de la publicité de ses décisions afin qu’elles soient « proportionnées à la gravité du manquement » alors que l’Assemblée nationale proposait qu’elle soit systématique et puisse impliquer une diffusion dans les médias ou sur internet, y compris pour les mises en demeure.

La commission des Lois a complété la nouvelle mission confiée par l’Assemblée nationale au CSA en faveur de la mise en œuvre par les grandes plateformes en ligne d’outils de coopération dans la lutte contre les contenus haineux en ligne :

–  à l’initiative de la commission des Affaires économiques, elle a précisé que cette mission pourrait également consister à inciter ces plateformes à mettre en place des outils de partage d’informations ;

–  sur proposition de son rapporteur, elle a prévu que cette mission pourrait aussi conduire le CSA à encourager ces plateformes à avoir recours à des dispositifs techniques proportionnés de désactivation rapide de certaines fonctionnalités de rediffusion massive de contenus dans l’attente du traitement de la notification d’un contenu illicite : le rapporteur du Sénat considère que de tels outils pourraient être utilisés « dans certaines circonstances, par exemple lorsque les contenus font l’objet de signalements nombreux et répétés par des signaleurs de confiance, ou lorsque ces contenus (…) émanent de comptes récidivistes ayant déjà facilité la diffusion de contenus illicites » ([18]) ;

–  suivant encore son rapporteur, elle a étendu cette mission d’encouragement à la problématique de l’interopérabilité « afin de favoriser le libre choix des utilisateurs entre différentes plateformes » dont les politiques de modération diffèrent, sans que la désinscription de l’une d’elles ait pour conséquence de leur faire perdre leurs contacts.

b.   En séance

En séance, le Sénat a adopté, suivant l’avis favorable de la Commission et de sagesse du Gouvernement, un amendement de M. Philippe Bonnecarrère (Union centriste) modifiant le montant de la sanction pécuniaire susceptible d’être prononcée par le CSA contre un opérateur défaillant, en prévoyant un plafond de 20 millions d’euros ou, comme le proposait l’Assemblée nationale, de 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent, « le montant le plus élevé étant retenu ». Pour le sénateur à l’origine de cette modification, il s’agit de s’inspirer des règles applicables devant la CNIL en cas de non-respect de la législation relative à la protection des données personnelles afin de tenir compte de la situation des opérateurs n’ayant pas de chiffre d’affaires ou un chiffre d’affaires temporairement ou artificiellement faible.

Par ailleurs, à l’initiative de M. David Assouline et de sénateurs du groupe Socialiste et Républicain, avec l’avis favorable de la Commission et de sagesse du Gouvernement, le Sénat a précisé que les outils de coopération et de partage d’information que les opérateurs seraient encouragés à mettre en place pour lutter contre la haine en ligne devraient exister dans un format ouvert et être conformes aux recommandations du CSA.

Enfin, sur proposition de M. Franck Montaugé et de sénateurs du groupe Socialiste et Républicain, suivant l’avis favorable de la Commission mais contre celui du Gouvernement, le Sénat a prévu que le pouvoir donné au CSA de recueillir auprès des opérateurs toutes les informations nécessaires au contrôle de leurs obligations pourrait lui permettre d’accéder « aux principes et méthodes de conception des algorithmes ainsi qu’aux données sur lesquelles ils se basent », sans que le secret des affaires puisse lui être opposé.

4.   La position de la Commission en nouvelle lecture

À l’initiative de votre rapporteure, la Commission a procédé à plusieurs modifications rédactionnelles et de cohérence avec le rétablissement, à l’article 1er, de l’obligation de retrait en 24 heures des contenus manifestement haineux et avec la réintégration, aux articles 2 et 3, des moteurs de recherche dans le champ de la régulation administrative.

Par ailleurs, elle a apporté à cet article trois modifications de fond.

a.   La prise en compte par le CSA du comportement de l’opérateur en matière de retrait

La Commission a adopté un amendement de votre rapporteure modifiant la disposition, essentielle pour la protection de la liberté d’expression, qui permet au CSA de prendre en compte, dans l’appréciation du manquement d’un opérateur aux obligations de moyens s’imposant à lui, la manière dont il se conforme à l’obligation de retrait des contenus manifestement haineux dans les 24 heures après leur signalement.

Plutôt que d’autoriser le CSA à prendre en compte « le caractère insuffisant ou excessif du comportement de l’opérateur en matière de retrait des contenus », la nouvelle rédaction vise « l’application disproportionnée par l’opérateur des procédures et des moyens » qu’il doit mettre en œuvre pour garantir le traitement dans les meilleurs délais des signalements ainsi que l’examen approprié des contenus notifiés et pour prévenir les risques de retrait injustifié, tels qu’ils sont visés par l’article 2 de la proposition de loi. Seule pourra être prise en compte la situation dans laquelle l’application disproportionnée de ces procédures et moyens conduit à un retrait excessif de contenus, l’insuffisance des retraits étant déjà sanctionnée par le juge judiciaire, en application de l’article 1er de la proposition de loi.

b.   Le retrait de l’interopérabilité des pratiques vertueuses à la mise en œuvre desquelles le CSA pourrait encourager les opérateurs

La Commission, à l’initiative votre rapporteure, a supprimé les dispositions qui étendaient la mission d’encouragement par le CSA des plateformes en ligne à la mise en œuvre de standards techniques communs d’interopérabilité. Cette problématique devrait être traitée de manière plus globale et non à l’occasion de l’examen de ce texte. Surtout, un tel dispositif ne saurait être une réponse adaptée aux victimes de contenus haineux, qui devraient avoir d’autres solutions à leur disposition que celle consistant à se détourner de certaines plateformes.

c.   La clarification du droit d’accès du CSA aux algorithmes des opérateurs

Sur proposition de votre rapporteure, la Commission a clarifié les pouvoirs d’investigation donnés au CSA pour mener à bien sa mission de régulateur. Alors que le Sénat avait précisé que ces pouvoirs incluraient un accès aux principes et méthodes de conception de tous les algorithmes utilisés par les plateformes, il a été prévu que ce droit d’accès ne concernerait que les algorithmes mis en œuvre pour se conformer aux obligations en matière de lutte contre les contenus haineux en ligne.

Il n’est plus fait mention de l’impossibilité d’opposer au CSA le secret des affaires, une telle précision étant superfétatoire dans la mesure où ce secret n’est d’ores et déjà pas opposable aux autorités administratives indépendantes dans l’exercice de leurs prérogatives de contrôle.

*

*     *

Chapitre IV
Amélioration de la lutte contre la diffusion de contenus haineux en ligne

Article 6
(art. 6 et 6-4 [nouveau] de la loi n° 2004-575 du 21 juin 2004
pour la confiance dans l’économie numérique)
Simplification de la procédure de blocage
et de déréférencement des sites haineux

Adopté par la Commission avec modifications

Cet article a pour objet de renforcer l’efficacité de la lutte contre la duplication de contenus haineux en permettant à l’autorité administrative de prendre des initiatives sur habilitation de l’autorité judiciaire.

1.   La proposition de loi initiale

Dans sa version initiale, le présent article complétait les possibilités offertes par la loi du 21 juin 2004 pour la confiance dans l’économie numérique afin de mieux lutter contre la prolifération de contenus déjà jugés haineux :

–  il autorisait expressément le juge à prescrire toute mesure utile à prévenir ou faire cesser un dommage résultant d’un contenu litigieux en ligne indifféremment à l’hébergeur ou au fournisseur d’accès à internet, alors que le droit actuel semblait rendre la sollicitation du second subsidiaire par rapport à celle du premier ;

–  il habilitait l’autorité administrative à enjoindre aux opérateurs compétents ([19]) d’empêcher l’accès à un contenu reprenant à l’identique un contenu jugé illicite par l’autorité judiciaire.

2.   La position de l’Assemblée nationale en première lecture

En première lecture, votre Commission avait inséré ces dispositions au sein d’un nouvel article 6-4 de la loi pour la confiance dans l’économie numérique, dans le prolongement des modifications précédemment apportées à cette loi.

Sur le fond, elle avait tiré les conséquences des observations formulées par le Conseil d’État dans son avis sur la proposition de loi afin de se conformer aux exigences constitutionnelles et conventionnelles applicables en matière de préservation de la liberté d’expression et d’interdiction d’imposer aux opérateurs numériques une obligation générale de surveillance des réseaux :

–  en limitant le champ d’application de ces dispositions aux seuls contenus haineux visés par la proposition de loi ;

–  en exigeant que l’autorité administrative soit au préalable habilitée à agir par l’autorité judiciaire à l’encontre de toute reproduction d’un contenu qu’elle jugerait illicite ;

–  en permettant de saisir cette même autorité judiciaire en cas de difficulté, notamment en cas de contestation du caractère identique des contenus à bloquer ou à déréférencer, afin qu’elle ordonne elle-même le blocage ou le déréférencement des contenus litigieux.

3.   La position du Sénat

Dans un premier temps, sur proposition de son rapporteur, la commission des Lois du Sénat a supprimé cet article :

–  elle s’est opposée à la suppression proposée du caractère subsidiaire du recours aux fournisseurs d’accès à internet pour rendre inaccessible un contenu illicite, au motif que cette suppression n’était pas suffisamment étayée à ce stade et ne permettrait pas de renforcer l’efficacité de la lutte contre la haine en ligne ;

–  elle a également rejeté le système proposé par l’Assemblée nationale de blocage administratif des « sites miroirs » haineux en considérant qu’il était soit disproportionné, soit inutile selon la portée conférée aux demandes adressées par l’autorité administrative aux fournisseurs d’accès à internet et de domaines ainsi qu’aux moteurs de recherche.

En séance, le Sénat est revenu sur ce choix en adoptant, suivant l’avis favorable de sa Commission, un amendement du Gouvernement proposant une nouvelle rédaction de cet article. Le nouveau dispositif proposé est similaire à celui adopté par l’Assemblée nationale en première lecture sous réserve des précisions suivantes, de nature à mieux encadrer sa mise en œuvre :

–  une décision judiciaire devra avoir ordonné, au préalable, toute mesure propre à empêcher l’accès à un site dont le contenu est constitutif d’une infraction à caractère haineux ;

–  sur cette base, l’autorité administrative pourra agir pour une durée ne pouvant excéder celle restant à courir pour les mesures ordonnées par l’autorité judiciaire ;

–  l’autorité administrative ne pourra solliciter que les fournisseurs d’accès à internet, à l’exclusion des fournisseurs de noms de domaines, aux fins d’empêcher l’accès à tout site « reprenant le contenu du service visé par ladite décision en totalité ou de manière substantielle ».

4.   La position de la Commission en nouvelle lecture

Votre Commission a approuvé les modifications apportées à cet article par le Sénat, sous réserve d’une précision ajoutée à l’initiative de votre rapporteure.

*

*     *

Article 6 bis AA
Obligations de transparence à la charge des régies publicitaires

Adopté par la Commission avec modifications

Le présent article est issu de l’adoption par la commission des Lois du Sénat, avec l’avis favorable de son rapporteur, d’un amendement du sénateur Mohamed Soilihi et du groupe La République en marche, qui en ont proposé une nouvelle rédaction en séance.

S’inspirant d’une recommandation formulée par la mission consacrée au renforcement de la lutte contre le racisme et l’antisémitisme sur internet, à laquelle votre rapporteure avait participé ([20]), il vise à tarir le financement des sites à caractère haineux par la limitation de la publicité susceptible d’y être diffusée.

1.   Le dispositif adopté par la commission des Lois du Sénat

Le dispositif initialement proposé obligeait l’annonceur publicitaire à être en possession d’une liste des domaines et sous-domaines sur lesquels le vendeur d’espace publicitaire a diffusé des publicités et que ce dernier lui aura préalablement communiquée. Le commissaire aux comptes serait chargé d’attester que l’annonceur publicitaire détient une telle liste.

Le non-respect de cette obligation aurait pu être sanctionné par l’autorité administrative – la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) – par une amende d’un montant proportionné à la gravité des manquements commis et à leur caractère éventuellement réitéré, sans excéder 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent.

Le mécanisme proposé s’adossait à deux dispositifs existants :

–  d’une part, il prolongeait l’élargissement, récemment opéré ([21]), des missions autres que la certification des comptes dévolues aux commissaires aux comptes ;

–  d’autre part, il s’inscrivait en cohérence avec l’obligation faite aux vendeurs d’espace publicitaire de transmettre aux annonceurs la liste des emplacements de diffusion en ligne des campagnes publicitaires ([22]), qui s’est traduite, à partir de 2017, par la nécessité pour ces vendeurs de fournir à leurs annonceurs un certain nombre d’informations parmi lesquelles figurent « l’univers de diffusion publicitaire » et le contenu des messages publicitaires diffusés ([23]).

La réflexion parlementaire sur ce sujet avait été entamée par notre collègue Éric Bothorel, qui avait présenté plusieurs amendements en première lecture, devant votre Commission et en séance publique, et qu’il avait retirés pour poursuivre la réflexion.

2.   Les modifications apportées en séance au Sénat

En séance, le Sénat a adopté, suivant l’avis favorable de la Commission et du Gouvernement, un amendement du sénateur Mohamed Soilihi et du groupe La République en marche qui propose une nouvelle rédaction de cet article sans confier une compétence dans ce domaine aux commissaires aux comptes.

Le dispositif finalement approuvé par le Sénat fait obligation aux annonceurs de publier et tenir à jour, au moins chaque mois, les informations relatives aux emplacements de diffusion de leurs annonces telles qu’elles leur sont communiquées par les vendeurs d’espace publicitaire sur internet (premier alinéa). Cette obligation se fonde, comme le texte adopté en commission des Lois, sur celle, créée en 2015 et précisée en 2017, imposant aux vendeurs d’espace publicitaire de transmettre aux annonceurs la liste des emplacements de diffusion en ligne des campagnes publicitaires.

Le non-respect de cette obligation pourrait être sanctionné par la DGCCRF d’une amende administrative d’un montant moindre que celui initialement envisagé – 30 000 euros maximum – mais identique à celui prévu en cas de violation des dispositions relatives aux contrats régissant l’achat d’espaces publicitaires ([24]) (second alinéa).

3.   La position de la Commission en nouvelle lecture

Votre Commission a approuvé ces dispositions, en n’y apportant, à l’initiative de votre rapporteure, qu’une modification rédactionnelle.

*

*     *

Chapitre IV bis
Renforcement de l’efficacité de la réponse pénale
à l’égard des auteurs de contenus haineux en ligne

Article 6 bis A
(art. 15-3-3 [nouveau] du code de procédure pénale)
Spécialisation d’un parquet et d’une juridiction
en matière de lutte contre la haine en ligne

Adopté par la Commission avec modifications

Adopté par l’Assemblée nationale, en première lecture, sur proposition du Gouvernement, le présent article autorise la spécialisation d’un parquet et d’une juridiction en matière de lutte contre la haine sur internet, qui s’articulerait avec la future plateforme de dépôt de plainte en ligne, dont la possibilité a été consacrée à l’article 15-3-1 du code de procédure pénale par la loi du 23 mars 2019 de programmation 2018‑2022 et de réforme pour la justice.

En l’état du droit, une telle spécialisation n’est possible que pour les faits de cyber-haine réprimés par la loi du 29 juillet 1881 sur la liberté de la presse, en vertu d’une jurisprudence constante de la Cour de cassation qui considère que ces faits peuvent être poursuivis et jugés par toute juridiction dans le ressort de laquelle le contenu haineux publié en ligne est accessible. Elle est en revanche exclue pour toutes les autres infractions commises en ligne susceptibles de constituer un comportement haineux, pour lesquelles les règles de droit commun s’appliquent, à savoir la compétence des juridictions du lieu de commission de l’infraction ou du lieu de résidence, d’arrestation ou de détention de la personne mise en cause.

Pour permettre une spécialisation juridictionnelle à un ensemble plus vaste d’infractions haineuses commises en ligne, le présent article autorise le pouvoir réglementaire à désigner un tribunal de grande instance compétent pour l’enquête, la poursuite, l’instruction et le jugement de deux catégories de faits à condition qu’ils aient donné lieu au dépôt d’une plainte électronique :

–  les faits de harcèlement sexuel en ligne commis à raison de la prétendue race, de l’ethnie, de la nation ou de la religion de la victime ;

–  les faits de harcèlement moral en ligne commis pour les mêmes motifs ou à raison du sexe, de l’orientation sexuelle ou de l’identité de genre de la victime.

À cette fin, un nouvel article 15-3-2 était inséré au sein du code de procédure pénale, que la commission des Lois du Sénat, sur proposition de son rapporteur, a transformé en article 15-3-3 afin de tenir compte des dispositions adoptées dans le cadre de la loi du 28 décembre 2019 visant à agir contre les violences au sein de la famille ([25]).

En séance, le Sénat a approuvé la spécialisation d’un parquet et d’une juridiction en matière de lutte contre la haine en ligne, sans apporter au dispositif d’autre modification.

En nouvelle lecture, sur proposition de votre rapporteure, la Commission, par cohérence avec le rétablissement, à l’article 1er, du délit de refus de retrait d’un contenu manifestement haineux dans les 24 heures suivant sa notification, a permis au parquet et à la juridiction spécialisés en matière de lutte contre la haine en ligne de poursuivre et juger les auteurs de ce délit.

*

*     *

Article 6 bis B
(art. 132-45 et 138 du code de procédure pénale)
Création d’une nouvelle interdiction dans les obligations
du contrôle judiciaire et du sursis avec mise à l’épreuve

Adopté par la Commission avec modifications

Le présent article, qui résulte de l’adoption par l’Assemblée nationale, en première lecture, d’un amendement de Mme Caroline Abadie (La République en marche), vise à améliorer les outils à la disposition de l’autorité judiciaire pour surveiller les auteurs d’infractions à caractère haineux en ligne et prévenir leur commission.

À cette fin, il complète les obligations du contrôle judiciaire ([26]) (I) et du sursis avec mise à l’épreuve ([27]) (II) par une nouvelle interdiction – « ne pas adresser de messages à la victime, de façon directe ou indirecte, par tout moyen, y compris par voie électronique » – plus spécifique que celle, actuelle, d’entrer en relation avec la victime.

Cette nouvelle obligation, comme les autres obligations et interdictions prévues pour le sursis probatoire, pourra également être prononcée par la juridiction en complément d’une peine de détention à domicile sous surveillance électronique (III).

Le Sénat a approuvé la création de cette nouvelle interdiction, sous réserve de l’adoption, par la commission des Lois, d’un amendement de cohérence de son rapporteur. Cet article n’a fait l’objet d’aucune modification en séance.

En nouvelle lecture, votre Commission a adopté un amendement de votre rapporteure supprimant le III, satisfait depuis l’entrée en vigueur de la loi du 28 décembre 2019 visant à agir contre les violences au sein de la famille.

*

*     *

Article 6 bis C
(art. 398-1, 510 et 512 du code de procédure pénale)
Compétence du juge unique pour le délit de refus
de retrait d’un contenu manifestement haineux en ligne

Rétabli par la Commission

Le présent article, qui résulte de l’adoption par l’Assemblée nationale, en première lecture, d’amendements identiques de MM. Stéphane Mazars, Didier Paris et Jean Terlier (La République en marche), est destiné à renforcer l’effectivité de l’obligation de retrait en 24 heures des contenus manifestement haineux.

Dans un souci de simplification et d’efficacité de la justice pénale, il prévoit que le nouveau délit de refus de retrait de tels contenus, créé par l’article 1er de la proposition de loi, relèvera de la compétence du juge unique en matière correctionnelle ([28]) ().

Cette évolution, justifiée par la nature des peines encourues pour ce délit, s’inscrit en cohérence avec l’extension, par la loi du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice, de la liste des infractions relevant de la compétence du juge unique :

–  elle permettra de recourir pour ce délit, lorsque cela sera justifié, à la procédure de l’ordonnance pénale ([29]) – qui, depuis l’entrée en vigueur de la même loi, peut sanctionner les mêmes délits que ceux pour lesquels le juge unique est compétent – afin d’apporter une réponse rapide aux infractions peu complexes ;

–  elle est d’autant plus pertinente que la même loi a étendu la possibilité de recourir à cette procédure en cas d’injure et de diffamation à caractère raciste, sexiste, homophobe ou handiphobe ;

–  elle est d’autant moins préjudiciable que le juge conserve la faculté de renvoyer l’affaire à la collégialité en tant que de besoin et que le prévenu peut, en cas d’appel, demander l’examen de son cas par une formation collégiale.

Par ailleurs, le présent article corrige deux imprécisions issues de la modification, par la même loi, des articles 510 et 512 du code de procédure pénale, relatifs à l’appel des décisions rendues à juge unique (2° et 3°).

Par cohérence avec la suppression, à l’article 1er, du délit de refus de retrait d’un contenu manifestement haineux dans les 24 heures suivant sa notification, la commission des Lois du Sénat, sur proposition de son rapporteur, a supprimé cet article, qui n’a pas été rétabli en séance.

En nouvelle lecture, dans le même souci de cohérence par rapport au maintien, à l’article 1er, du délit de refus de retrait d’un contenu manifestement haineux dans les 24 heures suivant sa notification, la Commission a adopté un amendement de votre rapporteure rétablissant ces dispositions.

*

*     *

Chapitre IV ter
Prévention de la diffusion de contenus haineux en ligne

Article 6 ter A
(art. L. 121-1 du code de l’éducation)
Mission d’information des écoles, collèges et lycées sur les violences en ligne

Adopté par la Commission sans modification

Introduit par la commission des Lois du Sénat, à l’initiative de M. Jean‑Pierre Grand (Les Républicains) avec l’avis favorable de son rapporteur, le présent article précise, à l’article L. 121-1 du code de l’éducation, que la mission d’information sur les violences confiée aux écoles, collèges et lycées doit aussi s’appliquer aux violences commises en ligne.

Cet article n’a pas fait l’objet de modification en séance.

En nouvelle lecture, votre Commission a adopté cet article sans modification.

*

*     *

Article 6 ter
(art. L. 721-2 du code de l’éducation)
Formation des enseignants en matière de
lutte contre les contenus haineux en ligne

Adopté par la Commission sans modification

Le présent article, adopté en première lecture par votre Commission à l’initiative de la commission des Affaires culturelles et de l’éducation, vise à renforcer la formation des enseignants en matière de lutte contre les contenus haineux en ligne en inscrivant la sensibilisation à cette problématique dans les missions des écoles supérieures du professorat et de l’éducation.

Le Sénat a approuvé cette disposition, sous réserve de la correction d’une erreur de référence par la commission des Lois, à l’initiative de son rapporteur. Cet article n’a pas fait l’objet de modification en séance.

En nouvelle lecture, votre Commission a adopté cet article sans modification.

*

*     *

Chapitre V
Dispositions finales

Article 7
Création d’un observatoire de la haine en ligne

Adopté par la Commission avec modifications

Dans sa version initiale, le présent article prévoyait que le Gouvernement devrait remettre au Parlement, chaque année, un rapport sur l’exécution des dispositions de la présente proposition de loi et les moyens consacrés à la lutte contre les contenus illicites, y compris en matière d’éducation, de prévention et d’accompagnement des victimes.

En première lecture, à l’initiative du Gouvernement et du groupe La République en marche, l’Assemblée nationale lui a substitué un dispositif créant un observatoire de la haine en ligne, chargé du suivi et de l’analyse de l’évolution des contenus haineux, « en lien avec les opérateurs, associations et chercheurs concernés, en prenant en compte la diversité des publics concernés, notamment les mineurs ».

Sur proposition de son rapporteur, la commission des Lois du Sénat a apporté au fonctionnement de cet observatoire trois précisions :

–  il devra associer à ses travaux, outre les opérateurs, associations et chercheurs concernés, les administrations compétentes en matière de lutte contre la haine en ligne ;

–  il sera placé auprès du Conseil supérieur de l’audiovisuel (CSA) ;

–  ses missions et sa composition seront fixées par le pouvoir réglementaire, statuant après avis du CSA.

En séance, le Sénat, sur proposition de M. Jean Bizet et de sénateurs membres du groupe Les Républicains, suivant l’avis favorable de la Commission et de sagesse du Gouvernement, a élargi la dénomination et la compétence de cet observatoire à tous les contenus illicites. Par le même amendement, il a prévu que l’observatoire « assure un travail de liaison et de coordination » avec la plateforme d’harmonisation, d’analyse, de recoupements et d’orientation des signalements (PHAROS) ([30]).

En nouvelle lecture, votre Commission a procédé à deux modifications :

–  d’une part, à l’initiative des membres du groupe La République en Marche, elle est revenue sur le choix opéré par le Sénat d’étendre le champ de compétences de l’observatoire à tous les contenus illicites, pour ne viser que les contenus haineux, conformément à l’objet de la présente proposition de loi ;

–  d’autre part, sur proposition de votre rapporteure, elle a supprimé la disposition confiant à l’observatoire un travail de liaison et de coordination avec la plateforme PHAROS, dont l’existence n’est pas formellement reconnue par la loi.

*

*     *

Article 7 bis
(art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)
Consécration dans la loi de la jurisprudence du Conseil constitutionnel relative à la mise en cause de la responsabilité des hébergeurs à raison des contenus manifestement illicites qu’ils stockent

Adopté par la Commission sans modification

Le présent article résulte de l’adoption, en séance par le Sénat, d’un amendement de M. Philippe Bonnecarrère (Union centriste), avec l’avis favorable de la Commission et de sagesse du Gouvernement.

Il inscrit dans la loi du 21 juin 2004 pour la confiance dans l’économie numérique la jurisprudence du Conseil constitutionnel à propos des conditions de mise en cause de la responsabilité civile et pénale des hébergeurs à raison des contenus illicites qu’ils stockent.

Aux termes des 2 et 3 du I l’article 6 de cette loi, les hébergeurs bénéficient d’une exonération de leur responsabilité qui ne peut être engagée en l’absence de connaissance de l’illicéité des contenus stockés ou, lorsqu’ils en avaient connaissance, s’ils ont procédé promptement à leur retrait.

Selon le Conseil constitutionnel, ces dispositions « ne sauraient avoir pour effet d’engager la responsabilité d’un hébergeur qui n’a pas retiré une information dénoncée comme illicite par un tiers si celle-ci ne présente pas manifestement un tel caractère ou si son retrait n’a pas été ordonné par un juge » ([31]). Il en est de même pour la CEDH, qui exige que les propos litigieux soient clairement illicites ([32]).

Le présent article ajoute donc, au sein des dispositions de cette loi régissant la responsabilité civile () et pénale () des hébergeurs, l’exigence que les contenus stockés susceptibles d’entraîner leur condamnation présentent un caractère manifestement illicite.

En nouvelle lecture, votre Commission a adopté cet article sans modification.

*

*     *

Article 9
Modalités d’entrée en vigueur

Adopté par la Commission avec modifications

Adopté par votre Commission en première lecture, le présent article règle les modalités d’entrée en vigueur dans le temps de la proposition de loi.

Une entrée en vigueur immédiate était prévue pour toutes les dispositions de ce texte, en particulier l’obligation de retrait en 24 heures des contenus manifestement haineux (articles 1er à 1er ter) et la lutte contre la duplication des contenus jugés illicites (article 6).

Toutefois, l’entrée en vigueur de certaines dispositions était reportée à une date ultérieure, le temps pour les acteurs concernés de s’adapter au nouveau cadre légal :

–  à compter du 1er janvier 2020 s’agissant du devoir de coopération des grands opérateurs de plateforme en ligne et de leur régulation par le Conseil supérieur de l’audiovisuel (CSA) (articles 2 et 3, I, I bis et 1° du I ter de l’article 4) ;

–  à partir du 1er janvier 2021 pour ce qui concerne le transfert au CSA du contrôle de la mise en œuvre des dispositions relatives au blocage et au déréférencement administratifs de sites terroristes ou pédopornographiques (2° du I ter de l’article 4).

La commission des Lois du Sénat a adopté un amendement de son rapporteur procédant à une coordination et reportant au 1er juillet 2020 la date d’entrée en vigueur du devoir de coopération des grands opérateurs de plateforme en ligne et de leur régulation par le CSA. Cet article n’a pas été modifié en séance.

En nouvelle lecture, la Commission a approuvé cet article, sous réserve d’une coordination proposée par votre rapporteure.

*

*     *

Article 10
(art. L. 371-1, L. 771-1, L. 773-1 et L. 774-1 du code de l’éducation, art. 108
de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication
et art. 57 et 58 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique)
Conditions d’application outre-mer

Adopté par la Commission sans modification

Le présent article est issu de l’adoption, en première lecture, par l’Assemblée nationale d’un amendement de votre rapporteure destiné à préciser les conditions d’application outre-mer de la présente proposition de loi, lorsque des dispositions expresses sont nécessaires :

–  l’article 6 bis relatif à la sensibilisation des élèves à la lutte contre la diffusion des contenus haineux en ligne est rendu applicable dans les îles Wallis et Futuna (1° du I) ;

–  l’application de l’article 6 ter, sur la formation des enseignants en matière de lutte contre les contenus haineux en ligne, est prévue dans les îles Wallis et Futuna, en Polynésie française et en Nouvelle-Calédonie (2° du I) ;

–  les changements apportés à la loi du 30 septembre 1986 relative à la liberté de communication par les I à I bis de l’article 4 sont appliqués dans les îles Wallis et Futuna, en Polynésie française, en Nouvelle-Calédonie ainsi que dans les Terres australes et antarctiques françaises (II) ;

–  les modifications de la loi du 21 juin 2004 pour la confiance dans l’économie numérique, telles qu’elles sont prévues par les articles 1er à 3 bis, le I ter de l’article 4 et l’article 6 ainsi que l’article 7 bis ajouté par le Sénat, sont rendues applicables en Nouvelle-Calédonie, en Polynésie française et dans les îles Wallis et Futuna (III).

La commission des Lois du Sénat a adopté un amendement de son rapporteur corrigeant une erreur de référence au sein de cet article, qui n’a pas été modifié en séance.

En nouvelle lecture, votre Commission a adopté cet article sans modification.


—  1  —

 

   COMPTE RENDU DES DÉBATS

Lors de sa réunion du mardi 14 janvier 2020, la Commission examine, en nouvelle lecture, la proposition de loi, modifiée par le Sénat, visant à lutter contre les contenus haineux sur internet (n° 2534).

Lien vidéo :

http://videos.assemblee-nationale.fr/video.8610534_5e1e1ad1bd174.commission-des-lois--lutte-contre-les-contenus-haineux-sur-internet-nouvelle-lecture-14-janvier-2020

Mme la présidente Yaël Braun-Pivet. Mes chers collègues, nous sommes réunis pour procéder à l’examen en nouvelle lecture de la proposition de loi relative à la lutte contre les contenus haineux sur internet. Comme vous le savez, la commission mixte paritaire a échoué, d’où ce nouvel examen en commission des Lois.

Mme Laetitia Avia, rapporteure. Cette proposition de loi vise à lutter contre la propagation des contenus haineux sur les grandes plateformes numériques, qui ont une capacité à surexposer des contenus et à générer une viralité autour de ces expressions de haine intolérables. Nous l’avons toutes et tous constaté, Facebook, Twitter et d’autres sont des plateformes où se multiplient les injures racistes, sexistes, homophobes, bien souvent en toute impunité, que ce soit pour les auteurs de ces contenus haineux qui sont – rappelons-le – des délinquants, que pour les plateformes qui hébergent ces contenus.

Cette proposition de loi vise donc à mieux réprimer les auteurs de contenus haineux, par le renforcement de la chaîne judiciaire, notamment à travers la création d’un parquet et d’une juridiction spécialisés, et à davantage responsabiliser les plateformes qui, par leur modèle même, contribuent à la propagation des contenus haineux. Or ces plateformes apparaissent à ce jour encore bien trop laxistes dans l’application de l’article 6 de la loi pour la confiance dans l’économie numérique (LCEN), qui les oblige pourtant, depuis 2004, à retirer promptement les contenus manifestement illicites.

Je vous rappelle que la proposition de loi initiale a été soumise au Conseil d’État, lequel a émis un avis approuvant et encourageant la dynamique engagée, tout en faisant un certain nombre de recommandations pour rendre le dispositif plus effectif et plus solide juridiquement.

Nous avons ainsi pris l’avis du Conseil d’État telle une feuille de route, et collectivement enrichi le texte autour de quatre axes.

Tout d’abord, un nouveau délit est créé afin de sanctionner les plateformes qui ne procèderaient pas au retrait des contenus manifestement haineux en vingt-quatre heures maximum, sous le contrôle de l’autorité judiciaire.

Ensuite, la modération des contenus est soumise à une nouvelle régulation comportant, d’une part, des obligations de moyens, de transparence et de coopération pour ces plateformes, et, d’autre part, l’organisation d’une mission d’accompagnement, de contrôle et de sanction par le Conseil supérieur de l’audiovisuel (CSA), qui pourra prononcer des amendes jusqu’à 4 % du chiffre d’affaires mondial de ces plateformes.

Par ailleurs, un nouveau dispositif est destiné à lutter plus efficacement contre les sites haineux dits « miroirs », qui sont des copies de sites frappés d’illicéité par une décision de justice.

Enfin, des mesures de prévention et d’éducation sont prévues, car c’est là que se trouve le nerf de la guerre.

Nous avons également voté la création de deux organes essentiels dans ce combat contre la propagation des discours de haine : un observatoire de la haine en ligne, pour mieux appréhender ces phénomènes, et un parquet spécialisé, pour mieux poursuivre les auteurs de ces discours.

Le 21 août dernier, le Gouvernement a notifié le texte à la Commission européenne, laquelle a transmis ses observations en réponse le 22 novembre. Pour ceux qui ne seraient pas familiers de la procédure de notification devant la Commission européenne, je rappelle qu’à l’issue d’une notification, la Commission européenne peut bloquer un texte pour une durée pouvant aller jusqu’à dix‑huit mois s’il entre en contradiction avec ses travaux, émettre un avis circonstancié s’il y a des points de non-conformité à corriger ou formuler des observations sur « un projet notifié qui semble conforme à la législation de l’Union européenne, mais qui nécessite des éclaircissements quant à son interprétation ».

Le Gouvernement a donc reçu ces observations, que je vous inviterai à prendre comme une feuille de route dans nos débats – comme l’a d’ailleurs fait le Sénat, à certains égards. C’est ainsi que, sur les vingt articles qui ont été soumis au Sénat, trois ont été votés dans des termes identiques et neuf dans une rédaction proche, sous réserve d’utiles compléments et précisions, notamment au regard des observations de la Commission européenne. Je fais ici référence aux dispositifs de notification et d’information, ou encore à la nécessité de préciser, par souci de conformité avec le droit européen, que les nouvelles obligations de moyens reposant sur les plateformes doivent toujours être proportionnées et nécessaires.

S’agissant de la régulation administrative, le Sénat a toutefois modifié le champ des plateformes concernées en excluant les moteurs de recherche, alors qu’ils jouent un rôle décisif dans l’exposition des contenus en ligne. Cela est d’autant plus surprenant qu’en parallèle, le Sénat a ajouté une disposition permettant au CSA d’attraire devant lui d’autres acteurs numériques, dans des conditions juridiquement fragiles, en contradiction avec l’exclusion des moteurs de recherche.

Trois nouveaux articles ont été ajoutés par le Sénat. Le premier est destiné à lutter contre le financement des sites haineux par la limitation de la publicité susceptible d’y être diffusée. Le deuxième est relatif à la mission confiée aux écoles, collèges et lycées en matière d’information sur les violences en ligne. Le dernier consacre dans la LCEN la jurisprudence du Conseil constitutionnel sur la mise en jeu de la responsabilité civile et pénale des hébergeurs.

Enfin, je souligne deux avancées répondant à des questions soulevées lors de nos débats en première lecture : des dispositions permettant au CSA d’accéder aux algorithmes utilisés par les plateformes dans la modération des contenus haineux et des précisions judicieuses quant au rôle du futur Observatoire de la haine en ligne.

Je vous proposerai, chers collègues, de maintenir les apports constructifs du Sénat chaque fois qu’ils viennent renforcer notre texte.

Mais s’il y a eu échec de la CMP, c’est bien en raison d’un désaccord profond entre le Sénat et l’Assemblée nationale quant au niveau d’exigence que nous souhaitons fixer aux plateformes. Les sénateurs ont retiré l’article premier, cœur du dispositif, cantonnant la proposition à des obligations de moyens. Ce faisant, le Sénat a non seulement laissé pleinement la main aux plateformes, mais aussi retiré le juge judiciaire, garant des libertés fondamentales, du dispositif que nous avions construit. Je ne me l’explique pas, car les justifications invoquées ne tiennent pas.

Les sénateurs se sont fondés sur les observations de la Commission européenne, mais elles portent essentiellement sur la régulation administrative, et non sur le nouveau délit que nous avons institué. En effet, à la suite des remarques formulées par le Conseil d’État, nous avions anticipé ces observations et fait adopter des amendements en première lecture permettant à la France de déroger à la directive e-commerce afin de lutter contre les atteintes portées au respect de la dignité humaine. Dans ses observations, la Commission approuve notre raisonnement et une telle dérogation, mais appelle la France à mieux cibler les obligations mises à la charge des opérateurs.

Les sénateurs ont également invoqué la protection de la liberté d’expression. Cependant, non seulement ils ont supprimé le juge du dispositif mais, surtout, le Sénat a voté un amendement donnant des pouvoirs exorbitants aux plateformes pour supprimer des comptes d’utilisateurs sans infraction constituée, sur la seule base de signalements, ouvrant ainsi la voie à la multiplication de raids numériques portant atteinte à la liberté d’expression. In fine, le Sénat nous dit ne pas vouloir confier de trop grands pouvoirs aux plateformes, mais leur confie les clefs de la voiture, le GPS, le choix de l’itinéraire et celui de la destination à atteindre…

Vous aurez donc compris, chers collègues, que je vous proposerai de rétablir cette disposition essentielle au texte, laquelle permet de responsabiliser réellement les plateformes et de réaffirmer notre souveraineté face aux géants du numérique, quand il s’agit de protéger la dignité humaine de nos concitoyens.

N’oublions pas, dans nos débats, que ce qui guide nos travaux, c’est la protection de nos concitoyens avant tout. Au-delà des bons sentiments, des grandes déclarations d’intention, nous nous devons de nous bousculer et d’agir sans nous cacher derrière notre petit doigt. Nous le devons aux victimes et à tous ceux qui sont la cible d’une déferlante de haine, non pas pour ce qu’ils disent ou pensent, mais pour ce qu’ils sont.

Chers collègues, je vous invite à voter un texte à la hauteur des attentes de nos concitoyens.

Mme Caroline Abadie. Cette nouvelle lecture est l’occasion de poursuivre un travail approfondi de co-construction mené depuis deux ans pour lutter contre les contenus haineux sur internet. S’appuyant sur les conclusions d’un excellent rapport remis au Premier ministre par notre collègue Laetitia Avia avec MM. Karim Amellal et Gil Taieb, cette proposition de loi a été enrichie, tout au long de la première lecture, par nos échanges, en commission comme dans l’hémicycle, et par l’adoption de 141 amendements de tous les groupes. La proposition a été adoptée par 434 voix, venues de tous les bancs de l’Assemblée. Cela prouve qu’elle apportait des réponses unanimement approuvées.

Nos collègues du Sénat ont tenté de faire progresser ce texte, en y apportant leur contribution, par exemple en clarifiant et en renforçant les sanctions financières applicables en cas d’infraction, ou encore en imposant une obligation de transparence aux vendeurs d’espaces publicitaires vis-à-vis des annonceurs, et de ceux-ci envers le grand public. Ces efforts sont à saluer. Ils ont aussi placé l’Observatoire de la haine en ligne sous la tutelle du CSA, ce qui est judicieux, et reconnu la nécessité de renforcer la prévention contre la haine en ligne auprès des plus jeunes, en milieu scolaire.

Cependant, comme l’a indiqué la rapporteure, ils ont privé la proposition de loi du cœur de son dispositif, en supprimant le délit de non-retrait de contenus haineux dans les vingt-quatre heures. C’est pourtant la mesure phare, celle qu’attendent les victimes de messages haineux et les associations qui les défendent.

De notre côté, en CMP, nous avons fait beaucoup de propositions qui auraient pu aboutir à un équilibre, en envisageant plus de flexibilité dans l’activation du dispositif ou en supprimant la possibilité d’infliger une peine de prison. Mais le Sénat a refusé tout compromis. Il faut le dire franchement, c’est un rendez-vous manqué. En refusant toute ouverture, le Sénat a fait prévaloir la vision politicienne d’un combat qui mérite pourtant que nous unissions nos forces, au-delà des clivages partisans, comme nous l’avions fait l’année dernière à l’Assemblée nationale.

Le Sénat a fait le choix de déresponsabiliser les grandes plateformes au détriment des victimes de la haine en ligne, qui, pendant ce temps, doivent continuer à se taire et à se cacher. Le Sénat a fait le choix de l’inaction et de l’impuissance envers ceux qui insultent et qui harcèlent, choix qui libère la parole raciste, sexiste, LGBTphobe ou antisémite. Mais, de façon incohérente, les sénateurs étaient prêts à faire supprimer automatiquement les comptes signalés pour contenu haineux. Nous ne pouvons pas accepter une telle mesure liberticide.

C’est pourquoi les députés du groupe La République en Marche seront mobilisés pour soutenir les amendements qui remettront la protection des victimes – par la création de ce délit – au cœur de ce texte. Ils contribueront, par leurs amendements, à la renforcer, par exemple en supprimant le critère d’utilité publique exigé pour les associations de protection de l’enfance ou en incitant les opérateurs à mieux lutter contre la viralité des messages illicites.

Nous sommes convaincus que nous saurons parvenir ensemble, de façon consensuelle, à un texte équilibré, utile et efficace pour lutter contre la cyberhaine.

M. Frédéric Reiss. Au nom du groupe Les Républicains, je tiens à dire, pour avoir été présent à la CMP au Sénat, que ce texte aurait mérité que la navette développe pleinement ses effets. Contrairement à ce qui vient d’être dit, j’ai tout de même constaté l’existence d’un esprit d’ouverture, tant de la part du Sénat que de celle de l’Assemblée nationale. Les deux positions s’étaient rapprochées. Si nous avions eu une deuxième lecture à l’Assemblée et au Sénat, peut-être aurait-on pu y consacrer le temps nécessaire à l’établissement d’un texte consensuel.

Aujourd’hui, il faut bien constater que les deux positions n’ont pu devenir compatibles. La rapporteure a essayé de proposer une nouvelle rédaction de l’article 1er, en faisant certaines concessions par rapport à la version initiale. Mais ses efforts n’ont pas suffi pour avancer sur le sujet.

Cependant, nous ne sommes pas seuls. D’autres poursuivent aussi les mêmes objectifs que nous, dans d’autres pays européens ou ailleurs. Nous sommes prêts à mettre tout en œuvre pour que cessent ces messages de haine propagés sur les réseaux sociaux. Plateformes et auteurs ont leur part de responsabilité dans ces contenus. D’après des sondages, 58 % des Français considèrent qu’internet est le principal foyer des discours de haine ; plus de 70 % disent avoir déjà été confrontés à des propos haineux sur les réseaux sociaux. Cela veut dire qu’il est urgent d’agir.

Depuis le 1er mars 2018, nous disposions d’une recommandation de la Commission européenne sur laquelle nous appuyer. Une nouvelle notification est arrivée en plein milieu du débat au Sénat. L’Europe y critiquait les formes que prenait la lutte contre la haine sur internet dans cette future loi française. Il nous faut tenir compte de ces nouvelles informations, que nous n’avions pas au moment de la première lecture.

Cela dit, la problématique de la régulation des contenus sur internet doit évidemment répondre à des enjeux d’indépendance et de souveraineté numériques. C’est pourquoi, à titre personnel, je suis tout à fait favorable au rétablissement, à l’article 1er, du délit de refus de retraits des contenus manifestement haineux et du délai de vingt-quatre heures. Cette proposition de loi cherche à simplifier et à accélérer la suppression des contenus publics illicites. Mais on sait très bien qu’aujourd’hui, les plateformes ont mis en œuvre des solutions fondées sur l’intelligence artificielle, de sorte que peuvent naître certains abus. Or notre groupe tient à préserver les libertés et les droits fondamentaux, à commencer par la liberté d’expression.

Dans le même temps, nous ne pouvons pas accepter que des contenus publiés sur internet fassent des victimes, notamment lorsqu’ils comportent des incitations à la haine ou des injures à raison de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap. Les dispositions nécessaires figurent dans la proposition de loi.

Notre groupe continuera à être constructif dans ce débat, même si les avis en son sein ne sont pas tout à fait unanimes.

Mme Isabelle Florennes. Même si l’échec de la CMP de la semaine dernière est regrettable, il faut tout de même en retenir des points positifs. Nos collègues sénateurs nous ont fait passer un message, à savoir que la proposition de loi telle qu’elle avait été soumise au Conseil d’État souffrait de quelques imprécisions. Mme la rapporteure en avait immédiatement corrigées, grâce à plusieurs amendements. Nous avions ainsi déjà effectué un premier travail de précision.

Le Sénat a poursuivi dans cette voie. Il a notamment souhaité tenir compte des remarques formulées par la Commission européenne sur le texte et sur sa compatibilité avec diverses dispositions de la directive sur le commerce électronique. Sur ce point spécifique, les opinions divergent : doit-on faire le choix, comme le Sénat l’a fait d’une certaine manière, de se limiter ? Ou doit-on aller plus loin et déroger à la directive, pour faire de la France une pionnière en matière de régulation des plateformes ?

Il ne fait aucun doute que le groupe MODEM et apparentés fait le choix d’aller plus loin en la matière. Je l’avais dit en première lecture, je le redis : il faut sortir des ambages ; il nous faut être plus ambitieux. C’est ce que vous proposez dans votre texte.

La Commission européenne n’est d’ailleurs pas opposée à la dérogation souhaitée par la rapporteure. Il faut donc nous saisir de l’opportunité qui nous est offerte. Car la situation actuelle l’exige.

Les raids numériques sont un véritable fléau. Certains internautes sont devenus des professionnels de ce type de pratiques ; ils savent parfaitement qu’ils ne seront pas inquiétés ! Les premières victimes de ces comportements qui, rappelons-le, constituent des délits commis dans l’espace public, ce sont nos enfants. J’entends les craintes de nos collègues ; elles ont leur légitimité. Mais pourquoi ne pas avoir alors travaillé à un compromis rédactionnel ? Pourquoi avoir entretenu un discours pour le moins paradoxal, en s’inquiétant du contournement du juge et du risque de la sur-censure qui découleraient de l’obligation de retrait des contenus manifestement haineux et avoir, dans le même temps, vidé de sa substance l’article 1er qui consolide justement le rôle du juge judiciaire ? Pourquoi avoir été plus loin que la rédaction que nous avions proposée à l’article 3 et avoir permis la suppression quasi automatique des comptes d’utilisateurs ?

Essayons maintenant de rendre à ce texte sa cohérence et son ambition. C’est la clé pour assurer son efficacité et, ainsi, mieux protéger les citoyens. C’est l’esprit qui nous anime, au groupe MODEM et apparentés. Nous souhaitons vivement que puisse être trouvée une rédaction tenant compte des apports du Sénat et de la nécessité de renforcer la proposition de loi, mais également de préserver son objectif initial. Nous ne doutons pas de la volonté de l’ensemble des groupes d’agir en ce sens.

Nous devons faire advenir ce texte pour qu’internet ne soit plus une zone de non‑droit. C’est pourquoi nous soutenons la proposition de loi.

Mme George Pau-Langevin. En travaillant sur ce texte, le Sénat a tenté d’apporter des idées nouvelles, en prenant en considération les critiques formulées à son encontre. Je pense toutefois qu’en vidant de sa substance l’article 1er, essentiel dans la lutte que nous souhaitons tous mener contre les contenus haineux, le Sénat n’a finalement pas contribué à la poursuite de l’objectif.

Par conséquent, nous souhaitons à bon droit que soit reprise l’idée qu’il faut supprimer le plus vite possible ce type de contenus – et le faire d’une manière administrative, sans attendre le juge.

Nous avons tous le plus grand respect et la plus grande considération pour le travail des magistrats, mais nous savons qu’ils ne pourront pas être là pour examiner a priori, tous les propos racistes ou haineux qui déferlent sur la toile. Si l’on considère que le retrait doit être autorisé par des magistrats, cela veut dire qu’on accepte que ce type de propos continuent à proliférer sur la toile.

Je pense donc que le retrait préalable par les plateformes, mesure ultérieurement susceptible de recours devant les magistrats, est la seule procédure efficace. C’est ce que nous avions imaginé. Aucune autre procédure ne garantirait une lutte aussi efficace.

Je prête la plus grande attention à la liberté d’expression, mais nous savons aussi qu’en droit français, il n’y a pas de liberté d’expression pour les propos racistes ou homophobes. Par conséquent, il n’y a pas de raison qu’on puisse lire sur la toile ce qu’on ne peut pas trouver dans un journal.

Nous devons rétablir les axes essentiels de cette proposition de loi, pour mieux mener la lutte. Cela ne suffira sans doute pas pour changer les opinions racistes ou homophobes dans ce pays. Mais, au moins, cela videra la toile de propos et de considérations qui n’ont rien à y faire et qui, à mon avis, minent plutôt notre sentiment d’appartenir à une démocratie fondée sur le respect des droits de l’homme.

Par conséquent, ma position en nouvelle lecture sera la même qu’en première. Au nom du groupe Socialistes et apparentés, j’affirme qu’il faut absolument avancer dans la voie tracée par cette proposition de loi.

Mme Laure de La Raudière. Nous partageons tous l’objectif du texte, à savoir la lutte contre la haine en ligne, de même que nous partageons la volonté de rendre la loi applicable et appliquée dans le domaine d’internet. Je ne peux pourtant pas laisser dire par l’oratrice du groupe de La République en marche que le choix du Sénat est celui de l’inaction ou encore celui des grandes plateformes. Ce n’est pas du tout ce que les sénateurs ont choisi. En vérité, ils veulent renforcer la supervision par le CSA des obligations de moyens mises à la charge des opérateurs, c’est-à-dire le contrôle par la régulation, en laissant au juge le soin de décider ce qui relève de la liberté d’expression.

Le groupe UDI, Agir et indépendants est partagé entre la version de l’Assemblée nationale, qui fait de l’obligation de retrait sous vingt-quatre heures de tout contenu haineux le point central de la loi, et la version du Sénat, qui donne une plus grande place à la régulation, par le CSA, des méthodes d’action des plateformes.

Je voudrais de nouveau exprimer mon inquiétude de voir les plateformes se transformer en juges de la liberté d’expression. Nous savons tous que la jurisprudence est évolutive en la matière et qu’il est risqué de demander à un acteur privé de juger de la liberté d’expression.

Depuis l’examen en première lecture, la Commission européenne a transmis au Gouvernement des observations longues et très critiques, alertant sur la violation probable de la directive e-commerce et de la Charte des droits fondamentaux de l’Union européenne. Pourriez-vous, madame la rapporteure, faire état de votre analyse quant à ces observations ? Ma conviction est que nous devons favoriser une montée en compétence de nos autorités de régulation et instituer des obligations de moyens vis-à-vis des grands acteurs de l’internet. Les autorités administratives indépendantes doivent comprendre le fonctionnement des algorithmes de recommandation et sanctionner les fonctionnements déviants très lourdement, y compris à un très haut niveau du chiffre d’affaires.

Nous devons aussi sanctionner pénalement les responsables. Retirer les contenus revient un peu à mettre la poussière sous le tapis, sans nécessairement s’attacher à la recherche des deux responsables : d’une part, les algorithmes de recommandation qui vont favoriser et pousser ces contenus et, d’autre part, les auteurs de ces contenus.

Comme je l’avais dit en première lecture, je suis inquiète des conséquences de ce texte sur la liberté d’expression.

Mme Danièle Obono. Comme en première lecture, le groupe La France insoumise s’oppose aux mauvaises propositions de réponse à des problèmes réels, graves et sérieux, auxquels il faudrait s’atteler autrement. La navette parlementaire n’a malheureusement pas permis d’améliorer le texte pour en faire un instrument utile, tant pour les personnes victimes de ces contenus que pour le débat démocratique et pour la communauté que nous formons aussi bien sur internet qu’en dehors. Les problèmes rencontrés sur la toile sont, de fait, les mêmes que ceux auxquels sont confrontés au quotidien des milliers de personnes, en butte aux attaques, aux insultes et aux invectives racistes, homophobes, transphobes…

En première lecture, nous avions argumenté en faveur non seulement de la liberté d’expression, mais aussi d’un accompagnement des personnes victimes des contenus haineux. Nous pensons à nouveau que le texte adopté par le Sénat, de même que le texte proposé par la rapporteure de la majorité, vont tous deux dans le mauvais sens.

Ils ne s’attaquent pas au fond du problème, à savoir l’économie particulière sur laquelle repose le fonctionnement d’internet. Cette économie est celle de la captation maximale d’attention ; ses mécanismes ont pour effet d’accélérer la diffusion à des millions, voire des milliards de personnes, de contenus qui sont délibérément les plus spectaculaires, les plus provocateurs et les plus virulents. L’économie d’internet se fonde là-dessus.

C’est pourquoi nous avions formulé des propositions en première lecture pour nous attaquer directement à ce fonctionnement, notamment en permettant l’interopérabilité. Celle-ci permet, en effet, aux internautes de s’extraire d’un environnement devenu toxique, tout en gardant des liens avec l’accès aux ressources que fournissent les plateformes.

S’agissant de la place de la justice, je m’inscris en faux contre les propos de Mme George Pau-Langevin. Certes, sur internet comme dans la vraie vie, il n’y a pas des juges à tous les coins de rue, dans toutes les institutions, pour sanctionner les propos haineux, les comportements délictueux. Quand on constate l’existence de tels propos, il faut permettre aux victimes de saisir la justice et offrir à cette dernière les moyens de faire son travail. Or cette proposition de loi ne donne pas à la justice les moyens de mener à bien cette tâche ; au contraire – c’est là où le bât blesse – elle la dessaisit, ce qui est une erreur fondamentale.

Par ailleurs, le texte ne traite pas de l’accompagnement des victimes. On a eu de nombreux débats sur les violences sexuelles et sexistes. Des victimes ont souligné le manque de moyens dédiés à l’accueil et à l’accompagnement, et les obstacles considérables, notamment financiers, qu’elles rencontrent au cours de la procédure judiciaire. C’est de cela que nous aurions dû discuter. Là encore, il n’en est rien, pas plus dans le texte du Sénat que dans les propositions renouvelées par la majorité. C’est une occasion manquée.

Je ne crois pas que le Sénat ait une stratégie plus politicienne que la majorité, laquelle semble se donner à bon compte une posture de défenseure des victimes sans prévoir les moyens correspondants. Qu’il n’y ait pas de faux débats entre nous : certes, nous pouvons partager des objectifs louables mais nous entretenons un désaccord – que nous assumons – sur les méthodes et les moyens proposés. Ceux-ci vont produire plus de mal que de bien, tant pour les victimes que pour la justice, qui se trouve reléguée au second plan, derrière les plateformes privées.

M. Paul Molac. La lutte contre le fléau que représente la haine sur internet est essentielle. Cela étant, notre arsenal juridique comporte déjà pas mal de dispositions. La question est de savoir s’il faut mener un combat spécifique à internet. Je me suis laissé dire que des juges s’interrogent sur l’applicabilité de la proposition de loi, qui ne leur semble pas évidente.

Le débat est rendu complexe, d’une part, par des aspects techniques qui échappent à nombre d’entre nous et, d’autre part, par la question de la liberté d’expression. J’ai noté, comme d’autres, que la Commission européenne s’est émue du contenu de la proposition de loi. Pour notre part, nous sommes plutôt dubitatifs sur l’article 1er. Nous souhaitons que le Conseil constitutionnel, généralement sourcilleux en matière de liberté individuelle, se prononce sur cette disposition. J’ai déjà exposé à plusieurs reprises mon point de vue sur la justice administrative. J’estime que c’est au juge judiciaire de se prononcer en ce domaine et de parvenir à un équilibre ; le juge administratif est souvent tenu par des considérations liées au maintien de l’ordre, quand il ne subit pas de pressions politiques. Je présenterai trois amendements de Mme Frédérique Dumas et m’abstiendrai sur l’article 1er.

M. Guillaume Larrivé. En première lecture, je m’étais abstenu, me disant que le Sénat arriverait à corriger certaines des lacunes du texte et à amener la majorité de l’Assemblée nationale à une rédaction consensuelle en CMP. Or je constate à regret que votre majorité n’a pas su se rapprocher des propositions sénatoriales.

Je serai probablement conduit à voter contre la proposition de loi dans l’hémicycle, la semaine prochaine, en raison d’une difficulté liée à l’article 1er. En matière d’expression, pardon pour cette banalité, la liberté doit être la règle et les restrictions l’exception. Cela valait à la fin du XIXe siècle, lorsqu’a été votée la loi de 1881 sur la presse ; cela doit rester de mise aujourd’hui, à l’ère d’internet, même si les supports, les modalités, les rythmes de l’expression des opinions ont évidemment beaucoup changé. Si je m’en tiens à ce principe, l’article 1er, issu de l’Assemblée nationale ne convient pas. Je comprends ce que vous avez voulu faire, madame la rapporteure, et je ne mets absolument pas en cause la pureté de vos intentions. Je vois bien que vous essayez d’améliorer le dispositif de 2004 en le rendant plus opérationnel, et ne prétends pas que vous seriez animée par une volonté de censure effrénée. Toutefois, je crains que vous ne déléguiez une capacité de censure aux algorithmes – car il n’y a pas de M. Facebook ni de M. Twitter –, sous un délai strict de vingt-quatre heures, en créant, de surcroît, une sorte de délit de non-retrait, qui va contraindre encore davantage le mécanisme. Au total, comme le disait, d’une certaine façon, Mme de La Raudière – avec qui, pour une fois, je suis d’accord –, il existe un risque de surblocage.

Tout cela, au fond, n’est pas de bonne législation. Je le dis à regret, car j’aurais aimé – c’était le sens de mon abstention en première lecture – pouvoir me rallier, in fine, à un texte. À moins que, par miracle, vous ne vous rapprochiez de la version sénatoriale dans les jours qui viennent, l’article 1er ne me semble pas pouvoir être voté, si on reste fidèle au principe de la liberté d’expression et à la nécessité de la restreindre de manière extrêmement limitée.

Mme Emmanuelle Ménard. Je partage évidemment le but ultime de ce texte ; personne n’est favorable à la diffusion de propos haineux sur la toile. Néanmoins, je suis farouchement attachée à la liberté d’expression, comme j’ai eu l’occasion de le rappeler à maintes reprises en première lecture.

Étant non inscrite, je n’ai pas eu le privilège de participer à la CMP, mais il me semble que vous avez voulu aller vite. Je l’ai dit, vous poursuivez un noble but, mais les moyens que vous tentez d’imposer pour combattre la haine en ligne sont problématiques. La Commission européenne elle-même, qui poursuit un objectif similaire au vôtre, vous a signalé l’existence de plusieurs problèmes.

Elle souligne que des textes de loi existent déjà et qu’une nouvelle législation sur les services numériques est en cours d’élaboration. Elle demande à la France – et, par le biais de ce texte, c’est vous qu’elle interroge, madame la rapporteure –, en recourant à des arguments que vous employez fréquemment contre l’opposition, pourquoi nous votons un texte alors qu’il y en a déjà un en cours de rédaction. La Commission insiste aussi sur le fait que la proposition de loi va à l’encontre de la directive sur le commerce électronique. Plus grave, elle craint une mise à mal de la liberté d’expression sur internet – danger que j’avais souligné à maintes reprises en première lecture –, notamment du fait des contraintes que vous imposez aux hébergeurs et que vous allez confier de facto aux algorithmes. Pour résumer, la Commission estime que vous n’avez pas suffisamment veillé à la compatibilité de votre texte avec le droit européen, ce qui peut sembler paradoxal de la part d’une majorité qui fait de l’Europe l’alpha et l’oméga de sa politique.

Ce texte est tellement problématique qu’avant même son adoption, les plateformes l’ont intégré et pratiquent déjà une forme d’autocensure, toujours plus prégnante au quotidien. Une nouvelle fois, je vous mets en garde : notre législation sur la presse est largement suffisante pour répondre à ces problèmes, et je ne crois pas qu’il soit souhaitable de transférer les prérogatives du juge à des opérateurs privés. En tout cas, ce n’est pas la conception que je me fais de la liberté d’expression, au sens qu’on lui reconnaît en France.

M. Philippe Latombe. Je partage nombre des propos qui ont été tenus, notamment par Mme de La Raudière et M. Larrivé. Je réitère mon opposition à ce texte car, même si vos intentions sont louables, il pose deux problèmes majeurs. D’une part, il soulève la question des contenus « gris », autrement dit de la sur-censure. D’autre part, il risque de conférer un pouvoir trop important aux plateformes actuelles, ce qui pourrait constituer une barrière à l’entrée de nouveaux arrivants.

Mme Laure de La Raudière. C’est vrai !

M. Philippe Latombe. Madame la rapporteure, nous avions eu des échanges dans l’hémicycle, en première lecture, sur l’interopérabilité. J’ai constaté avec plaisir que les sénateurs l’avaient réintégrée dans le texte. J’estime, comme eux, qu’elle constitue sans doute l’une des solutions pour se libérer des contenus haineux. Aussi, je regrette que, par l’un de vos amendements, vous entendiez supprimer cet apport du Sénat, au motif qu’il faudrait y réfléchir de manière plus approfondie, à partir d’un texte européen. Or, comme le dit la Commission européenne, cet argument s’applique également à votre texte. Pourquoi faire voter cette proposition de loi en urgence alors qu’un texte européen est en cours d’élaboration ? On aurait pu avoir une législation européenne harmonisée, au lieu d’un simple cadre national.

J’ai déposé plusieurs amendements de repli, car je considère que, même si le Sénat a amélioré le texte, il n’a pas totalement rétabli l’équilibre souhaitable, notamment pour obliger les plateformes à appliquer, également dans les vingt-quatre heures, des mesures véritablement contraignantes en cas d’opposition à une éventuelle censure ou suppression de textes ou de contenus. J’avoue être très inquiet quant à la mise en œuvre effective du texte et à ses conséquences sur la liberté d’expression sur internet.

M. Arnaud Viala. J’ai voté pour ce texte en première lecture et je maintiendrai cette position, même si je partage les inquiétudes qui viennent d’être exprimées sur la liberté d’expression et la place de la justice vis-à-vis des opérateurs privés. Je voudrais réitérer une autre préoccupation, que j’avais exprimée en première lecture, tenant à l’efficacité de certaines dispositions, notamment le droit à l’oubli. Les dégâts qui peuvent être causés par les pratiques haineuses sur internet me semblent justifier que l’on coure le risque d’affecter, aussi faiblement que possible, l’exercice de la liberté d’expression. Cela étant, compte tenu des difficultés auxquelles se heurtera l’application du texte, je me demande si celui-ci ne se réduira pas à un effet d’annonce, source ultérieure de déception. De fait, lorsqu’un contenu a été diffusé sur la toile, il est extrêmement difficile de le faire disparaître. Même si l’opérateur privé le retire aussi vite que possible, une trace demeure. Il ne faut pas faire croire aux Français qu’on va tout résoudre sans répondre à ces questions, certes techniques, mais guidées par une exigence d’honnêteté intellectuelle.

Mme George Pau-Langevin. Je suis choquée par le fait qu’on présente l’interopérabilité comme une solution. Offrir la possibilité à des personnes qui ont été insultées sur une plateforme d’accéder à une autre plateforme, c’est comme dire à un enfant battu dans la cour de l’école que l’on va le faire sortir par la porte de derrière. C’est très choquant. On devrait protéger les victimes au lieu de les autoriser à fuir !

Par ailleurs, on nous dit que le juge doit conserver ses compétences actuelles. J’ai engagé plusieurs procédures judiciaires sur le fondement de la loi de 1881. C’est une très belle loi, mais il faut reconnaître qu’elle est truffée de chausse-trappes, car son propos originel était de protéger les journalistes. Aujourd’hui, ce ne sont pas les journalistes qui sont en cause, mais M. Tout-le-monde qui expose ses opinions sur la toile. Ce n’est pas la première fois que la justice a affaire à ce genre de situations. En présence d’un contentieux de masse, elle n’arrive plus à faire face. Quand j’étais jeune, les affaires de chèques sans provision se plaidaient pendant des après-midi entiers dans les tribunaux. Devant la masse de contentieux, on a décidé, pour les dégonfler, que les banques devaient couvrir les petits chèques. De la même manière, des générations de policiers et de juges ont été accaparées par les infractions de stationnement. Celles-ci ont atteint un tel volume que, désormais, c’est une société privée qui remet le forfait de post-stationnement. Au-delà d’un certain nombre d’infractions, il faut trouver des solutions administratives. Dans la proposition de loi, la solution administrative consiste à éliminer les propos contestables ; la justice peut ensuite intervenir pour dire ce qui est raciste et ne l’est pas, ce qui peut être dit ou non. On élimine ainsi de nombreux contenus qui auraient engorgé la justice. Confier cette tâche au juge reviendrait à accepter qu’il n’y ait plus de réelle police sur les propos tenus.

Même si le texte peut présenter des aspects boiteux, il constitue une tentative pour endiguer le flot de propos racistes. Le problème ne tient pas seulement aux propos eux-mêmes. De fait, à force de défiler sur internet, les positions racistes, homophobes ou haineuses finissent par gagner les esprits. Aujourd’hui, les gens pensent en toute bonne foi certaines choses qu’on n’aurait jamais acceptées il y a quinze ou vingt ans. Il me paraît donc urgent d’agir pour lutter contre ce déferlement de haine.

On me parle de censure, mais je vois à longueur de temps, sur tous les médias, des gens tenir des propos que je trouve personnellement choquants et qui ne reçoivent aucune réponse. Notre société ne connaît absolument pas une sur-censure des propos haineux ou homophobes. Peut-être le texte n’est-il pas totalement satisfaisant, mais au moins pourra-t-on dire qu’on a essayé de faire quelque chose face à un phénomène extrêmement dangereux pour la démocratie.

Chapitre Ier
Simplification des dispositifs de notification de contenus haineux en ligne

Article 1er (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Obligation de retrait des contenus manifestement haineux en ligne

La Commission est saisie des amendements identiques CL1 de Mme Emmanuelle Ménard et CL29 de M. Ugo Bernalicis.

Mme Emmanuelle Ménard. L’amendement CL1 a pour objet de supprimer l’article 1er, problématique en ce qu’il instaure la privatisation de la liberté d’expression en contournant le juge et en confiant la police de l’expression sur internet aux grandes plateformes. Les opérateurs sont-ils les mieux placés pour exercer cette mission de censure a priori quand il est parfois si difficile pour les juges de le faire a posteriori ? Quelle légitimité ont-ils pour le faire ? Avant même son entrée en vigueur, votre loi produit déjà ses effets délétères, puisque les plateformes – y compris les plus grandes – ont intégré le fait qu’elles devaient s’autocensurer et supprimer certains propos.

Quand il s’agit de propos manifestement haineux, il n’y a aucun problème ; tout le monde est d’accord pour demander leur retrait. Mais comment la plateforme appréhendera‑t‑elle la zone grise ? Puisque ce ne sont pas des personnes physiques qui s’y attelleront, mais des algorithmes, comment ces derniers distingueront-ils les propos clairement haineux des messages perturbants mais n’outrepassant pas les limites de la liberté d’expression, telles qu’elles sont définies par la Cour européenne des droits de l’homme ? Selon celle-ci, un propos choquant peut être admis au nom de la liberté d’expression. Je ne rappellerai pas les mots qui ont été employés récemment sur une radio publique, qui ont choqué un grand nombre de personnes – à commencer par moi – mais contre lesquels je ne m’élèverai pas, car ils constituent une manifestation de la liberté d’expression. Certains propos relèvent également de la zone grise qu’est l’humour, car on n’a pas tous le même humour, ni la même appréciation de ce type de discours. Il me paraît difficile et pas souhaitable pour la liberté d’expression en France de demander à l’algorithme d’une plateforme privée de censurer un propos, qui plus est en vingt‑quatre heures.

Mme Danièle Obono. Par l’amendement CL29, nous demandons la suppression de l’article 1er parce que nous pensons qu’il passe à côté de l’essentiel, voire qu’il pourrait rendre les choses encore plus difficiles, en premier lieu pour les victimes.

Beaucoup de contresens sont commis sur la nature et les dynamiques d’internet. Il est naïf de penser que les plateformes vont aller à l’encontre de leur intérêt premier, à savoir diffuser en masse l’information la plus virulente, provocante et dynamique possible. Leur intérêt n’est pas de rémunérer des milliers de modérateurs, qui devront être formés à la législation pour déterminer la légalité des contenus. Donc, elles ne le feront pas.

L’interopérabilité, quant à elle, existait au début d’internet. Elle ne permet pas de demander aux gens de passer par une autre porte, c’est une manière de ne pas les obliger à rester dans un espace où ils subissent des violences. Pour reprendre votre métaphore, madame Pau‑Langevin, cela revient à organiser, contrôler et protéger l’espace afin que des gens puissent avoir accès à la cour d’école et jouer avec leurs enfants. Certaines opinions traduisent une méconnaissance des dynamiques actuelles d’internet. Les communautés, les personnes les plus attaquées sur le fondement de leur appartenance sexuelle, de leurs préférences sexuelles, de leur genre, ont développé ces méthodes. La volonté de bien faire est compromise par une incompréhension des mécanismes. Il faudrait du temps pour aller au fond du sujet, comprendre de quoi on parle. Les comportements en question méritent un peu plus qu’une amende de même type que celle qui est infligée pour stationnement gênant.

Parlons de la liberté d’expression dans une société démocratique, des victimes qui demandent justice et reconnaissance, mais qui passent très rarement les portes du tribunal parce qu’elles en sont empêchées ! Accordons-nous les moyens d’appliquer la loi et de satisfaire ces demandes, mais ne laissons pas le champ libre aux plateformes, qui continueront, conformément à leur modèle économique, à faire du buzz et à réaliser du profit.

Mme Laetitia Avia, rapporteure. Nous parlons de l’article 1er du texte voté par le Sénat, qui comporte quelques ajustements à la marge du droit existant, notamment en lien avec la LCEN, ou relatifs à la conservation des données. Le Sénat ayant supprimé l’obligation de retrait du contenu haineux dans les vingt-quatre heures, les amendements de suppression sont, sur ce point, sans objet.

Comme je l’ai dit dans mon intervention liminaire, je crois nécessaire de maintenir tous les apports constructifs émanant du Sénat. Quant au débat qui a été alimenté par la discussion générale et les deux interventions précédentes, nous y reviendrons en examinant le prochain amendement, par lequel je vous proposerai une nouvelle approche de l’article 1er. Avis défavorable.

Les amendements sont rejetés.

La Commission examine l’amendement CL49 de la rapporteure.

Mme Laetitia Avia, rapporteure. Nous essayons de construire un équilibre à l’article 1er. Je n’aurai pas la prétention d’affirmer que je détiens la solution ultime et que la disposition proposée constitue l’alpha et l’oméga pour lutter contre la haine sur internet. C’est un sujet sur lequel je travaille quasiment à plein temps depuis près de deux ans, qui m’a donné l’occasion de rencontrer de nombreuses personnes. Je me suis toujours efforcée de trouver la solution la plus effective, efficace et équilibrée possible.

En première lecture, nous avions voté deux dispositifs à la lumière de l’avis du Conseil d’État : une régulation administrative centrée sur des obligations de moyens et la définition d’un délit, sanctionné par le juge, pour encadrer l’obligation de retrait, en vingt-quatre heures, des contenus manifestement haineux. J’insiste sur ces deux termes : « manifestement » indique que cette disposition ne doit pas viser les contenus « gris », qui ne sont pas soumis à l’obligation de retrait ; « haineux » résulte de la définition que nous avons élaborée collectivement en commission des Lois puis dans l’hémicycle pour construire ces éléments de protection de la dignité humaine. Comme je le disais tout à l’heure, la Commission européenne a validé, s’agissant du volet délictuel, la dérogation à la directive e‑commerce, dès lors qu’on se trouve dans le champ de la protection de la dignité humaine, tout en invitant à un meilleur ciblage. Par ailleurs, lors des débats au Sénat, plusieurs questions ont été soulevées, auxquelles je me suis efforcée de répondre dans la rédaction proposée en CMP. Je vous propose de voter cette disposition dans une rédaction très similaire à celle-ci, et non pas l’article 1er tel que nous l’avions voté en première lecture.

Cette rédaction rétablit d’abord une création qui constitue le cœur du texte et qui avait été construite de manière assez transpartisane avec des apports de plusieurs groupes : le régime de responsabilité renforcée des plateformes. Sans ce délit, cette responsabilité n’existerait pas et, malgré nos bonnes intentions, nous serions dépourvus d’outils efficaces. Ensuite, la rédaction est allégée, pour renforcer la lisibilité du texte. En première lecture, l’article comportait un inventaire dense, à la Prévert, des éléments constitutifs de l’atteinte à la dignité humaine. Dans la nouvelle rédaction, j’ai simplement visé le « respect de la dignité humaine » et fait référence aux infractions que nous avions collectivement ajoutées.

Pour ce qui est du champ de la mesure, deux alinéas distincts concernent les réseaux sociaux et les moteurs de recherche. S’agissant de ces derniers, nous avions prévu, en première lecture, le déréférencement des pages litigieuses, alors que nous visions en réalité le retrait du contenu haineux de la page de recherche. Autant l’écrire ainsi pour que les choses soient claires.

Nous avions beaucoup débattu des contenus à caractère négationniste. Le négationnisme n’entrait initialement pas dans le champ des contenus haineux constitutifs d’une infraction. Toutefois, compte tenu des nombreuses demandes faites par certains de nos collègues ainsi que par les associations de lutte contre la discrimination, je vous propose d’intégrer le négationnisme au champ d’application de ce texte.

Pour ce qui est des sanctions, je vous propose de retirer la peine d’emprisonnement qui, d’une part, a peu de sens dans la mesure où elle concerne des plateformes, donc des sociétés et non des personnes, d’autre part, nuit à la lisibilité du dispositif – le but de ce texte n’est pas d’envoyer M. Mark Zuckerberg en prison.

Le Sénat a très judicieusement posé une question, sur laquelle j’ai beaucoup travaillé pour préparer la CMP, consistant à définir l’élément intentionnel et à préciser les modalités d’application de la sanction. Dans ses observations sur le texte, la Commission européenne estime qu’il faudrait que les sanctions soient plus proportionnées et permettent une certaine flexibilité lorsque la plateforme a dû contextualiser le contenu visé. Je vous propose donc un alinéa permettant de donner un peu de souffle aux dispositions relatives aux sanctions, en prévoyant que, lorsque la plateforme n’a pas retiré un contenu ou l’a retiré à l’issue d’un délai supérieur à vingt-quatre heures parce que la nature du contenu, située dans la zone « gris foncé », nécessitait une évaluation, il convient de tenir compte de la bonne foi de la plateforme et, dès lors, de considérer que le caractère intentionnel du délit n’est pas constitué. Ces dispositions permettent de privilégier une approche concrète, au cas par cas, et leur évocation me donne l’occasion de rappeler que le texte n’a pas vocation à sanctionner les contenus « gris », mais uniquement les contenus manifestement haineux – un point qui se trouve donc ici précisé pour la deuxième fois dans l’article 1er.

Enfin – c’est peut-être du droit bavard, mais il vaut toujours mieux que les choses soient écrites noir sur blanc –, je rappelle que l’action en référé est toujours applicable, et qu’il est donc toujours possible de faire appel au juge, que ce soit pour faire retirer un contenu ou, à l’inverse, pour se plaindre de ce que l’on considère comme une atteinte à sa liberté d’expression.

Je récapitule donc les diverses modifications que je vous propose d’apporter à l’article 1er : elles consistent à rappeler la possibilité de faire appel au juge, à préciser que les sanctions ne s’appliquent pas indistinctement sous la forme d’un couperet, mais seulement aux acteurs n’agissant pas de bonne foi, à faire en sorte que les sanctions correspondent mieux à la réalité, à apporter quelques précisions rédactionnelles, et enfin à rétablir diverses dispositions que vous aviez votées, notamment au sujet du message de substitution, de la conservation des contenus aux fins de poursuite, de la possibilité pour les associations agréées d’engager des poursuites, et de la sanction des signalements abusifs.

La Commission adopte l’amendement et l’article 1er est ainsi rédigé.

En conséquence, les amendements CL2 et CL9 tombent.

Article 1er bis (suppression maintenue) (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Formalisme de la procédure de notification d’un contenu haineux en ligne

La Commission maintient la suppression de l’article.

Article 1er ter A (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Mise en cohérence du formalisme de la notification des autres contenus illicites

La Commission adopte l’amendement de cohérence CL50 de la rapporteure.

Puis elle adopte l’article 1er ter A modifié.

Article 1er ter B (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Rôle des associations de protection de l’enfance en matière de notification des contenus haineux en ligne

La Commission adopte l’amendement de cohérence CL51 de la rapporteure.

Elle examine les amendements identiques CL52 de la rapporteure et CL43 de Mme Caroline Abadie.

Mme Caroline Abadie. Par un amendement adopté en première lecture, nous avions souhaité offrir aux mineurs utilisateurs des plateformes en ligne une protection renforcée dans les cas où ils seraient victimes de contenus manifestement haineux en ligne, en leur donnant la possibilité de saisir une association afin que cette dernière agisse en justice en leur nom.

Le Sénat a limité cette possibilité aux associations reconnues d’utilité publique, ce qui nous semble beaucoup trop restrictif. Dans le cadre de la préparation de ce texte, nous avons rencontré de très nombreuses associations agissant en faveur des personnes victimes de LGBTphobie, de racisme ou d’antisémitisme, qui ne pourraient plus agir en justice si l’exigence qu’elles soient reconnues d’utilité publique était maintenue.

L’amendement CL43 vise, par conséquent, à supprimer cette limitation.

Mme Laure de La Raudière. Supprimer le critère de la reconnaissance d’utilité publique aurait pour conséquence d’élargir considérablement le champ d’intervention des associations susceptibles d’intervenir. Pour une association, être reconnue d’utilité publique donne droit à la défiscalisation et, en l’état actuel de la législation, cette reconnaissance n’est pas très compliquée à obtenir. La modification proposée par le Sénat n’a donc pas un caractère si restrictif. Si les associations que vous avez rencontrées avaient un objet d’intérêt général, ce qui est le cas de la lutte contre l’homophobie et contre les discriminations en général, elles n’auraient aucune difficulté à obtenir un agrément d’utilité publique. Je ne vois donc pas ce qui justifie de revenir sur la rédaction du Sénat.

Mme Emmanuelle Ménard. Je suis complètement d’accord avec Mme de La Raudière. Exiger que les associations soient reconnues d’utilité publique ne représente qu’une toute petite restriction, et supprimer cette exigence aurait pour effet de donner à toutes les associations agissant en France la possibilité de poursuivre en justice. Or chacun sait que certaines associations ont fait une sorte de fonds de commerce des actions qu’elles intentent en justice contre tout le monde et n’importe qui, vivant quasi exclusivement des revenus que cela leur procure.

La toute petite restriction introduite par le Sénat me semble donc, non seulement sage, mais absolument évidente.

Mme Laetitia Avia, rapporteure. J’entends ce que vous dites et je pense nécessaire d’apporter une clarification. Il n’est pas ici question de permettre à toutes les associations d’intenter des actions en justice. La disposition prévue au deuxième alinéa de l’article 1er ter B ne vise qu’à permettre aux associations de protection de l’enfance de signaler des contenus à la place des mineurs. Une seule association de protection de l’enfance étant actuellement reconnue d’utilité publique, il est proposé, avec cet amendement, de supprimer cette condition, afin que toute association déclarée depuis au moins cinq ans à la date des faits et ayant pour objet statutaire la protection des enfants puisse signaler des contenus, accompagner les mineurs et prévenir leurs parents.

Mme Laure de La Raudière. Cela n’avait pas été présenté comme ça, excusez‑nous !

M. Philippe Latombe. Mme la rapporteure a tout à fait raison de préciser les termes de l’article 1er ter B qui, en l’état actuel, prévoit en fait quatre conditions cumulatives : la reconnaissance d’utilité publique, le fait que l’association soit déclarée depuis au moins cinq ans, que son objet statutaire comporte la protection des enfants et qu’elle soit saisie par un mineur. Dans ces conditions, il me semble que l’on pourrait supprimer la première de ces conditions, les trois autres constituant un filtre suffisant.

M. Jean Terlier. Il n’est pas facile pour une association d’être reconnue d’utilité publique…

Mmes Laure de La Raudière et Emmanuelle Ménard. Mais si !

M. Jean Terlier. … puisque cela implique qu’elle poursuive un but d’intérêt général, qu’elle ait une influence ou un rayonnement dépassant le cadre local, qu’elle compte au moins 200 adhérents, et qu’elle présente un fonctionnement démocratique et une solidité financière tangible. Remplir l’ensemble de ces conditions n’a rien de facile, et l’exiger dans le cadre de l’article 1er ter B aurait pour conséquence de restreindre considérablement son champ d’application.

La Commission adopte les amendements.

Elle examine, en discussion commune, l’amendement CL16 de Mme Emmanuelle Ménard et CL53 de la rapporteure.

Mme Emmanuelle Ménard. L’amendement CL16 vise, à la seconde phrase de l’alinéa 2, à supprimer les mots : « , si cela n’est pas contraire à son intérêt, » qui, à mon sens, excluent les parents ou les représentants légaux des enfants mineurs. Or, les parents étant évidemment responsables de leurs enfants, il est incompréhensible, voire choquant, qu’une association qui détecterait des propos écrits par un mineur, et considérés comme haineux, soit la seule juge pour décider si les parents de ce mineur doivent en être informés ou non.

J’estime que l’association a vocation à soutenir les parents ou les représentants légaux plutôt qu’à les écarter. Au-delà de la suppression des propos posant problème, il y a tout un travail éducatif à effectuer auprès du mineur les ayant tenus sur internet, et les parents ont toute leur place dans ce travail. S’ils n’en ont pas conscience, ils doivent justement y être sensibilisés, et ce n’est pas en les écartant qu’on peut le faire.

Mme Laetitia Avia, rapporteure. J’entends ce que vous dites, madame Ménard, mais j’appelle votre attention sur le fait que l’article 1er ter B ne concerne pas l’enfant auteur de contenus haineux, mais l’enfant victime qui demanderait à bénéficier de l’accompagnement d’une association. La disposition que vous souhaitez supprimer a été ajoutée par le Sénat, qui estimait qu’il fallait laisser à l’association saisie le soin de déterminer si l’intérêt de l’enfant pouvait éventuellement justifier que les parents ne soient pas informés. Cette préoccupation me paraît tout à fait fondée quand c’est la vie affective de l’enfant qui est en jeu – je pense notamment à un enfant qui n’aurait pas fait son coming out – et, plus généralement, quand la situation nécessite d’être gérée en douceur par des personnes compétentes pour le faire.

C’est pourquoi je vous propose, avec l’amendement CL53, une rédaction intermédiaire permettant de préserver l’intérêt de l’enfant sans déresponsabiliser les parents. Elle consiste, à la seconde phrase de l’alinéa 2, à substituer aux mots : « si cela n’est pas contraire à son intérêt » les mots : « selon des modalités adaptées à l’intérêt de l’enfant ». Cela permet de maintenir dans leurs attributions respectives à la fois les parents et les associations, qui peuvent continuer à veiller à l’intérêt de l’enfant.

Je vous demande donc de retirer votre amendement pour vous rallier à celui que je viens de présenter ; à défaut, j’émettrai un avis défavorable.

Mme Emmanuelle Ménard. À vous entendre, on a l’impression qu’il faut tout faire pour que les enfants puissent se préserver de leurs parents, en particulier quand ils ne leur ont pas tout révélé de leur vie affective…

Mme Laetitia Avia, rapporteure. Non, ce n’est pas ça !

Mme Emmanuelle Ménard. Or il me semble que c’est la moindre des choses que les parents soient informés de ce qui arrive à leurs enfants, a fortiori quand ils sont victimes. Les parents n’ont-ils pas pour rôle de protéger leurs enfants ? En tout état de cause, ce n’est pas à une association que doit être confiée en priorité la mission consistant à protéger un enfant victime de harcèlement ; les parents doivent être les premiers prévenus pour le réconforter, le consoler, l’encadrer et le protéger. À titre personnel, je serais terriblement choquée et peinée si j’apprenais que mon enfant a été harcelé sur internet et qu’on ne m’a pas tenue informée au motif qu’il pouvait souhaiter ne pas tout dire à ses parents. Faire un peu confiance à la cellule familiale pour savoir ce qui est bon pour un enfant victime de harcèlement sur internet, cela me paraît être la moindre des choses !

M. Philippe Latombe. Pour ma part, je suis défavorable à ces deux amendements, pour deux raisons différentes.

Je ne suis pas d’accord avec vous, madame Ménard, car j’estime qu’il y a des cas dans lesquels l’association n’a pas à informer les représentants légaux. C’est actuellement déjà le cas lorsqu’une mineure doit recourir à une contraception d’urgence. Il est alors justifié qu’elle soit placée dans une sorte de sphère lui garantissant que ses parents ne seront pas informés de sa sexualité ou d’autres éléments de sa vie affective. Si on fait confiance à une association pour signaler des contenus, on doit aussi lui faire confiance pour mettre en place autour de l’enfant la sphère que je viens d’évoquer.

Je ne suis pas non plus tout à fait d’accord avec votre rédaction, madame la rapporteure, car la précision « si cela n’est pas contraire à son intérêt » peut conduire, par exemple dans le cas d’un coming out non fait, à ce qu’une association estime qu’il vaut mieux informer le représentant légal alors même que le mineur concerné peut très bien préférer que ses représentants légaux ne soient pas informés.

Pour ces raisons, en tant que parent, j’estime qu’il est préférable de laisser le texte en son état actuel.

Mme Caroline Abadie. Notre groupe estime que la famille doit être prévenue par défaut, et que c’est seulement si cette information est contraire à l’intérêt de l’enfant qu’elle ne doit pas l’être. Certes, madame Ménard, dans 99,99 % des cas, la famille sera une cellule protectrice à l’intérieur de laquelle l’enfant n’aura rien à craindre. Cependant, il est de notre rôle de législateur que d’imaginer ce qui pourrait se passer dans les autres cas, même s’ils ne représentent que 0,01 % des situations.

Dans tous les cas, la décision devra être prise en fonction de l’intérêt de l’enfant, ce qui me paraît satisfaire aux deux remarques formulées par M. Latombe.

Mme Emmanuelle Ménard. Je suis d’accord avec vous pour dire qu’il faut envisager ce qui peut se passer dans 0,01 % des cas. Mais qui va prendre la décision d’informer ou non la famille ? Si c’est le juge, il n’y a pas de problème, mais de quel droit une association déciderait que la famille doit être mise à l’écart ? Cela ne me semble pas normal.

M. Philippe Latombe. Avec la rédaction que vous proposez, madame la rapporteure, l’association informerait dans tous les cas les représentants légaux, selon des modalités variant en fonction des circonstances – on peut imaginer, par exemple, qu’elle le fasse avec un décalage de quelques semaines ou quelques mois. Cette rédaction ne convient donc pas si votre objectif est que l’enfant soit placé dans une sphère lui permettant d’éviter que ses parents soient informés.

Dans la rédaction actuelle du texte, l’association informe le mineur et, « si cela n’est pas contraire à son intérêt, ses représentants légaux de ladite notification ». Le fait de procéder par exception est plus protecteur pour le mineur. Il ne faut donc pas modifier cette rédaction.

Mme George Pau-Langevin. Il est important que les parents ne soient pas dessaisis de leurs responsabilités. Cependant, il n’est pas question que l’association se voie confier une quelconque autorité sur le mineur qui pourrait la conduire à exercer une sorte de tutelle : il ne s’agit que d’effectuer une notification, et les situations pouvant justifier que cette notification soit faite exigent qu’elle le soit rapidement, ce qui exclut de mettre en œuvre toute une procédure comprenant une convocation des parents, du chef d’établissement scolaire, etc. J’insiste sur ce point, le rôle de l’association étant ponctuel et limité, il n’y a pas lieu de craindre que celle-ci se voie confier un rôle consistant à gérer la vie de l’enfant.

Mme Laetitia Avia, rapporteure. En effet, le but de mon amendement n’est pas d’aboutir à ce que les parents soient totalement déresponsabilisés. Si un enfant se trouve dans une situation de danger, ses parents doivent, à un moment ou un autre, être informés du fait que quelque chose s’est produit. Cependant, la référence à des modalités « adaptées à l’intérêt de l’enfant » laisse aux associations une grande latitude dans le choix des mesures à prendre et la façon de les mettre en œuvre pour effectuer cette information.

La Commission rejette l’amendement CL16 et adopte l’amendement CL53.

Puis elle adopte l’article 1er ter B modifié.

Article 1er ter (suppression maintenue) (art. 6-2 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Sanction des notifications abusives ou malveillantes

La Commission maintient la suppression de l’article.

Chapitre II
Devoir de coopération des opérateurs de plateforme
dans la lutte contre les contenus haineux en ligne

Article 2 (art. 6-2 et 6-3 [nouveaux] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Obligations de moyens en matière de traitement des notifications de contenus manifestement haineux en ligne

La Commission est saisie de l’amendement de suppression, CL4, de Mme Emmanuelle Ménard.

Mme Emmanuelle Ménard. Comme je l’ai déjà dit, l’article 2 me paraît problématique au regard de la véritable privatisation de notre justice dont il témoigne, et qui ne me semble évidemment pas souhaitable. Je rappelle également que nous avons déjà eu ce débat dans le cadre de l’examen de la loi relative à la lutte contre la manipulation de l’information, qui avait donné lieu à des discussions extrêmement vives en raison du risque d’atteintes portées à la liberté d’expression. Ainsi, en moins d’un an, nous aurons examiné deux textes menaçant de mettre en péril la liberté d’expression telle qu’elle est actuellement définie en France.

Si l’intention du présent texte est louable, sans doute lui manque-t-il quelques garde-fous. C’est particulièrement le cas à l’article 2, dont certaines dispositions laissent entendre que la taille des plateformes en ligne aurait une incidence sur le caractère plus ou moins grave des propos considérés haineux. Or insulter quelqu’un sur Facebook ne me paraît pas moins grave que de le faire sur des blogs plus confidentiels. Quand il s’agit de propos manifestement haineux, je ne vois pas ce qui justifie de limiter la protection des victimes aux plateformes les plus importantes. C’est pourquoi je propose de supprimer l’article 2.

Mme Laetitia Avia, rapporteure. Je suis défavorable à cet amendement. L’article 2 a pour objet de mettre en œuvre des obligations de moyens – des moyens exigeants et conséquents – à la charge des grandes plateformes. Il ne s’agit pas d’instaurer des barrières qui empêcheraient la création et le développement de nouvelles plateformes, mais bien, pour celles qui existent déjà et brassent des contenus de manière massive, de faire en sorte qu’elles mettent en œuvre des moyens de traitement adaptés à leur nombre d’utilisateurs.

M. Philippe Latombe. Ma position n’est pas celle que vous venez de m’attribuer, madame la rapporteure. Je pense vraiment que votre loi va créer des barrières à l’entrée, et que l’un des intérêts de l’opérabilité est aussi d’atténuer l’incidence de ces barrières. Confier aux plateformes la censure des contenus va avoir pour conséquence que les nouveaux entrants, qui ne seront pas dotés des mêmes capacités que les grandes plateformes, vont se trouver obligés de leur sous-traiter cette responsabilité.

Il existe aujourd’hui des banques d’images appartenant à Facebook et à Twitter, qui vont ensuite servir aux nouveaux entrants. Le jour où ces nouvelles plateformes auront pris trop de place, les grands opérateurs leur couperont l’accès aux systèmes de modération, ce qui reviendra à instaurer des barrières à l’entrée. Vous m’avez prêté des propos tout à fait opposés à ma véritable position, et je me devais de rectifier cette erreur.

La Commission rejette l’amendement.

Elle en vient à l’amendement CL54 de la rapporteure.

Mme Laetitia Avia, rapporteure. En cohérence avec ce que nous avons voté à l’article 1er, l’amendement CL54 réintroduit les moteurs de recherche dans le champ d’application du texte, d’où ils avaient été retirés par le Sénat. Par ailleurs, il supprime la possibilité, ajoutée par le Sénat, de permettre au CSA d’attraire dans son champ tout site acquérant en France un rôle significatif pour l’accès du public aux contenus en ligne.

Cette rédaction paraissait poser de sérieuses difficultés sur les plans constitutionnel et conventionnel. En effet, la Commission européenne préconise de veiller au ciblage et au caractère proportionné des mesures que nous proposons d’instaurer au moyen de ce texte.

La Commission adopte l’amendement.

En conséquence, les amendements CL3, CL31 et CL10 tombent.

La Commission adopte les amendements rédactionnels CL55 et CL56 de la rapporteure.

Elle examine l’amendement CL41 de M. Philippe Latombe.

M. Philippe Latombe. L’amendement CL41 a pour objet de préciser qu’on ne peut laisser des algorithmes s’occuper de la régulation et de la censure des contenus. En substituant aux mots : « et, le cas échéant, technologiques proportionnés », les mots : « , le cas échéant à l’aide de technologies proportionnées », on affirmerait que les algorithmes constituent uniquement une aide, mais ne sont pas décisionnels en eux-mêmes, toute décision ne pouvant se prendre qu’en recourant à un être humain. Cela éviterait ainsi que certains contenus « gris » se trouvent systématiquement retirés dans le cadre de la censure exercée par les plateformes.

Mme Laetitia Avia, rapporteure. Cet amendement me paraît satisfait. Je rappelle que la rédaction votée en commission des Lois en première lecture faisait état des « moyens humains ou technologiques ». Dans l’hémicycle, sur proposition de notre collègue Dunoyer, nous avons modifié cette rédaction en abandonnant la conjonction « ou » au profit de « et » et en écrivant donc « et, le cas échéant, technologiques », afin de ne pas retenir le principe d’un traitement purement algorithmique, mais au contraire le recours à des moyens humains « et, le cas échéant, technologiques » – en soutien. Je préfère en rester à cette rédaction qui a été votée par l’Assemblée en première lecture, et qui répond au souhait que vous formulez.

Votre amendement étant satisfait, je vous demande de le retirer et j’émettrai à défaut un avis défavorable.

M. Philippe Latombe. Si on parle des moyens humains « et, le cas échéant, technologiques proportionnés », cela signifie qu’en l’absence de moyens humains, on peut recourir aux moyens technologiques. En d’autres termes, il suffit que l’opérateur ne mette pas de moyens humains en œuvre et recoure à des algorithmes.

En revanche, si on écrit : « , le cas échéant à l’aide de technologies proportionnées », cela fait bien apparaître le fait qu’il y a des moyens humains, et que les algorithmes ne sont là que pour aider. Votre rédaction, avec laquelle je n’étais déjà pas d’accord en première lecture, laisse la possibilité aux plateformes de recourir aux algorithmes dès lors qu’elles prétendent ne pas disposer de moyens humains suffisants.

C’est une question de syntaxe et de logique : l’expression « le cas échéant » indique bien qu’en l’absence des deux premières propositions, on recourt à la troisième.

Mme Danièle Obono. Je soutiens la proposition de M. Latombe, même s’il s’agit d’un amendement de repli. En vérité, on sait bien, et les plateformes aussi le disent, qu’il est impossible d’assurer une modération humaine pour l’ensemble des interactions qui se déroulent sur ces plateformes. D’ores et déjà, de fait, des algorithmes sont utilisés et la proposition de loi va encourager cette tendance.

On pourrait aussi s’interroger sur les personnes exerçant ces fonctions de modération, en particulier sur la formation qu’elles ont reçue au préalable et sur les conditions dans lesquelles elles travaillent. En l’occurrence, on le sait, elles sont problématiques à de nombreux égards. Par ailleurs, et alors même qu’il s’agit ici de domaines aussi sensibles que la liberté d’expression ou encore les discriminations, aucune garantie n’est apportée, aucun protocole n’existe pour vérifier que les quelques personnes affectées au contrôle de millions d’interactions ont effectivement la capacité d’en juger.

Tous ces éléments mettent en lumière le non-sens et l’inutilité de ce que vous êtes en train de faire : en n’abordant pas la question du fonctionnement de cette économie, de cette industrie d’internet, vous passez à côté de l’essentiel. Vous vous donnez bonne conscience à peu de frais mais, en réalité, vous ne réglez pas le problème.

Mme Laetitia Avia, rapporteure. Monsieur Latombe, « le cas échéant », cela veut dire « si nécessaire ». Les plateformes mettent en œuvre des moyens humains et, si nécessaire, technologiques. L’amendement, je le répète, est donc satisfait. Je maintiens mon avis défavorable, puisque, si j’ai bien compris, vous ne le retirez pas.

La Commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CL57 de la rapporteure.

La Commission en vient à l’amendement CL36 de M. Philippe Latombe.

M. Philippe Latombe. Si les plateformes doivent retirer un contenu vingt-quatre heures après le signalement, il faut qu’elles traitent les contestations liées à ce retrait ou non‑retrait dans le même délai et qu’elles en expliquent les motifs, pour avoir une base en vue d’une contestation en justice. Il n’y aura pas de problème particulier pour les contenus manifestement haineux, puisqu’il suffira de dire qu’ils ont été retirés parce qu’ils contrevenaient à telle ou telle disposition visée à l’article 1er du texte, mais, pour les contenus « gris », il faudra donner des motifs plus précis. Si l’on veut rétablir l’équilibre du texte et préserver un minimum de liberté d’expression, il faut permettre aux utilisateurs de contester la décision des plateformes dans les vingt-quatre heures, et non pas sans qu’un délai soit fixé. Dans le texte, il est simplement fait mention de dispositifs permettant de contester la décision. Dans la mesure où la plateforme doit retirer le contenu dans les vingt-quatre heures, la réponse à une contestation doit être fournie dans le même délai : un parallélisme s’impose.

Il en va de même en ce qui concerne les motifs : dès lors qu’il faut un motif pour signaler un contenu, la décision prise par la plateforme doit, elle aussi, être motivée, de manière à ce que le motif avancé puisse être utilisé si la personne concernée conteste la décision en justice.

Mme Laetitia Avia, rapporteure. D’abord, en ce qui concerne le motif, ce que vous proposez est déjà prévu dans le texte que nous avons adopté en première lecture, et la disposition a été maintenue par le Sénat. Ensuite, un délai de vingt-quatre heures accordé pour traiter un recours interne peut apparaître comme trop court, car la procédure peut nécessiter des échanges entre les parties prenantes. Je ne pense pas qu’il soit nécessaire d’encadrer le processus de réponse en imposant un délai de vingt-quatre heures. Avis défavorable.

La Commission rejette l’amendement.

Elle est saisie de l’amendement CL40 de M. Philippe Latombe.

M. Philippe Latombe. À l’article 1er, vous avez réintroduit, tout en admettant que cela rendait la loi bavarde, la possibilité de contester en référé une décision de retrait. L’idée, avec cet amendement, dans la suite du précédent, est de confier la compétence aux tribunaux de grande instance mentionnés à l’article D. 211-6-1 du code de l’organisation judiciaire. Comme ce sont eux qui statuent en matière de propriété intellectuelle, notamment, ils ont davantage l’habitude de traiter de tels sujets. Ainsi, les décisions seraient plus fondées.

Mme Laetitia Avia, rapporteure. Défavorable. Ces tribunaux ne sont pas ceux qui sont compétents en matière de liberté d’expression.

La Commission rejette l’amendement.

Puis elle adopte l’article 2 modifié.

Article 3 (art. 6-3 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Obligations de moyens en matière d’information, de transparence et de coopération avec les autorités publiques compétentes

La Commission adopte l’amendement de cohérence CL58 de la rapporteure.

Elle examine l’amendement CL42 de M. Philippe Latombe.

M. Philippe Latombe. L’article 3 dispose que les plateformes doivent mettre à la disposition des utilisateurs une information facilement accessible s’agissant notamment des modalités de modération – à travers les conditions générales d’utilisation (CGU). L’objet de l’amendement CL42 est de permettre aux utilisateurs, face à des CGU qui ne seraient pas assez claires, d’obtenir des explications en en appelant à l’autorité administrative visée au chapitre III, en l’occurrence le CSA. L’idée est de rendre les choses beaucoup plus claires en cas de difficultés d’interprétation. On sait que les plateformes ont tendance à proposer des CGU qui ne sont pas assez claires, voire à tout faire pour qu’elles ne le soient pas du tout. Il s’agit donc, à travers cet amendement, de renforcer le rôle du CSA en permettant à celui-ci de se prononcer si un utilisateur considère que les CGU ne donnent pas une information claire.

Mme Laetitia Avia, rapporteure. Toute personne peut informer et saisir le CSA. Si nous adoptions votre amendement, qui permet la saisine uniquement sur le fondement de cet alinéa, cela créerait un a contrario pour le reste des dispositions. Demande de retrait ; à défaut, avis défavorable.

M. Philippe Latombe. Je retire mon amendement, mais vous devriez garder l’idée en tête, car il faut se ranger du côté de l’utilisateur. On l’a vu avec les banques et les assurances, notamment, il a fallu confier à des organismes de régulation le soin de viser les notices d’information, car elles n’étaient pas très claires. Les établissements ont tendance à aller aussi loin qu’ils le peuvent. Quand on leur dit qu’ils doivent faire simple et clair, ils s’arrangent pour que ce soit simple et clair de leur point de vue, mais il n’en va pas toujours de même pour l’utilisateur. Il faut donc ouvrir la possibilité d’obtenir l’avis du CSA, de manière à ce que l’interprétation des CGU soit très claire ou, à tout le moins, que le Conseil les vise. Je retire mon amendement dans l’idée de le retravailler pour éviter l’a contrario, mais il faut que nous ayons un dispositif permettant de clarifier les choses pour les utilisateurs.

L’amendement est retiré.

La Commission est saisie de l’amendement CL24 de M. M’Jid El Guerrab.

M. Paul Molac. Cet amendement vise à donner une périodicité – en l’occurrence tous les trois ans – à la réalisation d’un compte rendu des actions menées par les opérateurs de plateformes en ligne en matière de lutte contre la haine sur internet. L’objectif poursuivi est de contrôler et d’évaluer étroitement le dispositif instauré par l’article.

Mme Laetitia Avia, rapporteure. Le choix a été fait de ne pas préciser de délai et, ce faisant, de laisser de la flexibilité au CSA pour déterminer la périodicité de ces informations. Par ailleurs, trois ans, cela me semble extrêmement long, notamment dans le domaine du numérique.

La Commission rejette l’amendement.

Elle en vient à l’amendement CL30 de M. Ugo Bernalicis.

Mme Danièle Obono. Nous proposons de supprimer, à l’alinéa 6, la référence au respect du secret des affaires, qui est souvent un alibi pour ne pas mener jusqu’au bout des procédures.

Mme Laetitia Avia, rapporteure. La référence à la notion de secret des affaires est nécessaire. Il s’agit de faire obstacle, non pas au contrôle du CSA, mais à la publicité des informations lorsque celle-ci pourrait être préjudiciable.

M. Ugo Bernalicis. D’un point de vue purement légistique, il ne sert à rien de rappeler dans une loi qu’on va en respecter une autre. Je ne vois donc pas quelle plus-value apporte le fait de dire que les dispositions de cet article s’appliqueront dans le respect de la loi relative à la protection du secret des affaires, à moins de vouloir être bavard, ou encore d’insister politiquement sur le fait que le secret des affaires est quelque chose d’important, voire de déterminant.

Pour nous, le secret des affaires est quelque chose qui peut s’entendre, certes, mais nous ne plaçons pas la frontière exactement au même endroit. C’est d’ailleurs la raison pour laquelle nous avons déposé, dans le cadre de l’ordre du jour réservé au groupe de La France insoumise, une proposition de loi relative aux lanceurs d’alerte, dans laquelle nous ne faisant pas autant référence que cela au secret des affaires.

La Commission rejette l’amendement.

Elle est saisie de l’amendement CL8 de Mme Marie-France Lorho.

Mme Marie-France Lorho. La mention d’une « utilisation civique et responsable » à l’occasion de l’inscription d’un mineur à l’un des services concernés donne une connotation moraliste. La loi française est, non pas un outil pédagogique, mais un cadre définissant la légalité des actes. Il revient aux dépositaires de l’autorité parentale de bénéficier des indications concernant les conditions d’utilisation du service impliqué. Les utilisateurs d’une plateforme doivent pouvoir prendre connaissance des conditions d’utilisation relatives à la communauté et avoir conscience des informations mises à la disposition de celle-ci pour en faire l’usage qu’ils souhaitent, en toute connaissance de cause. Il y va du respect de la liberté d’expression, qu’aspire à défendre l’amendement CL8.

Mme Laetitia Avia, rapporteure. Je ne partage pas votre point de vue sur cette disposition qui a été introduite sur l’initiative de la commission des Affaires culturelles et de l’éducation en première lecture. Elle revêt vraiment une dimension éducative et participe à la mission générale de prévention de la haine en ligne, à laquelle doivent contribuer les grandes plateformes. Le libre arbitre des parents et des mineurs n’est pas remis en cause, dans la mesure où il s’agit seulement d’une information et d’une sensibilisation.

La Commission rejette l’amendement.

Elle examine les amendements identiques CL59 de la rapporteure, CL34 de Mme Danièle Obono, CL37 de M. Philippe Latombe et CL44 de Mme Caroline Abadie.

Mme Laetitia Avia, rapporteure. J’ai évoqué dans mon propos introductif cette disposition, qui a été introduite par le Sénat à travers un amendement de M. Retailleau. J’ai entendu les commentaires des sénateurs concernant la protection de la liberté d’expression et la ligne de crête que nous essayons tous de trouver. Or le Sénat a adopté une disposition qui est, à mon sens, parfaitement attentatoire à la liberté d’expression, puisqu’elle permet de supprimer des comptes d’utilisateurs, et non pas seulement des contenus individuels, sur le fondement non d’infractions constituées mais d’un « faisceau d’indices » reposant sur le signalement de ces comptes. Concrètement, cela revient à donner tout pouvoir à ceux qui se livrent à des raids numériques pour nuire à certains utilisateurs et obtenir la fermeture de leur compte, alors que nous avons, pour notre part, essayé de sanctionner ceux qui signalent abusivement, avec l’objectif d’anéantir le phénomène des raids numériques.

Cette disposition explique pourquoi, dans mon propos introductif, je me suis interrogée sur ce qu’était in fine la position du Sénat : son adoption révèle une véritable contradiction dans l’approche de la haine en ligne. Je vous propose donc de la supprimer pour redonner davantage d’équilibre et de cohérence à notre texte.

Mme Danièle Obono. L’amendement CL34 vise, lui aussi, à supprimer l’alinéa 11. Nous nous appuyons notamment sur les critiques d’organisations telles que la Quadrature du Net, qui estiment que cette nouvelle disposition donne des pouvoirs supplémentaires et disproportionnés aux plateformes en leur demandant de déterminer seules le faisceau d’indices indiquant « une contravention sérieuse aux infractions » visées. En outre, cela revient, de manière maladroite, à considérer pour acquise la nécessité d’avoir un compte pour s’exprimer sur une plateforme, ce qui n’est pas le cas. Il convient donc de supprimer cette disposition.

M. Philippe Latombe. J’ai envie de dire que, sur ce coup-là, les sénateurs se sont complètement loupés ! Clairement, il n’y a pas de logique dans ce qu’ils ont fait. Toutefois, je ne suis pas d’accord avec vous sur un point, madame la rapporteure. Vous avez dit, dans votre propos liminaire, que la démarche du Sénat était purement politique. Je ne pense pas que ce soit le cas en ce qui concerne l’article 1er. Les sénateurs avaient vraiment envie de changer les choses, et je partageais en partie leur position. L’alinéa 11 de cet article, en revanche, résulte très clairement d’un coup politique de M. Bruno Retailleau. Effectivement, la disposition est totalement attentatoire aux libertés et, en plus d’être liberticide, elle va favoriser les raids numériques. Elle sera donc tout à fait contre-productive. C’est au juge judiciaire qu’il doit revenir de prendre une telle décision. Ce sont des motivations politiques qui ont conduit un certain nombre de sénateurs à adopter cette disposition ; il convient de la supprimer immédiatement, étant entendu que, de toute façon, elle n’est pas conforme à la Constitution.

Mme Caroline Abadie. Comme cela vient d’être dit, ce que nous proposent les sénateurs est incohérent. C’est à se demander comment la disposition est parvenue jusqu’ici. Alors que, tout au long des débats sur le texte, le Sénat s’est prévalu de la liberté d’expression, il a interdit à quelqu’un de détenir un compte au seul motif que de nombreuses notifications auraient été reçues, ce qui constituerait un « faisceau d’indices » – sachant, par ailleurs, qu’il n’y a plus d’infraction, puisque les sénateurs l’ont supprimée à l’article 1er.

Nous souhaitons, nous aussi, supprimer l’alinéa 11 par l’amendement CL44. Nous aussi nous sommes soucieux de l’équilibre du texte. Nous avions ajouté de nombreuses dispositions en première lecture concernant la notification, notamment des procédures plus strictes, la possibilité d’un recours, de l’information, mais aussi la sanction des abus. Or il n’y a plus aucune contrepartie à la suppression des comptes.

M. Frédéric Reiss. L’alinéa 11 résulte effectivement de l’adoption par le Sénat d’un amendement prévoyant que les opérateurs doivent mettre en place les moyens nécessaires pour supprimer les comptes ayant fait l’objet de notifications par plusieurs personnes. J’entends les arguments qui viennent d’être développés par tous nos collègues. Il y a là, manifestement, une atteinte à la liberté d’expression, c’est tout à fait indéniable. Je ne sais pas quelle était l’intention exacte du Sénat. Peut-être la disposition visait-elle à lutter contre les faux comptes, pilotés notamment de l’étranger ?

La Commission adopte les amendements.

Elle est saisie de l’amendement CL25 de M. Paul Molac.

M. Paul Molac. Afin de ne pas porter atteinte de manière abusive à la liberté d’expression, il est indispensable d’exiger que les opérateurs fournissent des études d’impact. Cela permettra de mieux encadrer l’utilisation des dispositifs d’intelligence artificielle, dans le respect des impératifs de l’État de droit.

Mme Laetitia Avia, rapporteure. Il est déjà prévu à l’article 2 que les opérateurs doivent mettre en place les procédures et moyens humains et, le cas échéant, technologiques proportionnés pour satisfaire à l’obligation de retrait en vingt-quatre heures et prévenir les risques de retrait injustifié, notamment du fait des dispositifs d’intelligence artificielle. L’amendement me paraît donc satisfait, et j’en demande le retrait ; à défaut, avis défavorable.

La Commission rejette l’amendement.

Elle en arrive à l’amendement CL26 de Mme Frédérique Dumas.

M. Paul Molac. Si l’on veut voir progresser l’« éthique digitale » s’agissant du comportement des plateformes, il est fondamental de permettre le renforcement de toute forme d’automodération viable, comme cela est possible sur de nombreux forums et plateformes à taille humaine qui peuplent le web depuis ses débuts, et qui reposent sur une modération réalisée directement par la communauté, impliquée et généralement bénévole. La présente proposition vise à permettre aux utilisateurs de plateformes mondiales de migrer vers d’autres services équivalents mais décentralisés, tout en continuant d’échanger avec les utilisateurs d’autres plateformes. C’est donc bien une liberté supplémentaire qui est proposée. Il s’agit de redonner sa chance à chacun. L’objectif serait atteint en obligeant les plateformes géantes qui hiérarchisent les contenus à des fins commerciales, telles que déjà définies en droit français, à devenir interopérables.

Mme Laetitia Avia, rapporteure. Nous aurons de nouveau un débat sur la question à l’article 4, puisque le Sénat y a introduit des dispositions relatives à l’interopérabilité. Je soutiens pleinement la position exprimée tout à l’heure par notre collègue George Pau‑Langevin, choquée par la présence dans le texte de telles dispositions qui reviennent à dire aux victimes, dans un texte visant à lutter contre la haine en ligne, que la solution consiste pour elles à changer de lieu.

Je ne suis pas opposée à l’interopérabilité, mais ce n’est pas l’objet de ce texte. Je précise d’ailleurs, monsieur Latombe, que je ne souhaite pas nécessairement renvoyer le traitement de la question à l’échelon européen. D’autres textes arriveront prochainement, dans lesquels nous aborderons de manière globale la régulation du numérique en France ; la question de l’interopérabilité pourra être évoquée dans ce cadre. Le faire ici, dans une proposition de loi relative à la haine en ligne, me semble être un mauvais message envoyé aux victimes. C’est pourquoi je reste défavorable à l’intégration de ces dispositions dans le texte.

M. Philippe Latombe. Madame la rapporteure, vous ne faites que confirmer ce que je disais dans mon propos liminaire, même si, à ce moment-là, vous faisiez non de la tête. À travers votre amendement CL66, vous voulez supprimer l’alinéa 15 de l’article 4, qui traite de l’interopérabilité.

Nous avons déjà débattu de la question en séance, lors de la première lecture. Vous nous aviez dit alors, comme vous venez de le faire, que ce n’était pas l’objet du texte, qu’il fallait traiter du problème ailleurs. Les sénateurs, quant à eux, nous disent que cela peut être l’objet de cette proposition de loi, qu’il faut peut-être que nous l’examinions. Je note à ce propos que le Sénat a jugé qu’il était possible d’inscrire la disposition dans le texte, ce qui nous permet d’en débattre, alors que vous nous aviez dit, en première lecture, qu’elle était à la limite de l’irrecevabilité – il faudra, un jour ou l’autre, que nous nous mettions d’accord avec le Sénat sur ce qui est recevable et ce qui ne l’est pas.

Quoi qu’il en soit, les sénateurs ont inscrit dans le texte que le CSA « encourage » l’interopérabilité. C’est beaucoup plus doux que ce que nous proposions en première lecture et que le dispositif de l’amendement CL26 de Mme Dumas, qui introduit une obligation. Peut-être aussi faut-il aborder la question non pas à l’article 3 mais à l’article 4, comme l’ont fait les sénateurs. Il n’en demeure pas moins que nous devons commencer à faire accepter l’interopérabilité aux plateformes. Pour ce faire, laissons à tout le moins au CSA la possibilité d’encourager l’interopérabilité. Ce n’est qu’un des moyens d’y parvenir, de même que les autres dispositions du texte ne sont pas – vous le disiez dans votre propos liminaire – l’alpha et l’oméga de la lutte contre la haine sur internet.

Mme Obono a parfaitement raison : ce n’est pas pour rien que Mastodon a vu le jour. Ce réseau social a été créé par des personnes LGBT qui étaient moquées, voire opprimées sur les réseaux traditionnels tels que Twitter et Facebook. Promouvoir l’interopérabilité, c’est revenir à ce qui était l’essence d’internet. Il faut absolument que nous l’intégrions dans le texte – peut-être pas à l’article 3, en la rendant obligatoire, mais on doit au minimum laisser au CSA la possibilité de la favoriser doucement, tranquillement. Rien ne vous empêche, ensuite, de renvoyer à un texte européen. S’il vous plaît, n’abandonnez pas l’interopérabilité en rase campagne au motif que ce texte n’est pas adéquat pour aborder la question et qu’il faut attendre que l’Union européenne se prononce. À ce compte-là, on aurait pu vous dire à vous aussi, à propos de cette proposition de loi, qu’il fallait attendre un texte européen.

Mme Danièle Obono. Je rejoins M. Latombe. J’aimerais vraiment que nous avancions dans ce débat, mais aussi que nous évitions les contresens. Pour cela, peut-être convient-il d’éclairer certains de nos collègues quant à l’origine des pratiques dites de safe space. Celles-ci ne sont pas apparues avec internet ; elles sont l’un des acquis, dans la vie réelle, des luttes et des mouvements féministes, LGBT ou encore antiracistes. Elles participent à la libération des personnes qui sont victimes au quotidien de violences et de discriminations. Elles sont aussi vieilles que l’autoémancipation. Les pratiques de safe space sont également des armes. Il s’agit, non pas de dire aux personnes concernées ce qu’elles doivent faire ou ne pas faire, mais de les rendre autonomes, de leur permettre de choisir ce qu’elles veulent faire et comment elles veulent le faire. Je vous invite donc à vous renseigner un peu pour savoir de quoi il est question ici.

Je suis choquée de l’insulte qui est faite à ces personnes, qui sont encore aujourd’hui des victimes ; elles ont développé ces pratiques et veulent les utiliser. Il faut les aider à être plus autonomes et à reprendre un peu le contrôle – pas totalement, bien sûr, car ce n’est pas l’interopérabilité qui va renverser complètement le monopole des plateformes et de l’économie d’internet, mais elle peut leur donner un petit levier. Personne n’a jamais prétendu que cela allait tout révolutionner – nous n’avons pas cette prétention –, mais cela permet d’enfoncer un coin, y compris en ce qui concerne le fonctionnement même d’internet, dont nous sommes un certain nombre à vous parler depuis le début.

Le système repose sur la concentration et le monopole. Du fait également de l’attractivité de ces espaces, les gens sont obligés d’y rester et, ainsi, de subir encore et encore, y compris des agressions. À travers l’interopérabilité, il y va donc aussi de la compréhension du fonctionnement même d’internet et des mécanismes qui produisent et reproduisent sur internet des situations extrêmement problématiques. C’est la raison pour laquelle nous devons introduire ce mécanisme.

M. Paul Molac. Nous avons là un véritable point de désaccord, madame la rapporteure : pour vous, cette proposition est contradictoire par rapport à l’esprit de votre texte, alors que, pour nous, elle est complémentaire et permet de donner une arme supplémentaire aux personnes qui sont discriminées et insultées. Nos visions divergent donc ; tant pis ! Nous allons trancher le différend.

La Commission rejette l’amendement.

Puis elle adopte l’article 3 modifié.

Article 3 bis (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Triplement du montant de la peine d’amende encourue en cas de non-coopération avec les autorités publiques

La Commission est saisie de l’amendement CL60 de la rapporteure.

Mme Laetitia Avia, rapporteure. L’amendement CL60 vise à revenir sur une modification apportée par le Sénat, qui inclut les éditeurs dans le champ du texte. La proposition de loi vise exclusivement un certain nombre d’hébergeurs ; il n’y a pas lieu d’y inclure les éditeurs.

La Commission adopte l’amendement.

Puis elle adopte l’article 3 bis modifié.

Chapitre III
Rôle du Conseil supérieur de l’audiovisuel
dans la lutte contre les contenus haineux en ligne

Article 4 (art. 17-3 [nouveau], 19 et 42-7 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication et 6-1 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Rôle du Conseil supérieur de l’audiovisuel dans la lutte contre les contenus haineux sur internet

La Commission est saisie de l’amendement de suppression, CL6, de Mme Emmanuelle Ménard.

Mme Emmanuelle Ménard. L’article 4 définit un peu plus précisément le rôle du CSA dans le contrôle des propos haineux sur internet. Dénommé « gendarme de l’audiovisuel », il verra donc ses missions renforcées. Il me semble pourtant qu’il devrait être vigilant à ne pas dépasser les limites que sa compétence lui donne. Or la proposition de loi va lui permettre d’élargir ses missions au-delà de la radio et de la télévision puisqu’il contrôlera les plateformes internet.

Le CSA n’est pourtant pas exempt de critiques. Je vous rappelle, à titre d’exemple, que le Conseil d’État vient de le condamner, en novembre dernier, à indemniser la chaîne C8 à hauteur de 1,1 million d’euros, estimant que la sanction qu’il avait infligée à la chaîne était disproportionnée. Donner toujours plus de pouvoirs et de compétences au CSA, instance qui, selon les points de vue, apparaît comme plus ou moins indépendante, me semble superflu, pour ne pas dire non souhaitable.

Mme Laetitia Avia, rapporteure. Avis défavorable, puisque vous proposez de supprimer ce qui constitue un élément clé du dispositif de régulation administrative des obligations de moyens à la charge des plateformes que nous sommes en train de construire.

La Commission rejette l’amendement.

Elle adopte l’amendement de cohérence CL61 de la rapporteure.

La Commission en vient à l’amendement CL32 de M. Jean-Luc Mélenchon.

M. Ugo Bernalicis. Il s’agit de rappeler que les poursuites doivent redevenir l’apanage de l’autorité judiciaire. Certes, celle-ci n’a pas la capacité de traiter une masse importante de contentieux faute de moyens. Toutefois, il ne me semble pas judicieux de confier des pouvoirs judiciaires à une autorité administrative dite indépendante, dont le président est nommé par le Président de la République. C’est pourquoi nous proposons qu’en cas de manquement par un opérateur, le CSA n’apportant pas toutes les garanties, l’autorité judiciaire peut engager une procédure de sanction.

Mme Laetitia Avia, rapporteure. L’architecture du dispositif est la suivante : la première partie porte sur un mécanisme qui est sous l’office du juge ; la seconde, sur les obligations de moyens, qui sont des éléments de régulation administrative placés sous le contrôle du CSA, dont les décisions sont, comme toutes les décisions d’ordre administratif, susceptibles d’être contestées devant le Conseil d’État. Avis défavorable.

M. Ugo Bernalicis. Vous avez raison dans votre propre logique, mais j’ai raison dans la mienne. Vous voulez placer le curseur et les obligations des uns et des autres sur le plan uniquement administratif ; nous disons que les obligations de moyens n’ont pas à être mises dans les mains d’une autorité extrajudiciaire, en l’espèce le CSA. La réalité, c’est que cette instance n’a pas les moyens aujourd’hui – et elle ne les aura pas davantage demain – de remplir cette mission. Les lois s’incarnent dans des pratiques, dans des administrations, des moyens qui sont mis à leur disposition. Ce n’est pas le cas ici.

L’autorité judiciaire n’a pas beaucoup plus de moyens que le CSA, me rétorquerez‑vous ; toutes choses étant égales par ailleurs, autant confier cette mission au CSA. Au lieu de cela, vous utilisez une argumentation qui n’emporte pas mon adhésion. En la matière, mieux vaudrait une caractérisation judiciaire plutôt qu’administrative.

La Commission rejette l’amendement.

Elle examine l’amendement CL75 de la rapporteure.

Mme Laetitia Avia, rapporteure. Cet amendement réécrit une disposition que nous avions votée en première lecture, que le Sénat a maintenue, mais qui nécessite d’être davantage explicitée. Il s’agit des éléments qui peuvent être pris en compte par le CSA dans son pouvoir de sanction de la sur-censure d’une plateforme qui aurait un comportement de retrait excessif.

Je vous propose une rédaction plus précise aux termes de laquelle le CSA « peut prendre en compte l’application disproportionnée par l’opérateur des procédures et des moyens humains et, le cas échéant, technologiques (…) conduisant à un retrait excessif des contenus ». Il s’agit donc de ne plus se fonder sur le comportement, comme le prévoyait la précédente rédaction, mais sur l’application disproportionnée des procédures et moyens.

M. Ugo Bernalicis. J’espère que vous donnerez des moyens importants au CSA dans le prochain projet de loi de finances, puisqu’il faudra qu’il évalue s’il n’y a pas suffisamment de poursuites ou au contraire s’il y en a trop !

Le texte ne précise pas ce que l’on entend par trop ou pas assez de poursuites. Si l’on utilise un algorithme qui censure large pour éviter des contenus haineux, ce ne sera pas bon, mais si on en utilise un qui ne censure pas assez, ce ne sera pas bon non plus. Comme vous vous apercevez que cette future loi ne sera pas assez opérante, vous essayez d’introduire des dispositifs en amont et en aval, en espérant attraper le contenu haineux. Mais vous n’échappez pas à la règle selon laquelle il faut des moyens pour qu’une loi soit appliquée. Or que vous vous reposiez sur les plateformes, qui déploient des moyens algorithmiques, ou que vous donniez des pouvoirs au CSA, cela ne permettra pas d’atteindre l’objectif – mais pas plus si vous les donnez à l’autorité judiciaire puisque celle-ci n’a pas que cela à faire. Je ne suis donc pas sûr que ce genre de loi fasse avancer le schmilblick ; à défaut, cela fera avancer le contentieux. Cela donnera beaucoup de travail à des gens, mais est-ce bien le but ?

M. Philippe Latombe. Comme vient de l’indiquer M. Bernalicis, si les plateformes censurent trop cela ne sera pas bon, mais si elles ne censurent pas assez, cela ne marchera pas non plus. De toute façon, il faudra, à un moment ou à un autre, donner au CSA des moyens humains et lui permettre d’avoir accès aux boîtes noires des plateformes. Comment assurer à ces plateformes que le secret des affaires sera bien respecté, sachant que les boîtes noires sont le cœur du modèle économique ? Les ingénieurs du Massachusetts Institute of technology (MIT) ne sont même pas encore au niveau de ce qui existe, comment le CSA pourrait-il avoir des agents compétents ? S’il s’agit uniquement de faire du traitement statistique, il y a eu 3 millions de signalements et 500 000 suppressions : est-ce proportionné ou non ?

Une fois de plus, à cause de cette formule « le cas échéant, technologiques », on se prive de la possibilité d’avoir systématiquement un être humain qui puisse expliquer pourquoi, à l’aide de l’algorithme, il a pris telle décision. Cela risque de créer un problème pour vérifier l’application proportionnée ou disproportionnée de votre texte.

Mme Laure de La Raudière. L’article 4 est le plus important de ce texte de loi, le plus novateur, celui qui définit le CSA comme le régulateur des plateformes internet et des réseaux sociaux. En revanche, il pose un problème à cause de l’article 1er. Si les plateformes ne sanctionnent pas assez, elles seront sous le coup de l’article 1er, et si elles sanctionnent de trop, elles seront sous le coup de l’article 4 ! Il est peu vraisemblable qu’elles prendront tout de suite la sanction adéquate en matière de liberté d’expression, sachant que celle-ci peut faire l’objet de diverses interprétations. Je le dis depuis le début de la discussion, ces deux articles déséquilibrent le texte ; c’est l’article 4 que je soutiens.

Mme Laetitia Avia, rapporteure. L’article 1er porte sur la casuistique, c’est-à-dire sur les contenus, tandis que l’article 4 porte sur le systémique et le comportemental.

La Commission adopte l’amendement.

Elle examine l’amendement CL11 de Mme Marie-France Lorho.

Mme Marie-France Lorho. J’ai déjà soulevé ici même mon objection quant au quantum de la peine dont la nature juridique me semble particulièrement contestable. Je m’étonne du taux imposé à la sanction, qui n’est pas corrélé à un quelconque élément factuel inhérent à la plateforme ou à la conjoncture. La fixation d’un plafond de sanctions financières proportionnées au chiffre d’affaires n’est pas rationnellement liée à l’infraction poursuivie.

Par ailleurs, il conviendrait de faire preuve d’une attitude prudente quant à ce genre de sanction, le Conseil constitutionnel ayant déjà censuré plusieurs dispositifs où le plafond était calculé en pourcentage du chiffre d’affaires. Il ne faut pas négliger les possibilités de disproportion entre l’infraction et la peine encourue. Ce dispositif comportant des risques juridiques, je propose de le supprimer.

Mme Laetitia Avia, rapporteure. Avis défavorable, la disposition prévue à l’alinéa 9 étant au cœur de la régulation administrative.

La Commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CL62 de la rapporteure.

La Commission est saisie de l’amendement CL5 de Mme Emmanuelle Ménard.

Mme Emmanuelle Ménard. L’article 4 prévoit que la sanction pécuniaire imposée aux plateformes pourrait s’élever à 4 % de leur chiffre d’affaires annuel mondial. Je suis opposée à cette mesure qui me semble totalement aberrante et disproportionnée. Pour une entreprise comme Facebook, cela représente 2 ou 3 milliards d’euros. En Allemagne, l’amende peut atteindre 50 millions d’euros, ce qui est déjà conséquent. Il faut proportion garder : l’excès tue la crédibilité du propos. Je vous rappelle que la proportionnalité est le fondement même de notre justice. Or il est complètement bafoué ici.

Mme Laetitia Avia, rapporteure. Ni le Conseil d’État, ni la Commission européenne n’ont émis de réserve quant à cette sanction qui peut aller jusqu’à 4 % du chiffre d’affaires. Il s’agit d’un système gradué, qui commence par une mise en demeure, la sanction ne pouvant intervenir qu’en cas de manquement à cette mise en demeure. J’ajoute qu’il est expressément prévu dans le texte que le montant de la sanction devra prendre en compte la gravité des manquements commis et leur caractère réitéré.

Je le répète, ce texte n’a pas pour objectif de sanctionner financièrement – il faudrait être face à un cas très grave pour prononcer une sanction à hauteur de 4 % du chiffre d’affaires –, mais bien de faire en sorte que les plateformes se dotent des moyens de lutter contre la haine sur internet, sous le contrôle du CSA.

La Commission rejette l’amendement.

Elle adopte l’amendement rédactionnel CL63 de la rapporteure.

La Commission examine l’amendement CL38 de M. Philippe Latombe.

M. Philippe Latombe. Je l’ai dit dans mon propos liminaire, je crains que votre texte ne génère des barrières à l’entrée. En donnant aux plateformes le pouvoir à la fois de publier l’information et de la censurer, en tout cas de la modérer, vous leur donnez aussi celui d’empêcher l’émergence de nouvelles plateformes qui n’auront pas les moyens d’effectuer cette modération. Je propose donc de laisser la possibilité à l’utilisateur d’utiliser soit le système de modération de la plateforme, soit celui proposé par un tiers auquel incomberait la totalité des obligations de la plateforme.

Au même titre que l’on peut avoir le choix d’un antivirus ou d’un virtual private network (VPN), je propose de laisser la possibilité à l’utilisateur d’utiliser le système de modération de son choix, qui aurait les mêmes obligations et le même rôle que Facebook ou Twitter, ce qui éviterait que les grandes plateformes soient en situation de monopole en matière de modération.

Mme Laetitia Avia, rapporteure. Je ne vois pas comment vous luttez contre les barrières à l’entrée de cette manière. Qui paiera le système externe de modération du nouvel opérateur ? Ce nouvel opérateur aura son système de modération en interne. S’il doit faire appel à une société extérieure, il faudra qu’il paye la prestation. En fait, vous renforcez les barrières.

Par ailleurs, le texte comporte déjà des dispositions qui répondent à votre préoccupation, s’agissant notamment du devoir de coopération des plateformes. Avis défavorable.

M. Philippe Latombe. Je n’ai pas parlé de la coopération des plateformes. Ce que je propose, ce sont des systèmes de modération extérieurs aux plateformes, choisis par l’utilisateur.

Mme Caroline Abadie. Qui paye ?

M. Philippe Latombe. Des associations ont déjà créé des systèmes de modération, comme cette start-up du sud de la France, dont la rémunération est assurée par de la publicité. Cela permet un système de modération extérieur aux plateformes, cela oblige les plateformes à communiquer dans des standards qui permettent à ces nouveaux entrants d’exister, et cela évite une situation de monopole de Twitter et de Facebook.

Mme Laetitia Avia, rapporteure. Cela existe déjà !

La Commission rejette l’amendement.

Elle examine l’amendement CL17 de Mme Emmanuelle Ménard.

Mme Emmanuelle Ménard. Je propose de supprimer, à l’alinéa 14, le mot « proportionné », à défaut de supprimer la totalité de l’article 4.

Je le répète, c’est au juge et non au CSA, aux plateformes et aux opérateurs privés de décider si un contenu est licite ou non, haineux ou non. Toutes les compétences données aux plateformes ou au CSA pour remplacer le pouvoir judiciaire me semblent totalement hors de propos.

Un même propos peut être considéré par Twitter comme étant du harcèlement alors qu’il provoquera les excuses de Facebook. Comment voulez-vous donner cette prérogative à un opérateur privé ou au CSA ? Ce n’est pas le rôle du CSA qui n’est pas le gendarme autoproclamé et ne doit pas, ni aujourd’hui ni demain, être le juge en matière de liberté d’expression. C’est le juge judiciaire qui doit juger de la conformité ou non à la loi d’un propos. Tout le reste me paraît superflu. Bref, je suis fondamentalement opposé à votre texte.

Mme la présidente Yaël Braun-Pivet. C’est assez clair.

Mme Laetitia Avia, rapporteure. Le CSA ne s’intéresse pas au contenu. Il n’est pas non plus le régulateur des contenus ; il est le régulateur des mécanismes de modération des contenus. Il s’intéresse au nombre de modérateurs, aux informations mises à disposition, aux informations transmises aux autorités judiciaires, mais pas à ce que telle personne a écrit tel jour. Ce n’est pas le rôle qui lui a été fixé dans le texte, et ce ne sera pas non plus son rôle demain. Avis défavorable.

La Commission rejette l’amendement.

Elle adopte successivement l’amendement de précision CL64 et l’amendement rédactionnel CL65 de la rapporteure.

La Commission en vient à l’amendement CL66 de la rapporteure.

Mme Laetitia Avia, rapporteure. Il s’agit de supprimer les ajouts du Sénat en matière d’interopérabilité.

M. Philippe Latombe. L’adoption de cet amendement ferait tomber mon amendement CL39. Pour ma part, je proposais de préciser que les plateformes ne peuvent pas modifier unilatéralement les standards d’interopérabilité, ce qui permettrait d’éviter les sauts technologiques, et de favoriser le libre choix ou la migration. C’est ce qu’avait proposé Mme Frédérique Dumas à l’article 3.

Je pense que vous faites une erreur en n’utilisant pas l’outil de l’interopérabilité dans ce texte, surtout que les sénateurs avaient prévu d’y aller doucement puisqu’ils proposaient que le CSA encourage l’interopérabilité, non qu’il l’impose. Je le répète, Mastodon existe parce que des gens qui ont été harcelés sur les réseaux sociaux ont créé une sorte de bulle dans laquelle ils pouvaient continuer à discuter entre eux, avec de l’automodération. C’est là l’essence même des réseaux sociaux.

Je trouve particulièrement choquant que vous répétiez, comme vous l’avez fait en première lecture, que l’interopérabilité n’est pas le sujet du texte et qu’il sera abordé plus tard. Les sénateurs ne sont pas d’accord avec vous puisqu’ils l’ont introduit dans le texte. L’exposé sommaire de votre amendement CL66 indique qu’« un tel ajout ne semble pas opportun, s’agissant d’une question qui mérite d’être traitée de façon plus globale et à l’échelon européen ». Votre texte même aurait mérité d’être traité de façon plus globale et à l’échelon européen !

Mme Laetitia Avia, rapporteure. C’est ce que j’espère aussi.

M. Ugo Bernalicis. L’interopérabilité voulue par les sénateurs est tranquille, si je puis dire. Vous avez beau vouloir réprimer les contenus haineux, les moyens mis en œuvre ne seront jamais suffisants, qu’il s’agisse de ceux des plateformes ou du CSA. Ce dernier sera bien obligé d’aller voir dans le détail si tel ou tel contenu a été censuré ou non. S’il ne fait qu’en chiffrer le nombre à la louche et qu’il dit au doigt mouillé que ce chiffre semble correct, ce sera aussi utile et efficace que de ne rien faire. On voit bien que la meilleure défense, c’est celle qui permet aux victimes de s’organiser collectivement pour se mettre à l’abri dans des sas de sécurité en attendant que l’algorithme du gros réseau social soit installé.

Tout cela était complémentaire avec votre dispositif. Vous n’en voulez pas, quand bien même il est rédigé de façon à être plus incitatif que coercitif. Dès lors, je me dis que votre objectif est davantage de communiquer sur la sévérité de votre lutte contre les contenus haineux, qui se fracassera contre la réalité et l’impossibilité matérielle de la mener. Dans deux ou trois ans, une mission d’information sera créée pour comprendre pourquoi il existe toujours des contenus haineux alors que nous avons voté une loi. C’est dommage, et je ne sais pas pourquoi on perd notre temps à faire tout cela.

La Commission adopte l’amendement.

En conséquence, l’amendement CL39 de M. Philippe Latombe tombe.

La Commission est saisie de l’amendement CL46 de Mme Caroline Abadie.

Mme Caroline Abadie. Les contenus illicites, dont les contenus haineux, sont souvent davantage rediffusés et beaucoup plus rapidement que les autres. En première lecture, citant en exemple la vidéo de l’attentat de Christchurch, nous avions proposé à l’article 2 une disposition qui avait été adoptée. Le Sénat l’ayant supprimée, nous souhaitons la réintroduire à l’article 4 en confiant cette fois au CSA le soin d’encourager les plateformes à mettre en œuvre des moyens empêchant la rediffusion ou l’amplification des contenus manifestement haineux.

Il s’agit vraiment ici d’une obligation de moyens et d’un encouragement que le CSA pourrait adresser aux plateformes. Nous essayons de maintenir un équilibre entre la liberté d’expression et la lutte contre les contenus haineux sur internet, en conformité avec l’interdiction d’imposer aux opérateurs une obligation générale de surveillance des informations qu’ils transmettent ou stockent.

Mme Laetitia Avia, rapporteure. Il s’agit là d’une disposition assez sensible. Une obligation de moyens avait été votée en première lecture, selon laquelle les plateformes devaient mettre en œuvre les moyens appropriés pour empêcher la rediffusion de contenus. On parle ici de ces vidéos qui peuvent être dupliquées à une échelle massive, comme celle de l’attentat de Christchurch que vous avez évoquée. Récemment, l’affaire dite de Noisiel a donné lieu à des centaines de milliers de copies d’une vidéo qui devait disparaître très rapidement des réseaux sociaux mais qui était à chaque fois dupliquée.

Je dois reconnaître qu’on n’a pas encore trouvé aujourd’hui la façon précise de traiter cette question. La Commission européenne est assez dubitative vis-à-vis de cette disposition telle qu’elle a été votée par l’Assemblée nationale. Comme il s’agissait de mettre une empreinte sur ces contenus pour surveiller leur réapparition, le risque était d’engendrer une obligation de surveillance généralisée des contenus.

La proposition que vous faites s’approche de ce qui pourrait être adopté dans la mesure où on passe de l’obligation de moyens à l’encouragement puisqu’il s’agit pour le CSA, dans le cadre de ses prérogatives, d’encourager les plateformes à développer des dispositifs. Néanmoins, la rédaction nécessite d’être retravaillée d’ici à l’examen du texte en séance publique afin d’écarter tout risque d’inconventionnalité. Je vous propose donc de retirer votre amendement.

L’amendement est retiré.

La Commission est saisie de l’amendement CL67 de la rapporteure.

Mme Laetitia Avia, rapporteure. En première lecture, nous avions, à l’initiative du groupe du Mouvement Démocrate et apparentés et de Mme Laure de La Raudière, voté des dispositions complétant les pouvoirs d’investigation du CSA dans le cadre de sa mission de contrôle des opérateurs. Le Sénat a souhaité préciser que ces pouvoirs incluent, en dehors de la réception d’informations, l’accès aux principes et méthodes de conception des algorithmes des opérateurs. Cette précision, qui était couverte par les dispositions générales que nous avions adoptées, pouvait conduire à donner au CSA accès à tous les algorithmes des plateformes, quel que soit l’usage qu’elles en font, et pas seulement à ceux mis en œuvre aux fins de lutte contre les contenus haineux.

Dans un souci de proportionnalité, l’amendement CL67 limite la portée du dispositif aux seuls besoins de cette lutte.

La Commission adopte l’amendement.

Puis elle adopte l’article 4 modifié.

Chapitre IV
Amélioration de la lutte contre la diffusion de contenus haineux en ligne

Avant l’article 6 

La Commission est saisie de l’amendement CL12 de Mme Marie-France Lorho.

Mme Marie-France Lorho. Je défends également les amendements CL13 et CL7 qui visent à s’interroger sur la rédaction de certains chapitres et du titre de la proposition de loi.

Le terme de contenus haineux me gêne : la haine n’a pas de définition juridique. Encadrer l’utilisation d’internet en s’appuyant sur des présupposés moraux et non objectifs suppose que le législateur soit détenteur d’une vérité universelle et sans nuance.

Substituer aux mots « contenus haineux » les mots « ne répondant pas aux standards de la communauté » permettrait une adaptation des utilisateurs aux règles des plateformes sur lesquelles ils s’inscrivent. Une telle rédaction permettrait de préserver la liberté des plateformes et de protéger l’utilisateur. Les standards de la communauté sont élaborés afin d’entraîner la suppression des atteintes à une caractéristique protégée juridiquement et définie de façon objective.

Mme Laetitia Avia, rapporteure. Avis défavorable. Nous avons défini à l’article 1er le champ de ces contenus haineux. Il ne s’agit précisément pas de se situer dans le cadre des standards de la communauté – cela impliquerait que la nudité, qui est refusée sur Facebook, devienne un motif de retrait de contenu –, mais bien de se cantonner à l’application de notre proposition de loi et à ce qui, dans notre pays, est considéré comme une infraction au regard de la loi de 1881.

La Commission rejette l’amendement.

Article 6 (art. 6 et 6-4 [nouveau] de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Simplification de la procédure de blocage et de déréférencement des sites haineux

La Commission est saisie de l’amendement de suppression CL33 de Mme Danièle Obono.

M. Ugo Bernalicis. Vous conférez un pouvoir d’injonction à une autorité administrative indéterminée. Or, pour nous, les décisions de justice bénéficient déjà du régime de la force exécutoire : il n’est donc pas nécessaire qu’une telle autorité vienne s’insérer dans le processus. En outre, la force exécutoire n’offre pas les garanties nécessaires en matière de libertés fondamentales. Nous ne comprenons pas quel est le but poursuivi.

Mme Laetitia Avia, rapporteure. L’objectif, je vais l’illustrer concrètement. Lorsqu’est prise une décision judiciaire de déréférencement ou de blocage de l’accès à un site tel celui que nous connaissons tous, www.democratie-participative.org, qui a multiplié les sites miroirs comme www.democratie-participative.bis et d’autres, dès lors que l’autorité administrative, c’est-à-dire la plateforme plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS), constate la réapparition du même contenu sous une autre adresse, elle doit pouvoir, sur la base de cette décision, demander aux fournisseurs d’accès à internet et aux moteurs de recherche de l’appliquer.

De surcroît, ce dispositif constitue un moyen efficace de lutter contre les personnes qui, en définitive, se jouent aujourd’hui de la justice. On sait pertinemment que celui qui détient www.democratie-representative.org a acheté plus de 200 noms de domaines, ce qui conduirait à appliquer autant de décisions de justice différentes. Mieux vaut confier à l’autorité administrative compétente, PHAROS, le soin de la surveillance et du blocage. C’est ce que je vous propose et c’est pourquoi je suis défavorable à l’amendement de suppression.

M. Ugo Bernalicis. Si c’est sur le fondement du même jugement, l’autorité judiciaire devrait pouvoir le faire appliquer. Nous en revenons au même débat : constatant que l’autorité judiciaire est incapable de faire appliquer ses décisions, on crée une autorité administrative qui, sur le fondement de la décision judiciaire, va les dupliquer sans pour autant offrir les garanties attachées à l’autorité judiciaire, et notamment celles relatives à l’indépendance. Ce choix pragmatique, de confier à une autorité administrative les prérogatives de l’autorité judiciaire, nous y sommes totalement opposés. Visiblement, le site www.democratie-participative.org vous obnubile ; peut-être le site www.convention-citoyenne.fr pourrait-il également être racheté, car ces sujets vous interpellent.

Il n’empêche que si l’autorité judiciaire avait les moyens de fonctionner, nous n’aurions pas ce type de discussions. Il me semble vraiment extravagant et lunaire de devoir, dans une loi, dupliquer des dispositifs aux mains d’une autorité administrative.

Mme Caroline Abadie. Nous parlions bien de www.democratie-participative.org, ce site qui a été interdit par la justice, et non de sites traitant de démocratie en général. Le titre du site n’est pas du tout révélateur de son contenu.

M. Ugo Bernalicis. C’est bien cela.

Mme Caroline Abadie. Voilà qui ne me rassure pas.

Je voulais m’assurer que vous aviez compris le dispositif : une fois que l’autorité judiciaire a jugé que telle page comportant tel contenu était interdite, un contenu identique ne doit pas pouvoir réapparaître sur internet ni être référencé, ce qui correspond à ce que nous avions voté en première lecture.

La Commission rejette l’amendement.

Elle adopte l’amendement de précision CL68 de la rapporteure.

Elle en vient à l’amendement CL35 de Mme Muriel Ressiguier.

M. Ugo Bernalicis. Il faut qu’une limite soit fixée à la censure de la liberté d’expression de manière à ce que des associations ou des personnes ayant intérêt à agir aient une possibilité de recours, une sorte de contre-pouvoir à opposer aux algorithmes qui pourraient censurer beaucoup trop largement le contenu sur les plateformes. Il ne s’agit d’ailleurs pas que d’une simple hypothèse de travail : un certain nombre de pages politiques jugées « pas dans la ligne », c’est-à-dire contestant le système actuel, ont été censurées par Facebook. Notre collègue François Ruffin en a pour partie fait les frais.

Il serait donc bon de pouvoir saisir l’autorité judiciaire afin de faire également respecter la liberté d’expression.

Mme Laetitia Avia, rapporteure. Je ne doute absolument pas que vous ayez compris le dispositif que j’ai expliqué tout à l’heure. Je me dois toutefois de préciser que l’exposé que vous venez de faire se rapporte à l’article 1er, et non à l’article 6.

Ce dernier comporte un dispositif qui ne repose pas sur Facebook ou sur des algorithmes, mais bien sur l’autorité judiciaire qui, saisie en référé, va demander la suppression d’une page et sur l’application de cette décision de justice, non par les plateformes mais par PHAROS. Il n’est pas là question d’algorithmes, mais bien d’agents habilités dans le cadre d’une procédure initiée par l’autorité judiciaire. En l’espèce, ce ne sont pas les contenus qui sont visés, car nous sommes passés à une autre partie de la proposition de loi.

Avis défavorable.

M. Ugo Bernalicis. Si n’est en cause que la position de l’amendement dans le texte, voyons avec les services de la commission ou de la séance comment il pourrait viser l’article 1er, si c’est ce point qui vous embête particulièrement.

Notre amendement est assez clair : « Toute personne, ainsi que toute association ayant intérêt à agir en la matière, peut contester devant l’autorité judiciaire tout contenu rendu inaccessible par une plateforme mentionnée à l’article premier ». Vous pouvez le positionner à l’article 1er, ou en toute fin de texte, il n’empêche que le dispositif que nous prévoyons est, lui, parfaitement clair.

Mme Laetitia Avia, rapporteure. Nous avons adopté à l’article 1er un alinéa comportant une disposition, que j’ai qualifiée de bavarde mais qui permet de rappeler le droit commun, à savoir que toute personne peut saisir le juge, que ce soit pour obtenir le retrait d’un contenu ou pour contester une atteinte présumée à la liberté d’expression.

Votre amendement est donc satisfait.

La Commission rejette l’amendement.

Puis elle adopte l’article 6 modifié.

Article 6 bis AA : Obligations de transparence à la charge des régies publicitaires

La Commission adopte l’amendement rédactionnel CL69 de la rapporteure.

Puis elle adopte l’article 6 bis AA modifié.

Chapitre IV bis
Renforcement de l’efficacité de la réponse pénale
à l’égard des auteurs de contenus haineux en ligne

Avant l’article 6 bis A

Suivant l’avis défavorable de la rapporteure, la commission rejette l’amendement CL13 de Mme Marie-France Lorho.

Article 6 bis A (art. 15-3-3 [nouveau] du code de procédure pénale) : Spécialisation d’un parquet et d’une juridiction en matière de lutte contre la haine en ligne

La Commission adopte l’amendement de cohérence CL70 de la rapporteure.

Puis elle adopte l’article 6 bis A modifié.

Article 6 bis B (art. 132-45 et 138 du code de procédure pénale et 131-4-1 du code pénal) : Création d’une nouvelle interdiction dans les obligations du contrôle judiciaire et du sursis avec mise à l’épreuve

La Commission adopte l’amendement de cohérence CL71 de la rapporteure.

Puis elle adopte l’article 6 bis B modifié.

Article 6 bis C (art. 398-1, 510 et 512 du code de procédure pénale) : Compétence du juge unique pour le délit de refus de retrait d’un contenu manifestement haineux en ligne

La Commission est saisie de l’amendement CL72 de la rapporteure.

Mme Laetitia Avia, rapporteure. L’amendement vise, par cohérence avec les modifications apportées à l’article 1er, à rétablir dans notre texte les dispositions que nous avions adoptées en première lecture afin de préciser la compétence du juge unique en matière correctionnelle pour statuer sur les refus de retrait de contenus haineux.

La Commission adopte l’amendement et l’article 6 bis C est ainsi rétabli.

Chapitre IV ter
Prévention de la diffusion de contenus haineux en ligne

Article 6 ter A (art. L. 121-1 du code de l’éducation) : Mission d’information des écoles, collèges et lycées sur les violences en ligne

La Commission adopte l’article 6 ter A sans modification.

Article 6 ter (art. L. 721-2 du code de l’éducation) : Formation des enseignants en matière de lutte contre les contenus haineux en ligne

Suivant l’avis défavorable de la rapporteure, la Commission rejette l’amendement de suppression CL19 de Mme Emmanuelle Ménard.

Puis elle adopte l’article 6 ter sans modification.

Chapitre V
Dispositions finales

Article 7 : Création d’un Observatoire de la haine en ligne

La Commission est saisie des amendements identiques CL 20 de Mme Emmanuelle Ménard et CL28 de M. Alexis Corbière.

Mme Emmanuelle Ménard. La création d’une énième entité, l’Observatoire des contenus illicites en ligne qui dépendra du CSA, paraît superfétatoire et redondante dans la mesure où une telle observation devrait déjà faire partie des missions de cette autorité administrative indépendante. D’où l’amendement CL20 de suppression.

M. Ugo Bernalicis. Il serait plus utile de supprimer cet observatoire, qui n’existe pas encore, pour redonner vie à l’Observatoire de la pauvreté. À mon avis, une telle observation doit, au vu des prérogatives qui lui ont été confiées, d’ores et déjà figurer dans le rapport annuel d’activité du Conseil.

Je ne sais pas exactement quelles sont vos intentions en la matière, hormis d’affirmer que ce sont des organismes extrajudiciaires qui doivent expliquer ce que sont les contenus illicites en ligne. Un tel observatoire nous expliquera-t-il que l’antisionisme constitue un problème sur internet ? Je ne vois pas bien la plus-value apportée par cet article, sinon celle de se faire plaisir en créant un observatoire.

Mme Laetitia Avia, rapporteure. La plus-value apportée par cet observatoire sera précisément de travailler à l’identification ainsi qu’à une meilleure appréhension des phénomènes de haine en ligne. Nous avons beaucoup entendu, dans le cadre de ce débat, cette question : qu’est-ce que la haine ? Quels en sont les contours ? On sait très bien que les expressions de haine ont un caractère protéiforme et qu’elles évoluent dans le temps.

Cet observatoire présentera également l’avantage d’associer, au-delà du rapport d’information qui s’applique à chaque plateforme, un certain nombre d’acteurs – chercheurs, sociologues, associations – et de les mettre autour de la table en vue de mieux agir contre la propagation des contenus haineux sur internet.

Je suis donc défavorable à ces deux amendements.

M. Philippe Latombe. Pour quelle raison la mention « notamment les mineurs » figure-t-elle à l’alinéa 2 de l’article 7 ? Il serait possible de lister un certain nombre d’autres publics visés par la haine, plus précisément par l’homophobie ou par le racisme. Vous n’avez pas expliqué en quoi et comment les mineurs seront associés à ce nouvel organisme, ni comment ils seraient représentés en son sein.

Mme Caroline Abadie. De mémoire, lors de la première lecture, cette mention s’était imposée pour la prévention, l’éducation et l’accompagnement : quand on comprend mieux le phénomène, la situation des victimes s’améliore. Comme l’a rappelé Mme la rapporteure, des associations et des chercheurs y seraient associés.

Mme Laetitia Avia, rapporteure. Lors des débats en première lecture au sein de notre assemblée, nombre d’amendements ont porté sur la nécessité de réfléchir au phénomène de propagation des contenus haineux à destination des mineurs, car ces contenus peuvent varier en fonction des âges. L’usage de l’adverbe « notamment », qui ne veut pas dire « uniquement », permet d’indiquer qu’il sera important que les travaux de l’Observatoire de la haine en ligne soient également consacrés à la question du cyberharcèlement, qui vise les mineurs.

Au regard de l’augmentation des tentatives de suicide commises par nos jeunes en raison de ce même cyberharcèlement, c’est une très bonne chose.

M. Philippe Latombe. Dans mes souvenirs, les débats ont d’abord porté, dans le cadre de la discussion d’un amendement de notre collègue Erwan Balanant, sur le harcèlement scolaire, c’est-à-dire sur tout ce qui se passe au sein des établissements scolaires. Les mots « notamment les mineurs » me posent problème compte tenu de l’accent qui sera spécifiquement mis sur lesdits mineurs, sans que l’on soit par ailleurs capable d’expliquer comment ils seront représentés dans le cadre de cet observatoire, qui associera « les opérateurs, associations, administrations et chercheurs » : le seront-ils directement ou par le biais d’associations ? Comment allons-nous procéder ? Je ne comprends pas cette mention.

La Commission rejette les amendements.

Elle est saisie de l’amendement CL45 de Mme Caroline Abadie.

Mme Caroline Abadie. Le Sénat a apporté quelques modifications assez utiles concernant le fonctionnement de l’Observatoire. Toutefois, à l’initiative de nos collègues sénateurs du groupe Les Républicains, son champ de compétences a été très largement étendu à tous les contenus illicites en ligne, dépassant ainsi amplement l’objet de la proposition de loi, qui est de ne traiter que du phénomène des contenus haineux.

Aussi voudrions-nous rétablir l’intitulé de départ, c’est-à-dire celui d’Observatoire de la haine en ligne.

Mme Laetitia Avia, rapporteure. Avis favorable. Il n’était, en effet, pas opportun d’étendre le champ de cet observatoire.

M. Ugo Bernalicis. Une telle mission aurait pu être confiée par exemple à l’Institut national des hautes études de la sécurité et en justice (INHESJ), puisqu’il s’agit d’un domaine pluridisciplinaire comportant un aspect opérationnel, en lien avec les services de sécurité. On aurait, dans cette hypothèse, pu mesurer le développement des contenus haineux sur internet et imaginer des façons de lutter contre celui-ci.

Une telle mission aurait également pu être confiée à la Délégation interministérielle à la lutte contre le racisme et l’antisémitisme et la haine anti-LGBT (DILCRAH). Or non, vous persistez à vouloir créer un énième observatoire – auriez-vous des amis à caser dans le secteur ou des postes à pourvoir ?

Je ne comprends pas bien la logique à l’œuvre. Il est vrai que vous supprimez l’INHESJ : faut-il en conclure que vous allez bientôt faire de même avec la DILCRAH et tout regrouper dans cet observatoire ? Je ne vois pas bien la cohérence de tout cela.

La Commission adopte l’amendement.

Elle en vient à l’amendement CL73 de la rapporteure.

Mme Laetitia Avia, rapporteure. Le Sénat, qui a voulu préciser le champ d’intervention de l’Observatoire, a fait référence, à l’alinéa 5, à PHAROS. Or cette plateforme n’a pas d’existence législative. Par conséquent, dans un but de cohérence et d’efficacité du texte, je propose de supprimer cet alinéa.

La Commission adopte l’amendement.

Puis elle adopte l’article 7 modifié.

Article 7 bis (art. 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Consécration dans la loi de la jurisprudence du Conseil constitutionnel relative à la mise en cause de la responsabilité des hébergeurs à raison des contenus manifestement illicites qu’ils stockent

La Commission adopte l’article sans modification.

Article 9 : Modalités d’entrée en vigueur

La Commission adopte l’amendement de coordination CL76 de la rapporteure.

Puis elle adopte l’article 9 modifié.

Article 10 (art. L. 371-1, L. 771-1, L. 773-1 et L. 774-1 du code de l’éducation, art. 108 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication et art. 57 et 58 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique) : Conditions d’application outre-mer

La Commission adopte l’article 10 sans modification.

Titre

Suivant l’avis défavorable de la rapporteure, la Commission rejette l’amendement CL7 de Mme Marie-France Lorho.

Enfin, la Commission adopte l’ensemble de la proposition de loi modifiée.

*

*     *

En conséquence, la commission des Lois constitutionnelles, de la législation et de l’administration générale de la République vous demande d’adopter la proposition de loi visant à lutter contre les contenus haineux sur internet (n° 2534) dans le texte figurant dans le document annexé au présent rapport.

 


([1]) Directive 2000/31/CE du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur.

([2]) Avis n° 397368 du 16 mai 2019 sur la proposition de loi visant à lutter contre la haine sur Internet.

([3]) Rapport (n° 2062, XVe législature) fait au nom de la commission des Lois de l’Assemblée nationale par Mme Laetitia Avia sur la proposition de loi visant à lutter contre la haine sur internet, juin 2019.

([4]) Une obligation de prompt retrait des contenus ainsi que l’obligation de mettre en place un dispositif de signalement facilement accessible et visible, d’informer promptement les autorités publiques compétentes et de rendre publics les moyens consacrés à la lutte contre ces contenus.

([5]) « Si la commission mixte ne parvient pas à ladoption dun texte commun (…), le Gouvernement peut, après une nouvelle lecture par lAssemblée nationale et par le Sénat, demander à lAssemblée nationale de statuer définitivement (…) ».

([6]) En application du 2 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

([7]) Qui vise les injures et provocations à la discrimination, à la haine ou à la violence aggravées, l’apologie des crimes de guerre, contre l’humanité, d’esclavage, de collaboration avec l’ennemi, d’atteinte volontaire à la vie ou à l’intégrité physique, d’agression sexuelle, de vol aggravé, d’extorsion ou de destruction, dégradation ou détérioration volontaire dangereuse, le harcèlement sexuel, la traite des êtres humains, le proxénétisme, la pédopornographie ainsi que la provocation au terrorisme ou son apologie.

([8]) Réprimé par l’article 24 bis de la loi du 29 juillet 1881 sur la liberté de la presse, qui sanctionne la contestation de l’existence de crimes contre l’humanité tels qu’ils sont définis par le statut de Nuremberg ainsi que la négation, la minoration ou la banalisation, de façon outrancière, de l’existence d’un crime de génocide autre que ceux déjà mentionnés, d’un autre crime contre l’humanité, d’un crime de réduction en esclavage ou d’exploitation d’une personne réduite en esclavage ou d’un crime de guerre défini par le statut de la Cour pénale internationale, à condition que ces crimes aient donné lieu à une condamnation prononcée par une juridiction française ou internationale.

([9]) Les opérateurs visés par la proposition de loi sont susceptibles de recevoir la qualification d’hébergeurs au sens du 2 du I de l’article 6 de la loi du 21 juin 2004 pour la confiance dans l’économie numérique.

([10]) Voir supra le commentaire de l’article 1er de la proposition de loi.

([11]) Initialement, les parlementaires souhaitaient que ces associations puissent être saisies en qualité de « tiers de confiance » par un mineur et notifier au nom de celui-ci un contenu manifestement haineux, alors que les mineurs n’ont pas la capacité juridique pour donner un tel mandat à un tiers.

([12]) Dans sa version initiale, l’amendement des députés tendait à ce que l’association assure la conservation des éléments transmis par le mineur jusqu’à l’expiration du délai de prescription de l’action publique de l’infraction concernée. Cette possibilité n’était toutefois pas conforme à la législation sur la protection des données personnelles, qui exige de déterminer le type de données collectées et de limiter la durée de leur conservation à ce qui est nécessaire aux finalités pour lesquelles ces données sont traitées.

([13]) Exposé sommaire de l’amendement n° 60 de M. Frassa au nom de la commission des Lois du Sénat.

([14]) Voir supra le commentaire de l’article 1er de la proposition de loi.

([15]) Exposé sommaire de l’amendement n° COM-32 de M. Frassa.

([16]) Aux termes du § 1 de l’article 15 de la directive 2000/31/CE du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information, et notamment du commerce électronique, dans le marché intérieur, « les États membres ne doivent pas imposer aux prestataires (…) une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites ».

([17]) Est réprimé :

–  s’agissant des contenus haineux, le fait de ne pas mettre en place un dispositif facilement accessible et visible de signalement, de ne pas informer promptement les autorités publiques compétentes et de ne pas rendre publics les moyens consacrés à la lutte contre ces contenus ;

–  le fait de ne pas procéder au retrait d’un contenu provoquant à des actes terroristes ou faisant l’apologie de tels actes, de ne pas empêcher l’accès au site internet porteur d’un tel contenu ou de ne pas le déréférencer alors que l’autorité administrative le demandait ;

–  le fait de ne pas conserver les données d’identification des personnes à l’origine d’un contenu transporté ou stocké ou de ne pas déférer à une demande de l’autorité judiciaire tendant à obtenir ces données.

([18]) Exposé sommaire de l’amendement n° COM-60 de M. Frassa.

([19]) Le blocage d’un site, d’un serveur ou de tout autre procédé électronique par les fournisseurs d’accès à internet et les fournisseurs de domaines ainsi que le déréférencement d’une adresse électronique par les moteurs de recherche ou les annuaires.

([20]) K. Amellal, L. Avia et G. Taïeb, Renforcer la lutte contre le racisme et l’antisémitisme sur internet, rapport remis au Premier ministre le 20 septembre 2018.

([21]) Par l’ordonnance  2016-315 du 17 mars 2016 relative au commissariat aux comptes, qui a adapté notre droit au règlement (UE) n° 2014/537 du 16 avril 2014 relatif aux exigences spécifiques applicables au contrôle légal des comptes des entités d’intérêt public.

([22]) L’article 23 de la loi n° 93-122 du 29 janvier 1993 relative à la prévention de la corruption et à la transparence de la vie économique et des procédures publiques, telle que modifiée par la loi  2015-990 du 6 août 2015 pour la croissance, l’activité et l’égalité des chances économiques, dispose que « le vendeur d’espace publicitaire en qualité de support ou de régie rend compte directement à l’annonceur dans le mois qui suit la diffusion du message publicitaire des conditions dans lesquelles les prestations ont été effectuées ».

([23]) Article 3 du décret n° 2017-159 du 9 février 2017 relatif aux prestations de publicité digitale.

([24]) En vertu de l’article 25 de la loi n° 93-122 du 29 janvier 1993 relative à la prévention de la corruption et à la transparence de la vie économique et des procédures publiques.

([25]) Qui a créé un nouvel article 15-3-2 au sein du code de procédure pénale afin de prévoir une information particulière des victimes de violences au moment du dépôt de plainte.

([26]) Dont les obligations actuelles sont fixées par l’article 138 du code de procédure pénale.

([27]) Régi par l’article 132-45 du code pénal, le sursis avec mise à l’épreuve est appelé à devenir, à compter du 24 mars 2020, le « sursis probatoire » du fait de l’entrée en vigueur des dispositions de la loi du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice.

([28]) La liste des infractions soumises à la compétence du juge unique est fixée par l’article 398-1 du code de procédure pénale.

([29]) Régie par les articles 495 et suivants du même code, cette voie procédurale permet au ministère public qui choisit de l’employer de communiquer le dossier de la poursuite et ses réquisitions au président de la juridiction, qui statue sans audience ni débat par une ordonnance portant relaxe ou condamnation à une amende et, le cas échéant, à une peine complémentaire.

([30]) Relevant de l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication, cette plateforme permet de signaler en ligne certains contenus et comportements illicites observés sur internet (pédophilie, pédopornographie, racisme, antisémitisme, xénophobie, incitation à la haine raciale, ethnique ou religieuse, terrorisme et apologie du terrorisme, escroqueries et arnaques financières en ligne).

([31]) Décision n° 2004-496 DC du 10 juin 2004, Loi pour la confiance dans léconomie numérique, cons. 9.

([32]) CEDH, 16 juin 2015, Delfi AS c. Estonie n° 64569/09 et 2 février 2016, Index.hu c. Hongrie, n° 22947/13.