Accueil > Contrôle, évaluation, information > Les comptes rendus de la commission des affaires culturelles et de l'éducation

Afficher en plus grand
Afficher en plus petit
Voir le compte rendu au format PDF

Commission des affaires culturelles et de l’éducation

Mercredi 5 juin 2019

Séance de 9 heures 30

Compte rendu n° 56

Présidence de M. Bruno Studer, Président

– Examen pour avis des articles 1er et 4 de la proposition de loi visant à lutter contre la haine sur internet (n° 1785) (Mme Fabienne Colboc, rapporteure pour avis)

– Présences en réunion

COMMISSION DES AFFAIRES CULTURELLES ET DE L’ÉDUCATION

Mercredi 5 juin 2019

La séance est ouverte à neuf heures trente-cinq.

(Présidence de M. Bruno Studer, président de la Commission)

————

La commission des Affaires culturelles et de l’Éducation examine pour avis les articles 1er et 4 de la proposition de loi visant à lutter contre la haine sur internet (n° 1785) (Mme Fabienne Colboc, rapporteure pour avis).

M. le président Bruno Studer. Nous sommes réunis pour examiner l’avis que notre commission a souhaité donner sur les articles 1er et 4  de la proposition de loi visant à lutter contre la haine sur internet. Ces dispositions relèvent des compétences de notre commission puisqu’elles étendent celles du Conseil supérieur de l’audiovisuel (CSA). Je tiens à saluer le travail réalisé par notre rapporteure, Fabienne Colboc, en coordination avec Laëtitia Avia, rapporteure au fond de la commission des Lois et première signataire du texte.

Madame la rapporteure, vous nous proposerez tout à l’heure quelques amendements destinés à améliorer la proposition de loi sur les sujets qui nous intéressent. Elle sera examinée mercredi 19 juin par la commission des lois et devrait être inscrite en séance publique début juillet.

Mme Fabienne Colboc, rapporteure pour avis. À partir d’un échantillon de commentaires publiés sur vingt-quatre pages Facebook de grands médias français, une étude sur la haine en ligne conduite en 2019 par la société de modération Netino estimait que 14 % de ces commentaires comportaient des propos haineux ou agressifs. Cela témoigne d’une évolution inquiétante que le législateur doit considérer à sa juste mesure.

C’est d’ailleurs tout l’objet de la proposition de loi qui nous est aujourd’hui soumise par notre collègue Laëtitia Avia, et dont la commission a souhaité se saisir pour avis. Partant du constat d’une augmentation considérable des discours de haine sur internet, permise par la viralité propre aux réseaux sociaux, la proposition de loi vise à mettre fin à l’impunité quasi-totale dans laquelle évoluent aujourd’hui les auteurs de tels propos, et à mobiliser les plateformes, dont l’action pour combattre les contenus haineux est pour l’heure limitée à ce que la loi française rend obligatoire.

Dont acte : la proposition de loi rendra obligatoire le retrait en 24 heures des contenus contrevenant manifestement aux dispositions de la loi du 29 juillet 1881 sur la liberté de la presse relatives aux provocations à la haine, à la discrimination ou à la violence et aux injures à raison de la race, de la religion, de l’ethnie, du sexe ou du handicap.

Il est grand temps d’établir une législation efficace pour assurer le respect, par des plateformes virtuelles, de lois conçues pour le monde réel. Alors qu’ils se retranchent systématiquement derrière leur statut d’hébergeur et le possible engagement de leur responsabilité juridique par des tiers, les moteurs de recherche, les réseaux sociaux, les plateformes de partage de contenus mis en ligne par leurs utilisateurs doivent combattre de façon plus volontaire l’hydre numérique qu’ils ont contribué à créer. C’est leur modèle économique, fondé sur l’exploitation algorithmique de nos données, qui nourrit l’enfermement intellectuel et l’intolérance croissante aux opinions contraires. C’est l’impunité totale des auteurs anonymes de propos haineux sur internet qui favorise leur expression exponentielle, mais également leur banalisation dans la vie réelle.

C’est pourquoi la proposition de loi prévoit plusieurs mesures tendant à renforcer de façon conséquente les obligations à la charge des opérateurs de plateforme. Au-delà de l’obligation de retrait déjà évoquée, ils auront dorénavant une véritable obligation de moyens dans ce domaine. Il leur faudra notamment répondre au CSA, dont les missions sont complétées pour lui permettre d’exercer un contrôle fin de l’action des plateformes en matière de lutte contre la haine en ligne. Un pouvoir de sanction, nouveau et dissuasif, pourrait lui être confié à l’égard des opérateurs de plateforme en ligne qui ne se conformeraient pas pleinement à la loi.

C’est à ce titre que la commission des Affaires culturelles et de l’Éducation a souhaité se saisir pour avis. En effet, les missions du CSA ont été récemment modifiées, notamment par la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, et sont appelées à évoluer à la faveur du futur projet de loi sur la régulation audiovisuelle. Il s’agit donc de veiller à la cohérence de l’ensemble normatif, afin de donner à la loi sa pleine efficacité.

Suivant l’avis du Conseil d’État, je vous proposerai plusieurs amendements tendant à ce que la sanction prononcée par le CSA contre les plateformes réponde non pas à une obligation de résultat, mais bien à l’obligation de moyens qui leur est faite, dans un cadre juridique plus cohérent avec la loi du 30 septembre 1986 relative à la liberté de communication. L’application littérale de la proposition de loi ne paraît pas opportune, pour des raisons tant juridiques que pratiques ; c’est pourquoi il nous faut la modifier pour donner à ces dispositions toute leur portée.

La compétence de la commission en matière d’éducation et de jeunesse justifie également sa saisine. Bien qu’aucune disposition de la proposition de loi ne concerne pour l’heure ce public en particulier, j’estime nécessaire de renforcer les outils existants, notamment au sein de l’Éducation nationale, pour permettre une prévention adéquate chez les mineurs et assurer leur protection vis-à-vis des contenus haineux auxquels ils sont involontairement, mais de plus en plus fréquemment, exposés.

Je vous proposerai également de renforcer les obligations des plateformes qui permettent l’inscription de personnes mineures sur leurs services en dessous de l’âge de 15 ans – âge de la majorité numérique. En dessous de cet âge, elles devront obligatoirement sensibiliser les enfants et leurs parents à la diffusion de la haine en ligne et les informer des risques juridiques encourus. C’est un axe majeur de prévention, car bien souvent, les parents n’ont qu’une conscience très limitée des risques que leurs enfants encourent dans l’environnement numérique et de la responsabilité juridique qui est la leur en cas d’infraction.

Mme Anne Brugnera. Chaque jour, chaque instant, la liberté qu’offre internet est dévoyée pour s’attaquer aux personnes par l’injure, la stigmatisation, l’offense. C’est inacceptable. De récents sondages soulignent que 58 % de nos concitoyens considèrent internet comme le principal foyer des discours de haine et plus de 70 % indiquent avoir déjà été confrontés à des propos haineux sur les réseaux sociaux. La plupart réclament une action des pouvoirs publics. C’est bien la volonté de la proposition de loi portée par notre collègue Laëtitia Avia visant à lutter contre la haine sur internet.

Le groupe La République en Marche se félicite de l’examen de ce texte qui permettra d’affirmer clairement que s’attaquer, derrière un pseudonyme, à une personne en pointant son origine, sa religion, son orientation sexuelle n’est plus toléré et n’est pas licite.

Ce texte est le fruit d’une concertation menée par notre collègue depuis plus d’an pour aboutir à la proposition que nous examinons. Notre commission a été saisie pour avis des articles 1er et 4. Je remercie notre collègue Fabienne Colboc pour son investissement et le travail réalisé, dans la droite ligne de son engagement contre les fausses informations.

L’article 1er dispose que les opérateurs devront retirer les contenus signalés comportant une injure discriminatoire dans un délai maximal de 24 heures. C’est un changement important, mais nécessaire. Le sentiment d’impunité sur internet ne peut perdurer ; cet espace doit connaître des règles identiques à celles appliquées sur la voie publique.

L’article 4 permettra quant à lui de s’assurer de la transparence des actions de retrait par les services des opérateurs. Le CSA en assurera la régulation. Nous avons pleinement confiance en lui pour réaliser cette mission. Son expertise, reconnue, sera un vrai appui pour les plateformes et les opérateurs.

Je ne m’exprimerai pas sur les autres articles de ce texte, qui seront étudiés par nos collègues commissaires aux Lois, mais je soutiens l’idée que la responsabilité des individus ne peut être différente sur internet. Prévoir des sanctions judiciaires, pénales et pécuniaires est important pour dire « stop » à ce déferlement de haine que trop d’individus, se croyant protégés derrière leur écran et leurs pseudonymes, se permettent.

Il ne s’agit nullement de remettre en question la liberté qu’internet et le numérique offrent. Je suis convaincue que ce nouvel espace démocratique doit et peut être utilisé à bon escient. L’expression de sa haine, la discrimination envers autrui ne sont pas une liberté. C’est donc bien notre rôle de législateur que d’encadrer les dérives trop souvent constatées.

J’ai assisté il y a peu, à Lyon, au comité d’orientation de la lutte contre le racisme, l’antisémitisme et l’homophobie. Je peux témoigner de l’urgence à encadrer de la sorte l’expression sur internet, qui fait trop de victimes et trop d’impunis. Toutes les associations engagées dans cette lutte l’appellent de leurs vœux. Le Président de la République l’a rappelé : il faut responsabiliser les plateformes, comme les citoyens, dans leur expression sur internet. C’est tout le sens de la proposition de loi, que le groupe La République en Marche soutiendra.

M. Frédéric Reiss. Sur internet, le meilleur côtoie le pire. Sa gouvernance est une question centrale pour les droits humains. La proposition de loi cible la lutte contre la haine sur internet, réelle préoccupation au cœur de nos sociétés démocratiques. Les Républicains se sont toujours positionnés contre le cyberharcèlement et la propagation des messages de haine, d’antisémitisme ou de discrimination en tous genres. Aussi souhaitons-nous que cette proposition de loi puisse apporter des solutions, d’autant que 70 % de nos compatriotes disent avoir été confrontés à des propos haineux sur les réseaux sociaux.

Mais nous nous posons encore beaucoup de questions, auxquelles sont malheureusement apportées trop peu de réponses… Nous avons bien conscience des difficultés de l’exercice, dans le cadre du respect des droits de l’homme et du citoyen. Cette proposition de loi cherche à accélérer la suppression des contenus illicites au regard de la loi de 1881 sur la liberté de la presse.

Dans une démocratie, les individus et les organisations – quelles qu’elles soient – doivent pouvoir s’exprimer et diffuser des informations et des opinions par le biais des réseaux sociaux. Mais on atteint très vite les limites de la liberté d’expression dans des domaines controversés – incitation à la violence, voire à des comportements criminels, propagande du terrorisme ou du djihadisme, discours de haine en raison de la race, de la religion, du sexe ou du handicap.

Les articles 1er et 4, dont nous allons débattre, proposent des solutions, même si la question de la définition d’un contenu offensant ou illicite n’est pas tranchée. Le CSA va jouer un rôle déterminant dans les sanctions, mais le gendarme de l’audiovisuel aura-t-il les moyens d’agir sur internet, et dans quel délai ? Le CSA deviendra, de fait, un méta-régulateur de l’activité numérique.

Au cours de sa déposition devant le Sénat américain, en avril 2018, Mark Zuckerberg a affirmé à plusieurs reprises que Facebook était responsable du contenu diffusé, tout en rappelant que sa plateforme ne produisait pas le contenu. Les géants d’internet ont donc conscience du problème…

J’estime que les solutions résident dans des projets concertés – a minima au niveau européen. Ainsi, s’agissant du règlement général pour la protection des données (RGPD), les ministres européens ont souligné à Elseneur l’importance d’une adhésion rapide par le plus grand nombre de parties à la convention « 108 » du Conseil de l’Europe, afin de faciliter la création d’un régime juridique global de protection des données. Dans la lutte contre la haine sur internet, il faudrait s’en inspirer.

La question du contrôle et des sanctions liées au déréférencement de contenus haineux est évidemment centrale. Malgré une politique affichée d’autorégulation via des vérificateurs ou autres modérateurs, l’expérience a montré que les grands acteurs du numérique sont loin d’être exemplaires. Il est indispensable d’associer les utilisateurs d’internet à la régulation que nous appelons tous de nos vœux. Les jeunes, grands utilisateurs des médias sociaux, sont-ils conscients des dangers et des dérives de ce lieu d’expression et d’échanges ? Savent-ils que lorsqu’il « likent » une image ou un propos de harcèlement, ils deviennent complices ? On en revient toujours à l’éducation aux médias sociaux, dont nous avons déjà parlé au sein de notre commission…

Mme Géraldine Bannier. En préambule, j’aurais voulu citer quelques-uns des messages que l’on peut lire ou recevoir sur les réseaux sociaux, pour illustrer le niveau de violence et de haine que l’on peut y rencontrer. Mais, devant leur vulgarité et leur irrespect, je m’en abstiendrai. Il ne s’agit pas de cas isolés et chacun de nous sait très bien de quoi nous parlons. Parmi les quelques échantillons sympathiques que l’on trouve aisément sur internet figurent en bonne position les insultes racistes, sexistes, antisémites, etc. Ils disent assez l’action urgente que le déferlement de ce type de contenus appelle.

Certes, la transposition de la directive du 8 juin 2000 sur le commerce en ligne par la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) a constitué un premier pas utile en son temps. Mais l’apparition de nouveaux acteurs, différents des fournisseurs d’accès à internet et des hébergeurs, tels que les réseaux sociaux et les moteurs de recherche, qui n’ont pas qu’un rôle technique et neutre puisqu’ils peuvent accélérer l’accès à des contenus par le biais d’algorithmes de hiérarchisation et d’optimisation, ainsi que la complexité procédurale menant au blocage temporaire d’accès à un site ou au retrait de contenus illicites imposait, dans la ligne de la loi relative à la lutte contre la manipulation de l’information, des évolutions pour rendre plus efficaces et adaptées aux récentes mutations la répression de la diffusion des contenus haineux.

La proposition de loi s’inspire directement du modèle allemand, la Netzwerkdurchsetzungsgesetz, dite NetzDG, et met à la charge des opérateurs de plateformes en ligne – au-delà d’un seuil de connexion sur le territoire français – une obligation de retrait de tout contenu manifestement illicite dans un délai de 24 heures. En cas de refus de retrait ou de déréférencement des contenus dits « odieux », cette obligation est assortie d’une sanction pécuniaire plafonnée à 4 % du chiffre d’affaires mondial.

Dans le même souci d’efficacité, les modalités de signalement de contenus illicites sont simplifiées. L’article 3 prévoit une information claire et détaillée du public sur les possibilités de recours dont il dispose, soit qu’un auteur de contenus en conteste le retrait, soit que l’auteur du signalement d’un contenu ait vu sa demande de retrait rejetée.

Le CSA se voit confier une mission de régulation : il aura notamment la charge de recueillir le compte rendu des actions et moyens mis en œuvre par les opérateurs de plateformes pour lutter contre les contenus illicites. Le MoDem considère que cette tâche devrait pouvoir s’effectuer conjointement avec l’Autorité de régulation des communications électroniques et des postes (ARCEP), afin de mutualiser non seulement des moyens, mais aussi des compétences complémentaires.

Les sanctions financières sont également quadruplées par rapport à celles prévues par la loi pour la confiance dans l’économie numérique en cas de méconnaissance des obligations de concours à la lutte contre la diffusion de propos dit odieux et d’absence de mise en place d’un dispositif de signalement facilement accessible et lisible.

Les dispositifs sont donc renforcés et l’information publique améliorée, pour qu’internet ne soit plus un lieu d’irresponsabilité au regard du respect des droits fondamentaux. Le groupe MoDem et apparentés se félicite de ces avancées et proposera d’aller un peu plus loin, notamment en termes de prévention.

À titre personnel, puisque rien n’est si proche de la haine que l’amour, à la suite de la publication de cette loi, j’espère que les internautes auront la bonne idée de réfléchir à deux fois avant de dire tout et n’importe quoi sur la Toile. La liberté d’expression est primordiale, mais elle doit nécessairement s’inscrire dans le respect des droits fondamentaux.

Mme Michèle Victory. Si notre groupe se retrouve bien dans les enjeux soulevés par la proposition de loi, il n’a pas encore défini sa position sur le texte, qui a le mérite de poser la question du déferlement de la haine sur internet, véritable fléau de notre temps qui met en danger tous nos principes républicains – nous connaissons tous le problème – et de s’y attaquer.

Ce faisant, la proposition de loi touche à un équilibre essentiel et fragile entre la protection de la liberté d’expression – affirmée dans les précédents textes de loi – et la protection des personnes lorsqu’elles sont harcelées ou cyber-harcelées pour quelque motif que ce soit. L’extension des prérogatives du CSA en matière de lutte contre les propos haineux aux nouveaux supports numériques et aux plateformes nous semble aller dans le bon sens pour lutter contre la diffusion de ces contenus, bien que certains termes doivent être précisés. Il faudra cependant être très prudents face à une éventuelle dérive administrative, au détriment du pouvoir judiciaire – cela a été pointé par le Conseil d’État et différents organismes comme la Commission nationale consultative des droits de l’homme (CNCDH).

En outre, les auditions de notre commission d’enquête en cours sur les groupuscules d’extrême droite ont souligné l’importance des moyens déjà existants. La Plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS) dispose de compétences indéniables – nous l’avons visitée – mais ces dernières doivent être démultipliées. Des moyens supplémentaires doivent être déployés et beaucoup plus de personnes pour traiter toutes ces données et plaintes, afin de venir en aide aux utilisateurs.

Enfin, la prévention des risques, l’information, la sensibilisation seront les bienvenus. L’Éducation nationale joue déjà pleinement son rôle envers les jeunes, soutenue par de nombreuses associations sur le terrain. C’est un enjeu majeur. Mais les jeunes ne sont pas les seuls à propager des propos haineux ou de fausses informations sur internet ; toute la société est touchée, y compris nos anciens. Il faut donc responsabiliser tous nos concitoyens : chacun d’entre nous doit faire face à ses contradictions et à ses responsabilités. En la matière, la proposition de loi ne prévoit pas de mesures spécifiques, mais « responsabilisation » doit être le maître mot. Nous allons réfléchir à notre position concernant la proposition de loi pour la séance publique.

Mme Béatrice Descamps. Nous examinons pour avis les articles 1er et 4 de la proposition de loi visant à lutter contre la haine sur internet. La prolifération de la haine sur ce média s’accroît de manière exponentielle. La proposition de loi porte l’objectif très ambitieux d’apporter des réponses à ce phénomène.

Le sujet qui nous réunit aujourd’hui rejoint, à certains égards, les débats sur le projet de loi relatif à la lutte contre la manipulation de l’information. Il s’agit de lutter contre la publication de contenus néfastes qui prolifèrent sur internet sans que l’on ne parvienne à y mettre un terme. L’auteur de ces contenus, derrière un écran d’ordinateur, est capable de proférer des propos racistes, discriminatoires – illégaux donc – en toute impunité. L’instantanéité de la diffusion et le caractère immatériel d’internet engendrent toute une série d’abus qui sont autant de souffrances pour les personnes qui en sont victimes.

On imagine souvent que l’auteur de tels propos est une personne très jeune et puérile. Mais la vérité est bien différente… En février dernier, la désormais fameuse « Ligue du LOL », regroupant des journalistes, des communicants et des publicitaires, a été démasquée. Elle est accusée de harcèlement à connotation sexiste et homophobe. La prolifération des contenus haineux atteint un tel degré que des applications permettent de faire le tri, via des algorithmes, entre les messages reçus sur les réseaux sociaux. Ces algorithmes sont capables de distinguer les messages haineux des messages anodins.

Au-delà de l’endiguement des contenus haineux, il s’agit également de lutter contre leur banalisation. C’est simple, à force de les voir, on ne fait plus attention à eux ; ils font partie du paysage.

Toute la difficulté tient dans l’imputabilité : à qui attribuer la responsabilité ? À qui incombe-t-il de faire le tri dans la diffusion des contenus ? La proposition de loi fait un choix en étendant les prérogatives du CSA. Cela va dans le bon sens car c’est l’autorité la plus compétente pour opérer ce contrôle. Toutefois, nous nous interrogeons sur la nature du contrôle et sur les moyens alloués, face à l’afflux colossal des requêtes. Le CSA effectue d’ores et déjà le contrôle des contenus diffusés à la télévision, à la radio et sur les services de médias audiovisuels à la demande, il semble donc naturel que ce contrôle soit étendu aux réseaux sociaux. Mais effectuer un contrôle global entrainera une charge de travail colossale, qui nécessite des moyens financiers, humains et organisationnels.

Quels moyens entend-on octroyer au CSA afin qu’il mène à bien la mission que vous lui confiez ? Quelle sera l’articulation des prérogatives du CSA avec celles du juge judiciaire ? Comme l’énonce le Conseil d’État dans son avis du 16 mai 2019 : « la suppression d’un contenu odieux sur internet est un acte radical au regard de la protection dont jouit la liberté d’expression (…). Le retrait de contenu ne peut donc généralement être opéré que par le juge judiciaire ou à tout le moins sous son contrôle ».

Au-delà des interrogations, nous avons également des craintes. Si nous partageons ardemment la nécessité de lutter contre la haine sur internet, toutes les situations ne sont pas évidentes. L’étude des propos dénoncés ne permettra pas toujours de classer ceux-ci comme corrects ou devant être supprimés en un temps record. La temporalité de la suppression interroge donc : porter atteinte à la liberté d’expression mérite de prendre le temps de la réflexion.

Comme l’indique votre rapport, pour lutter efficacement contre la diffusion des contenus haineux sur internet, il faut prévoir un accompagnement, par des programmes ambitieux de lutte contre le harcèlement, notamment à l’école – c’est déjà le cas – mais pas uniquement. Il est primordial de former les enseignants, tant lors de leur formation initiale qu’en formation continue, afin que ceux-ci sachent réagir face aux situations de harcèlement. Il faut aussi sensibiliser les parents, qui n’ont pas toujours conscience de ce que font leurs enfants sur internet.

Le groupe UDI Agir et Indépendants ne formulera donc pas d’avis sur un texte dont nous savons déjà que les articles seront largement modifiés.

M. Michel Larive. Deux articles de la proposition de loi nous sont présentés. L’article 1er dispose que les plateformes sont tenues de retirer ou de rendre inaccessible dans un délai maximal de 24 heures après notification tout contenu comportant manifestement une incitation à la haine ou une injure discriminatoire à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap. Bien entendu, nous y sommes favorables. Mais l’auto-régulation nous inquiète. Ainsi, l’article 4 de la proposition de loi dispose que le CSA contribue à la lutte contre la diffusion de la haine sur internet, envoie des recommandations aux plateformes, suit les obligations pesant sur les opérateurs, publie un rapport périodique, etc. C’est bien joli, mais cela ne va pas vraiment faire trembler ces plateformes.

Je le répète, nous sommes favorables au retrait des contenus comportant une incitation à la haine ou à une injure liée à la race, la religion, l’ethnie, le sexe, l’orientation sexuelle ou le handicap. Mais la rédaction de la proposition de loi manque de clarté et cela emporte des conséquences sur celle des dispositifs qu’elle souhaite mettre en place et sur les différents pouvoirs mobilisés. Ainsi, quand elle mentionne l’autorité administrative chargée d’ordonner des actions aux plateformes et aux moteurs de recherche, elle ne détermine pas laquelle. Est-ce le CSA ou la police administrative d’une structure ad hoc ? La proposition de loi peut être dangereuse, comme le souligne le Conseil national du numérique (CNNum). Elle pourrait avoir un impact, insuffisamment évalué à son sens, sur les droits et libertés. Selon le CNNum, il faut tout d’abord, et urgemment, définir très précisément ce qu’est un discours haineux, tout comme il faut impérativement prévoir un juste équilibre entre le recours au mécanisme judiciaire, à la régulation et à l’autorégulation.

En matière de lutte contre les contenus haineux, le rôle du juge est fondamental pour éviter les abus, protéger les victimes et offrir les garanties d’indépendance nécessaires à l’égard tant des plateformes que du pouvoir exécutif. Les lois récentes – lutte contre la manipulation de l’information et droits voisins des éditeurs de presse en ligne – confèrent de plus en plus de pouvoirs aux plateformes. Cette dérive risque de les doter d’un rôle important de filtre des contenus sur internet.

Rien ne justifie l’urgence avec laquelle cette proposition de loi est examinée puisqu’une mission sur la régulation des réseaux sociaux est en cours et rendra ses conclusions fin juin, après le début de l’examen de cette proposition de loi. C’est dommage.

Mme Elsa Faucillon. Bien évidemment, l’objectif de cette proposition de loi est également le nôtre. Nous tentons par tous moyens, y compris dans le cadre de notre mandat et par notre action politique, de faire face et de lutter contre la haine – sur internet ou ailleurs. C’est un travail de longue haleine, ce qui ne doit pas nous empêcher d’agir vite et par la loi. Mais comment agir contre la haine sans restreindre la liberté d’expression ?

Nous avons les mêmes réserves sur cette proposition de loi que sur celle relative à la lutte contre la manipulation de l’information. L’accumulation de lois visant à réguler internet nous inquiète à plusieurs titres : la liberté d’expression est un des piliers des sociétés démocratiques. Il est fondamental de la préserver, comme il est fondamental de lutter contre la haine. Je fais miens les propos du Conseil d’État qui, dans une étude de 2014, estimait que l’essor d’internet ne modifie pas les limites pouvant être imposées à la liberté d’expression, mais amène à s’interroger sur les instruments de la lutte contre les contenus outrepassant ces limites.

L’article 1er de la proposition de loi dont notre commission est saisie exige que les plateformes suppriment en 24 heures les propos de nature haineuse et manifestement illicites. Cette mesure s’inspire de la loi allemande entrée en vigueur en 2018. On peut en faire un premier bilan : son application fait polémique, les plateformes étant accusées d’excès de zèle
– elles censurent des contenus qui ne relèveraient pas de propos illicites, en toute opacité. Facebook, Google et Twitter deviennent ainsi les seuls maîtres de ce qui peut, ou non, être dit sur internet. Or l’indépendance de ces plateformes est nulle.

Le Conseil national du numérique estime que les systèmes de modération des contenus encouragés par la proposition de loi pourraient conférer un avantage non négligeable aux grands acteurs, qui disposent déjà des capacités techniques et des ressources humaines, au détriment des acteurs plus petits. En novembre 2018, Mark Zuckerberg a été très clair : les petits acteurs d’internet ne peuvent pas faire face à la propagande terroriste, aux fausses informations ou à la haine en ligne seuls ; ils ont besoin de l’aide de Facebook. C’est pourquoi il se réjouissait que le Gouvernement français collabore avec lui pour réfléchir à l’élaboration de la loi !

L’article 4 dispose que le CSA émettra des recommandations, s’assurera du suivi des obligations reposant sur les opérateurs et publiera un bilan périodique. Cet article fixe également des obligations de transparence aux opérateurs de plateforme en matière de lutte contre les contenus comportant manifestement une incitation à la haine. Je redis ici les limites que nous avions déjà formulées lors de l’examen du projet de loi relatif à la lutte contre la manipulation de l’information : internet doit rester un vecteur de libération. Or une structure dédiée à la régulation audiovisuelle ne peut réguler les contenus sur internet. Exiger l’extension des principes de la régulation des contenus audiovisuels à internet est un contresens, car internet n’est pas marqué par les mêmes spécificités que le secteur audiovisuel.

M. Stéphane Testé. La proposition de loi que nous examinons ne prévoit de sanctions qu’en cas de manquement aux obligations de retrait d’un contenu, et non en cas de surcensure. Ne craignez-vous pas que les plateformes censurent abusivement pour se protéger d’actions intentées contre elles ?

Mme Emmanuelle Anthoine. Le harcèlement scolaire est une forme de discours de haine dont souffrent de trop nombreux enfants. Les plateformes numériques en sont un vecteur important, tout en lui donnant une ampleur dramatique. Face à la violence que subissent les élèves qui en sont victimes, ne pourrions-nous pas étendre le champ de la proposition de loi aux contenus relevant du harcèlement scolaire ?

M. Laurent Garcia. Je salue le travail de notre rapporteure, Mme Colboc. Le CSA se voit désormais attribuer des pouvoirs de sanction. Une de nos collègues l’a évoqué : comment ses pouvoirs s’articuleront-ils avec ceux du juge ? Comment le processus, entre la détection du contenu et la sanction, sera-t-il mis en musique ?

M. Pierre-Yves Bournazel. Ne faudrait-il pas que le CSA sanctionne uniquement le non-respect systématique par les opérateurs de plateformes de l’obligation de retrait sous 24 heures des contenus manifestement illicites, afin de ne pas exiger du Conseil un examen contenu par contenu ? Ne pensez-vous pas qu’un risque de sanction systématique pour chaque contenu aboutirait à une censure préventive des plateformes et donc, par extension, à une réduction progressive de la liberté d’expression en ligne ?

Mme Agnès Thill. Madame la rapporteure, je vous remercie de votre implication sur ce sujet important qu’est la lutte contre la haine en ligne.

Notre société se juge par le sort auquel nous exposons nos enfants. Aujourd’hui, quatre adolescents sur cinq ont accès ou sont inscrits sur les réseaux sociaux. En conséquence, ils bénéficient d’une liberté sans précédent par rapport aux générations passées, mais sont surtout exposés à des propos haineux – dont ils sont la cible – et à des contenus violents ou pornographiques. Même entourés, les enfants font face à une diversité sans limite de manifestations de haine. Ils voient des images violentes dès l’école primaire.

Comment ce texte cible-t-il la protection en amont des mineurs face à la haine et à la violence sur internet ? Quels seront les nouveaux instruments de cette lutte ? Dans quelle mesure et avec quels moyens la proposition de loi permet-elle d’entendre, puis de protéger les enfants mineurs victimes de la haine et de la violence sur internet ? Pouvez-vous nous exposer le degré d’investissement des grandes plateformes numériques dans la lutte contre la haine sur internet, quelle que soit sa forme ?

Mme Valérie Bazin-Malgras. Ma question porte sur la levée de l’anonymat sur les plateformes. Pour lutter contre les contenus haineux sur internet, il faut se donner les moyens d’obtenir leur retrait dans les délais les plus brefs, ce que prévoit cette proposition de loi. La sanction de tels contenus est déjà prévue par la loi, et la présente proposition vise à intervenir pour leur suppression, mais rien n’est prévu pour renforcer la dissuasion de diffuser de tels contenus. Dans la proposition de loi n° 1776, que j’ai rédigée, il était prévu que les utilisateurs des réseaux sociaux s’enregistrent sous leur identité réelle, ce qui constitue un moyen de dissuasion. Pensez-vous insérer une telle obligation dans ce texte ?

Mme Céline Calvez. Cette proposition de loi prévoit un véritable arsenal contre les propos haineux ou injurieux sur internet et vous soulignez dans le rapport le nouveau rôle qui incombe au CSA, « l’extension du domaine de la lutte ». Pour mettre fin à l’irresponsabilité des hébergeurs, ce texte prévoit un mécanisme facilité de signalement des contenus comportant une incitation à la haine ou une injure discriminatoire. Les opérateurs de plateforme en ligne devront rendre leur retrait effectif dans un délai maximum de 24 heures après notification. Un bouton unique sera ainsi instauré pour tout signalement. Ce système repose toutefois sur la diligence des utilisateurs des plateformes et sur leur capacité à repérer de tels contenus. Que faire lorsque des utilisateurs signalent un contenu haineux sur certains des services et non sur les autres, où ces contenus seraient par conséquent toujours disponibles ? Les différents opérateurs pourraient-ils être informés des contenus signalés chez leurs concurrents pour, à leur tour, les déréférencer s’ils les hébergent ? Que pensez-vous de la création d’une plateforme commune de signalement ?

Mme Florence Granjus. À la page 13 de votre projet de rapport, vous précisez les actions spécifiques à mener à l’égard des plus jeunes et de leurs parents, vous soulignez le rôle pédagogique et préventif des institutions en charge de la jeunesse et du monde associatif et vous précisez également que l’école est le lieu privilégié d’une intervention visant à assurer le respect des règles élémentaires de civisme en ligne. Vous rappelez que la formation des enseignants est également capitale, et proposez qu’une fiche sur l’utilisation sécurisée d’internet et des réseaux sociaux soit mise à disposition des parents. Or, constat effrayant, seuls 10 % des victimes mineures parlent de leur problème à leurs parents. Comment mieux former les enseignants à détecter les enfants susceptibles d’être touchés par la haine exprimée sur internet ? Que pourrait-on faire pour orienter plus efficacement les victimes vers les plateformes d’écoute spécialisées, afin qu’elles soient plus rapidement prises en charge et accompagnées ?

M. Bertrand Sorre. Je tiens à mon tour à saluer le travail de la rapporteure pour avis. Il existe aujourd’hui de nombreuses associations spécialisées dans le domaine de la prévention de la haine, des discriminations et du harcèlement en ligne. Elles me paraissent constituer des ressources majeures dans la lutte contre la haine sur internet. Comment valoriser davantage le rôle et l’expertise de ces associations spécialisées au travers de cette proposition de loi ?

Mme Aurore Bergé. Bien que de nombreux citoyens soient victimes de propos haineux sur internet, l’appréciation des contenus dénoncés peut s’avérer délicate. Le fait que cette compétence soit attribuée à une autorité administrative indépendante présente une difficulté d’ordre constitutionnel en matière de contrôle. Comment pensez-vous que celle-ci puisse être levée ?

Par ailleurs, comment pourra-t-on articuler l’élargissement des prérogatives du CSA et sa possible fusion avec la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (HADOPI) dans le cadre d’une réorganisation des autorités de régulation des contenus audiovisuels ?

M. Stéphane Claireaux. Le texte de loi visant à lutter contre la haine sur internet prévoit dans son article 1er, outre un dispositif simplifié de signalement de contenus haineux, une obligation pour les plateformes concernées de retirer lesdits contenus dans un délai maximum de 24 heures après en avoir reçu le signalement. Le fait que ces contenus soient protéiformes – il peut s’agir d’un écrit, d’une photo, d’une vidéo ou d’un simple lien – rend plus difficiles leur repérage et leur qualification. Ces contenus étant par ailleurs d’une extrême viralité, ils peuvent se propager très rapidement dès qu’ils sont publiés. Existe-t-il un moyen pour les hébergeurs de tracer la publication d’une forme numérique d’incitation à la haine lorsque celle-ci est relayée sur d’autres sites que le leur ? La proposition de loi vise à tarir en 24 heures la source qui abreuve la toile de propos haineux, mais comment endiguer les reprises, relais et copies de ces propos ailleurs sur internet ?

Mme Jacqueline Dubois. L’article 28 ter de la directive européenne du 10 mars 2010 relative aux services de médias audiovisuels modifiée par la directive du 14 novembre 2018 contraint les États membres à prendre des mesures pour protéger les mineurs et le grand public des vidéos incitant à la violence ou à la haine fondée notamment sur les convictions, les opinions politiques ou toute autre opinion. Or, durant l’épisode de contestation des Gilets jaunes, de nombreux députés ont été la cible d’insultes, de menaces, d’appels à la haine sur internet en raison de leur fonction ou de leur appartenance à un parti politique. Ne faudrait-il donc pas étendre le champ de la proposition de loi à ce type de situations ?

Mme Danièle Cazarian. Les propos appelant à la haine sur la toile sont en recrudescence. Internet et les réseaux sociaux, que l’on qualifie à juste titre d’accélérateurs de contenus, sont aujourd’hui les principaux lieux de propagation des propos incitant à la violence, notamment de vidéos retransmises en direct et qui restent parfois en ligne en toute impunité. Il est impératif que les dispositions législatives priment les conditions générales d’utilisation des opérateurs. Si la préservation de la sécurité et de la dignité de nos concitoyens repose sur une législation efficace, elle dépend également de notre action en matière de prévention. Quels mécanismes pouvons-nous mettre en place pour prévenir les appels à la violence sur internet, et sur les réseaux sociaux en particulier ?

Mme Florence Provendier. Madame la rapporteure, je vous remercie du travail que vous avez mené au nom de notre commission sur cette proposition de loi si importante pour lutter contre le fléau de la haine en ligne et sa banalisation.

Dans l’espace numérique, les enfants sont seuls, livrés à eux-mêmes et aux autres, seuls face à la diversité des manifestations de haine. Cette situation est totalement contraire au principe réaffirmé par la Convention internationale des droits de l’enfant selon lequel l’enfant a besoin d’une protection spéciale. À ce titre, il ne doit pas être livré à lui-même. On constate malheureusement aujourd’hui qu’il existe un écart générationnel entre les parents et les enfants en ce qui concerne l’usage d’internet. Peu de parents imaginent la violence constante à laquelle les enfants peuvent être confrontés en ligne ; images choquantes, contenus pornographiques, propos injurieux, racistes ou homophobes. Pour plus de 42 % des 11-18 ans, il n’est pas question d’en parler. C’est toutefois la seule manière d’endiguer la banalisation de la haine. Beaucoup de jeunes victimes ou témoins de cette haine alternent entre peur, impuissance et honte face au phénomène. La présente proposition de loi vise à faire cesser le sentiment d’impuissance grâce aux signalements par les internautes avec l’obligation pour les plateformes de supprimer les contenus dans les 24 heures. Qu’en est-il cependant pour les mineurs exposés à ce type de contenu et dont le discernement n’est pas total ? Quels dispositifs pourrait-on inscrire dans ce texte afin de protéger les enfants des contenus haineux ?

M. Cédric Roussel. Face aux insultes et aux humiliations postées en ligne chaque jour et visibles par tous, l’intervention du législateur apparaît nécessaire. Personne ici ne veut que ses enfants banalisent la dévalorisation de l’autre via un écran, sans souci des conséquences réelles. Internet offre une multitude d’opportunités, mais l’absence d’une véritable régulation des contenus peut les rendre plus nuisibles que constructives. La présente proposition de loi permettra à cet espace de partage de redevenir un lieu de mise en commun de connaissances et d’avis éclairés et responsables. Si les plateformes doivent adopter dès à présent un comportement responsable face à ces agissements répréhensibles, c’est véritablement dans le domaine de la prévention envers le jeune public et les parents que nous devons travailler. Permettre au citoyen de développer son esprit critique et son sens de la responsabilité, c’est lui permettre de jouir pleinement de sa liberté d’expression. C’est à cette condition que celle-ci pourra être exercée dans le respect absolu d’autrui. Le ministre Jean-Michel Blanquer a récemment fait plusieurs annonces sur la lutte contre le harcèlement : comment, à partir des outils juridiques mis à notre disposition, impulser une culture de responsabilité face aux dangers d’internet auprès du jeune public et des parents ?

Mme Danièle Hérin. Le filtrage des contenus, en particulier des images et des vidéos, est très coûteux. Les grandes plateformes des géants de l’informatique ayant beaucoup plus de moyens que les plateformes plus récentes, elles se trouvent avantagées pour l’utilisation de ces techniques. Existe-t-il des études sur le sujet ? Avez-vous réfléchi à ce problème ?

Mme Sophie Mette. Les campagnes de désinformation russes, la diffusion en direct des attentats de Christchurch, la crise des gilets jaunes ou dernièrement les fausses informations sur les populations roms montrent que la haine sur internet a pour vecteur principal les réseaux sociaux. Facebook étant le plus grand réseau social au monde et la principale porte d’entrée vers l’information pour des millions de gens, cette entreprise devrait avoir une responsabilité forte en matière d’accès à l’information. Or en fait de déontologie, il n’y a que l’autorégulation d’une entreprise multinationale. Dans ces conditions, ne pensez-vous pas qu’il conviendrait d’instaurer un nouveau rapport de force entre les réseaux sociaux et les individus ? Nous avons tous conscience du problème que posent ces grandes entreprises du numérique qui sont désormais partie intégrante de nos vies, et parce que ce problème soulève des enjeux importants, il est nécessaire d’y apporter une réponse forte. Que pensez-vous de l’idée de créer une autorité administrative spécifique dont la seule prérogative serait de réguler les réseaux sociaux ? En effet, l’autorégulation ne semble pas fonctionner, comme l’a souligné un rapport parlementaire britannique qui vise à empêcher que les entreprises comme Facebook continuent à se comporter comme des « gangsters du numérique ».

Mme Marie-George Buffet. Telle qu’elle est aujourd’hui rédigée, la proposition de loi suscite mon inquiétude sur un point en particulier : le pouvoir donné aux plateformes. En contraignant ces dernières à retirer dans les 24 heures les contenus signalés comme incitant à la haine, ne court-on pas le risque qu’elles exercent une forme de censure à l’encontre de propos qui leur déplairaient pour des raisons de sensibilité propre, notamment politique ? Pouvez-vous nous rassurer sur ce point, madame la rapporteure ?

Mme Frédérique Meunier. L’article 2 rappelle que les plateformes devront mettre en œuvre les moyens humains ou technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus. Twitter, qui draine chaque jour des millions de messages, devra donc prévoir une armée de modérateurs en mesure de traiter toutes les notifications reçues, qu’elles soient sérieuses ou farfelues. Pensez-vous qu’un délai de 24 heures pour le retrait des publications signalées soit réaliste au vu du nombre de notifications à traiter ?

Mme Fabienne Colboc, rapporteure pour avis. Je suis heureuse de constater que nous sommes d’accord sur le constat et partageons les mêmes objectifs. J’entends vos craintes, notamment en matière de droits et libertés ; mes amendements visant à y répondre, nous y reviendront dans quelques instants. J’ai pris note de vos remarques sur l’efficacité de cette proposition et sur les nouveaux pouvoirs conférés au CSA. Je vous proposerai également plusieurs amendements sur ces sujets, sachant que nous devons tenir compte du cadre législatif européen. Cette proposition de loi vise à créer un nouveau rapport de force ; si les moyens proposés se révèlent inefficaces, il nous incombera d’aller plus loin.

S’agissant du CSA, une application rigoureuse des dispositions du texte requiert une augmentation importante de ses moyens humains. C’est la raison pour laquelle je propose de lui conférer un pouvoir de sanction limité à l’obligation de moyens, la sanction de l’obligation de résultat revenant au juge judiciaire ; c’est d’ailleurs la solution retenue par le Conseil d’État. Le CSA doit être un régulateur, et non un juge. L’amendement que je propose à l’article 4 répond ainsi à vos craintes sur les moyens : moins d’une dizaine d’équivalents temps plein (ETP) supplémentaires seraient alors nécessaires.

Concernant le rapprochement du CSA avec l’ARCEP, il serait préférable d’attendre la discussion du projet de loi audiovisuel.

Je suis également l’avis du Conseil d’État sur la création d’une infraction autonome réprimée par le juge judiciaire en cas de non-retrait après 24 heures ; le CSA, régulateur, pourra ainsi appuyer ses analyses sur les plaintes et les condamnations prononcées.

Sur la prévention, les jeunes ne sont pas les seuls concernés. Il est néanmoins plus difficile de toucher le public plus âgé dans son ensemble autrement que par la sensibilisation opérée par les plateformes elles-mêmes. Plusieurs amendements de Mme Bannier et de Mme Kuster vont dans ce sens. Ce n’est toutefois pas le champ de compétence de notre commission ; c’est pourquoi je me suis centrée sur les élèves et, plus généralement, les jeunes. Les enseignants doivent à cet égard disposer de clés pour juguler ce phénomène et être en mesure de détecter les potentielles victimes.

Quant au risque de censure, de sur-retrait, il existe, et nous avons pu le constater avec Twitter. Ce ne serait toutefois pas dans l’intérêt des plateformes d’agir ainsi, car leurs utilisateurs seraient alors tentés de partir chez leurs concurrents. Ce sujet est donc à suivre de près, notamment dans les recommandations adressées par le CSA aux plateformes.

Le ministre Jean-Michel Blanquer a fait des annonces claires sur le harcèlement scolaire et proposé des mesures spécifiques, notamment la création d’un label « non au harcèlement » pour les établissements les plus à la pointe dans la lutte contre ce fléau. D’autres mesures concernent plus généralement la lutte contre l’homophobie, contre les propos racistes et antisémites. Des propositions ont également été faites sur la formation initiale et continue des enseignants. La mallette des parents, enfin, est un outil dont dispose l’Éducation nationale pour l’information des parents d’élèves. Le guide « La Famille Tout-Écran » gagnerait à être plus largement diffusé en direction des familles, et tout le travail réalisé doit être valorisé.

Mme Emmanuelle Anthoine. C’est de la prévention !

Mme Fabienne Colboc, rapporteure pour avis. Il s’agit bien de prévention. Le texte portant spécifiquement sur les contenus haineux, il conviendra de traiter le problème du cyber-harcèlement dans le cadre du projet de loi audiovisuel, qui aura également pour objet la régulation du numérique.

Madame Dubois, vous m’avez interrogée sur la prise en compte des propos haineux visant les élus ; nous y reviendrons lors de l’examen de l’amendement de Mme Bannier.

Pour valoriser l’expertise des associations spécialisées dans le domaine de la lutte contre la haine et contre les discriminations soulignée par M. Sorre, je propose dans un amendement à l’article 4 de leur reconnaître un rôle particulier d’alerte auprès du CSA.

J’en viens au sujet de l’anonymat en ligne. Entre les tenants d’un internet libre et ceux qui veulent réglementer l’espace numérique de la même façon que l’espace public, il y a un écart non négligeable. L’équilibre trouvé par la loi pour la confiance dans l’économie numérique me paraît bon : ceux qui produisent et diffusent des contenus sur internet sont tenus de fournir leurs coordonnées à l’hébergeur, lequel est tenu de les transmettre à la justice le cas échéant. Un durcissement des règles dans ce domaine ne serait pas efficace, car ceux qui les contournent déjà aujourd’hui n’auront aucun mal à le faire demain.

Concernant la traçabilité, il existe des moyens de repérer des contenus identiques grâce à l’intelligence artificielle, mais ces technologies ont encore des limites, notamment quand le contenu est légèrement modifié par rapport à l’original. C’est pourquoi il est accordé une telle importance au signalement, dont la procédure doit être simplifiée pour les utilisateurs et les associations qui peuvent œuvrer dans ce domaine. Il faudra également promouvoir la coopération entre plateformes, car rien n’est prévu en cas de suppression d’un contenu par l’une d’entre elles à la suite d’une décision judiciaire. Les représentants des réseaux sociaux que nous avons auditionnés sont d’ailleurs favorables à un partage d’informations pour neutraliser la viralité des propos haineux. Le CSA pourra formuler de recommandations en ce sens.

La commission en vient à l’examen des articles.

Article 1er

La commission examine l’amendement AC24 de M. Michel Larive.

M. Michel Larive. Cet article met en place une contrainte sur les plateformes, qui devront retirer les contenus comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap, ce à quoi nous sommes évidemment favorables. Mais nous avons des doutes quant à l’efficience de ce dispositif, qui ne s’accompagne pas réellement d’une prise en charge des victimes. Pire encore, on laisse aux plateformes, dont le modèle économique repose sur l’échange de messages qui font le buzz et qui, par suite, répandent la haine, le soin d’être leurs propres régulateurs. D’autres solutions, prônées par des associations, notamment La Quadrature du Net, nous ont semblé plus à même de lutter contre la haine via la mise en place de l’interopérabilité des plateformes, que le groupe La France insoumise défendra en commission des Lois. Enfin, le pouvoir de sanction du CSA est très rarement utilisé, et nous pensons que la menace d’une sanction pécuniaire de 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent n’est qu’une incantation. Nous partageons votre façon de poser le problème, mais les solutions que vous proposez nous paraissent inefficaces. C’est pourquoi nous demandons la suppression de l’article dans sa rédaction actuelle.

Mme Fabienne Colboc, rapporteure pour avis. Je suis heureuse que vous partagiez l’objectif général de la proposition de loi de ma collègue Laëtitia Avia. Concernant la protection des victimes, elle est garantie par le droit pénal et civil existant, et il n’est pas utile de créer de nouveaux dispositifs. Des moyens supplémentaires pour la justice seraient néanmoins probablement nécessaires, je vous l’accorde.

Je ne peux pas vous laisser dire que le CSA n’applique jamais les sanctions prévues, soit jusqu’à 3 % du chiffre d’affaires pour les chaînes de télévision et de radio qui commettent des manquements graves. Il le fera donc aussi pour les opérateurs de plateforme, à l’instar de ce que fait aujourd’hui la Commission nationale de l’informatique et des libertés (CNIL). Google a ainsi été condamné récemment à 50 millions d’euros d’amende, un montant significatif. Je n’ai donc aucune crainte quant à ce que cette possibilité légale soit utilisée par le CSA toutes les fois qu’il le jugera nécessaire.

Je vous rejoins cependant sur le fait qu’en l’état actuel, le dispositif de la proposition de loi n’est pas satisfaisant et risque de se heurter à des problèmes de mise en œuvre. C’est la raison pour laquelle je vous propose de transférer la sanction administrative à l’article 4 et de la faire porter sur l’obligation de moyens à la charge des plateformes, et non sur l’obligation de résultat, c’est-à-dire sur le non-retrait en 24 heures. Le CSA ne pourra en effet faire face à l’afflux de demandes, et ce n’est d’ailleurs pas son rôle.

Je vous demande de bien vouloir retirer votre amendement, car celui que je propose répondra à vos préoccupations. À défaut, l’avis sera défavorable.

M. Raphaël Gérard. J’ai moi-même rencontré l’association La Quadrature du Net, qui propose une solution techniquement intéressante, l’interopérabilité des grandes plateformes avec les autres services internet. Mais celle-ci a pour défaut de ne pas tenir compte des pratiques. Si les utilisateurs vont vers des plateformes telles que Twitter ou Snapchat, c’est principalement pour leur attractivité, pour leur visibilité.

Quant au CSA, il est intervenu à de très nombreuses reprises l’année dernière dans le domaine audiovisuel à la suite de signalements de propos racistes, homophobes ou antisémites. On ne peut donc pas affirmer qu’il n’intervient pas suffisamment.

M. Michel Larive. Il importe de définir clairement les prérogatives du CSA, et leur articulation avec celles du juge judiciaire. J’aimerais également qu’on cite un exemple de condamnation par le CSA à une sanction de 4 % du chiffre d’affaires annuel mondial, car l’amende de 50 millions d’euros prononcée à l’encontre de Google est très loin de cette proportion.

Mme Fabienne Colboc, rapporteure pour avis. Radio Courtoisie a été condamnée en 2017 à verser 3 % de son chiffre d’affaires.

M. Michel Larive. Mais pas 4 % !

Mme Fabienne Colboc, rapporteure pour avis. Pour les services de médias audiovisuels, le quantum maximal est bien de 3 %. Le chiffre de 4 % est repris du règlement général sur la protection des données (RGPD).

La commission rejette l’amendement.

Elle en vient à l’amendement AC6 de Mme Brigitte Kuster.

Mme Brigitte Kuster. La lutte contre les contenus haineux publiés sur internet, un objectif d’intérêt général, commande d’effacer la distinction que la loi opère entre le statut d’éditeur et celui d’hébergeur. Cet amendement prévoit qu’une fois le contenu illicite notifié, les opérateurs de plateforme en ligne comme leurs hébergeurs sont tenus, dans un délai de 24 heures, de procéder à sa suppression ou à son retrait et que, en cas de manquement, ils sont soumis au même régime de sanction.

Mme Fabienne Colboc, rapporteure pour avis. La commission s’est saisie pour avis de ce texte en raison du rôle confié au CSA, mais n’est pas concernée, à titre principal, par le régime décrit dans la loi pour la confiance dans l’économie numérique quant aux contenus haineux. Je ne pourrai donc vous apporter une réponse aussi éclairée que celle de la rapporteure au fond sur ce sujet. Néanmoins, tel qu’il est rédigé, votre amendement risque d’entraîner une certaine confusion car il donne l’impression que les opérateurs de plateforme en ligne visés par le code de la consommation ne sont pas des hébergeurs au sens de la LCEN et de la directive e-commerce. Les opérateurs de plateforme ne sont pas hébergés par d’autres : ils sont des hébergeurs. J’y suis donc défavorable.

La commission rejette l’amendement.

Elle examine l’amendement AC4 de Mme Anthoine.

Mme Emmanuelle Anthoine. Le 15 mai dernier, la France a lancé aux côté de la Nouvelle-Zélande l’appel de Christchurch exprimant sa volonté de lutter contre les contenus terroristes et extrémistes violents sur le net. L’examen de cette proposition de loi est l’occasion de donner corps à cet engagement en ajoutant les contenus terroristes et extrémistes violents à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement. Tel est l’objet de cet amendement.

Mme Fabienne Colboc, rapporteure pour avis. À nouveau, je ne suis pas la mieux à même de donner un avis sur des sujets qui concernent plus directement la rapporteure au fond, mais il me semble que votre amendement est couvert, du moins en partie, par les dispositions de l’article 6-1 de la LCEN, qui prévoit une procédure de retrait spécifique pour les contenus terroristes. Quant aux contenus extrémistes et violents, ils ont généralement un ressort discriminatoire qui peut les faire entrer dans le champ des provocations à la haine ou à la violence raciste ou homophobe, par exemple. Votre amendement étant largement satisfait, mon avis est défavorable.

La commission rejette l’amendement.

Elle en vient à l’amendement AC20 de Mme Anthoine.

Mme Emmanuelle Anthoine. Le harcèlement scolaire touche plus d’un jeune français sur dix, soit 750 000 enfants chaque année. Nous devons donc réagir. Trop de jeunes, chaque année, mettent fin à leurs jours à cause de telles situations. Le harcèlement scolaire se définit par la violence, les agressions régulières, verbales, physiques ou psychologiques. Les enfants sont insultés, bousculés, menacés, battus ou injuriés. Cette réalité insoutenable ne doit pas avoir sa place au sein de l’école de la République. C’est pourquoi nous proposons par cet amendement d’ajouter le harcèlement scolaire à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement.

Mme Fabienne Colboc, rapporteure pour avis. Je suis comme vous indignée par le harcèlement scolaire, mais ce sujet s’éloigne de celui de la haine en ligne à caractère discriminatoire. En outre, sur le plan rédactionnel, la notion de « forme de harcèlement scolaire » me paraît insuffisamment précise. Le harcèlement scolaire n’est pas une infraction en tant que tel, et en usant d’une expression qui ne renvoie pas à une infraction caractérisée, vous encourez un risque de censure constitutionnelle. Les mesures très récemment annoncées par le ministre de l’Éducation nationale, comme le programme clé en main pour tous les établissements et les réseaux départementaux d’intervention, me paraissent d’ailleurs répondre à vos préoccupations. Avis défavorable.

La commission rejette l’amendement.

Elle examine l’amendement AC23 de Mme Emmanuelle Anthoine.

Mme Emmanuelle Anthoine. Nous proposons d’ajouter la notion d’atteinte à l’intimité de la vie privée d’autrui. La diffusion de contenu portant atteinte à l’intimité d’autrui a de lourdes répercussions pour les victimes. Les femmes sont le plus souvent victimes de la diffusion de contenus intimes de la part de leur ex-conjoint ou ex-compagnon dans le contexte d’une séparation. Elles en souffrent souvent comme d’un viol car elles sont atteintes dans leur intimité.

Plus généralement, tout individu a droit au respect de sa vie privée comme le consacre notamment l’article 8 de la Convention européenne des droits de l’homme.

De même, l’article 9 du code civil affirme que « chacun a droit au respect de sa vie privée. » Le droit à l’image se fonde sur cette disposition. Par sa jurisprudence, la cour d’appel de Paris a posé, en 1982, le principe selon lequel que « le droit au respect de la vie privée, permet à toute personne, fût-elle artiste du spectacle, de s’opposer à la diffusion, sans son autorisation expresse, de son image, attribut de sa personnalité. »

La jurisprudence consacre aussi une neutralité technologique permettant que le droit à l’image s’applique de la même manière lorsque l’atteinte à l’image a lieu sur internet.

Il convient dès lors d’ajouter les atteintes à la vie privée d’autrui à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement.

Mme Fabienne Colboc, rapporteure pour avis. Vous souhaitez étendre l’obligation de retrait aux contenus constitutifs de l’infraction d’atteinte à l’intimité de la vie privée. Là encore, il me semble que l’on quitte un peu le champ de la haine en ligne à caractère discriminatoire. Certains faits peuvent être très graves, mais il faudrait les cibler et retenir un champ moins large que celui que vous proposez.

En outre, vous avez omis de préciser le caractère manifestement illicite nécessaire au respect de la jurisprudence constitutionnelle dans ce domaine. Avis défavorable.

La commission rejette l’amendement.

Puis elle examine l’amendement AC9 de Mme Brigitte Kuster.

Mme Brigitte Kuster. Les images violentes ou à caractère terroriste trouvent un champ d’expression et de diffusion extrêmement large sur les plateformes en ligne. Si les opérateurs parviennent, souvent avec les plus grandes difficultés, à extraire les contenus violents les plus relayés, beaucoup d’images particulièrement choquantes échappent à leur vigilance.

À l’heure de l’Appel de Christchurch, lancé depuis l’Élysée par le Président de la République et la Première ministre néo-zélandaise, en présence des principaux éditeurs mondiaux de contenus sur internet, il serait incompréhensible que la lutte contre les images violentes ou à caractère terroriste ne soit pas spécifiquement intégrée à la présente proposition de loi.

C’est pourquoi je vous propose de compléter le premier alinéa, en insérant « des images violentes ou à caractère terroriste » après le mot « comportant ».

Mme Fabienne Colboc, rapporteure pour avis. J’émets le même avis que pour les amendements précédents, notamment l’amendement AC2, pour les mêmes raisons.

La commission rejette l’amendement.

Puis elle se saisit de l’amendement AC32 de M. Raphaël Gérard.

M. Raphaël Gérard. C’est le premier d’une série d’amendements qui ont le même objet. Je vais développer mon argumentaire pour celui-ci, ce qui me permettra d’être plus rapide dans la défense des suivants.

Pour vous expliquer pourquoi il serait utile d’ajouter la notion d’identité de genre, je vais m’appuyer sur le cas médiatisé de Julia Boyer, car cette affaire montre bien le cheminement des propos haineux. Cela commence dans la rue par l’agression d’une jeune femme transgenre, place de la République. Ensuite, l’agression arrive sur les réseaux sociaux par le biais de contenus vidéo largement partagés. Ces contenus sont accompagnés de commentaires de soutien mais aussi de commentaires vraiment haineux, ceux que cible le présent texte. L’ajout proposé permettrait de ne pas écarter ce type de haine qui est vraiment fréquent sur internet.

Mme Fabienne Colboc, rapporteure pour avis. Je suis favorable à cet amendement de précision et de coordination.

La commission adopte l’amendement.

Puis elle examine l’amendement AC16 de Mme Béatrice Descamps.

Mme Béatrice Descamps. Parmi les différents sujets de haine ciblés par le présent article – religion, race, ethnie, sexe, orientation sexuelle, handicap –, il manque la discrimination d’ordre physique. Cette précision permet d’englober les nombreux cas de « grossophobie » mais également les propos insultants en raison de la maigreur, de la couleur des cheveux ou de toute particularité d’ordre physique. Rappelons le cas de Mattéo, un collégien de treize ans, qui s’est suicidé en 2013 parce qu’il était harcelé en raison de sa couleur de cheveux.

Mme Fabienne Colboc, rapporteure pour avis. Si nous adoptons l’amendement rédactionnel AC31 de notre collègue Raphaël Gérard, qui viendra en discussion dans quelques instants, les discriminations fondées sur l’apparence physique entreront bel et bien dans le champ de la proposition de loi, par le biais de la mention, à l’article 24 de la loi de 1881, de l’article 225-2 du code pénal, qui fait lui-même référence à l’article 225-1 du même code citant l’apparence physique. Votre amendement sera alors satisfait. Je demande donc son retrait au profit de l’amendement AC31.

L’amendement est retiré.

La commission est saisie de l’amendement AC25 de Mme Géraldine Bannier.

Mme Géraldine Bannier. Je propose de mentionner les élus ou représentants de l’autorité publique dans cet article. En tant qu’élus, nous pouvons être attaqués sur les réseaux sociaux, mais j’ai pensé également aux enseignants et aux représentants des forces de l’ordre. Du seul fait de représenter l’État, ces personnes peuvent être fragilisées et particulièrement visées sur les plateformes.

L’amendement propose d’ajouter ces contenus qui, pour l’instant, ne sont pas visés comme les propos haineux ou injurieux tenus envers des personnes en raison de la race, la religion, l’ethnie, le sexe, l’orientation sexuelle ou le handicap.

Mme Fabienne Colboc, rapporteure pour avis. Je suis assez partagée sur ce point, car le personnel politique est, en proportion, largement visé par les propos haineux. C’est notamment ce qui ressort de l’enquête Netino sur la haine en ligne : 31 % des propos haineux concernent en effet des personnalités médiatiques ou politiques.

Cela étant dit, je ne pense pas qu’il faille mettre sur le même plan les injures racistes ou homophobes et les injures à l’égard des élus. Du reste, les peines prévues par la loi de 1881 sont très différentes : une amende de 12 000 euros pour l’injure aux élus, contre un an d’emprisonnement et 45 000 euros d’amende pour les injures racistes ou homophobes. C’est la raison pour laquelle je suis défavorable à votre amendement.

La commission rejette l’amendement.

Puis elle examine, en discussion commune, l’amendement AC31 de M. Raphaël Gérard et l’amendement AC15 de Mme Béatrice Descamps.

M. Raphaël Gérard. Mon amendement vise à clarifier et à mieux coordonner le champ de l’obligation de retrait des contenus d’incitation à la haine par les plateformes, en renvoyant aux septièmes et huitième alinéas de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse, afin d’être en phase avec les textes existants.

M. Michel Zumkeller. Notre amendement AC15 répond à la même volonté de simplification.

Mme Fabienne Colboc, rapporteure pour avis. Je suis favorable à l’amendement rédactionnel AC31 qui vise à corriger une coquille de la proposition de loi concernant les alinéas de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse.

L’amendement AC15 fait référence aux articles 24 et 33 de la loi du 29 juillet 1881. Or les infractions visées à l’article 33 ne sont absolument pas identiques à celles de l’article 24 puisqu’il s’agit d’injures publiques. Seules les circonstances aggravantes sont communes. Cet amendement reviendrait donc à restreindre le champ de la proposition de loi aux infractions de provocation, ce qui n’est pas son seul objet. J’émets donc un avis défavorable à l’amendement AC15.

M. Michel Zumkeller. J’aimerais faire une remarque relative à l’organisation générale et à l’ambiance de nos travaux, notamment la semaine dernière. À chaque fois qu’il y a deux amendements identiques, c’est toujours celui de la majorité qui est gardé. Vous faites comme vous voulez, mais je vous le redis très gentiment : la majorité pourrait, de temps en temps, faire un geste pour reconnaître que les idées de l’opposition ne sont pas toujours mauvaises.

M. le président Bruno Studer. Dans le cas présent, monsieur Zumkeller, les deux amendements sont en discussion commune mais ils ne sont pas identiques. Cela étant dit, votre message sera reçu par ses destinataires.

La commission adopte l’amendement AC31.

En conséquence, l’amendement AC15 tombe.

La commission examine l’amendement AC46 de la rapporteure pour avis.

M. le président Bruno Studer. Pour la clarté de nos débats, je signale que l’adoption de l’amendement AC46 ferait tomber les suivants jusqu’à l’amendement AC33 de M. Gérard. Si les auteurs de ces amendements le souhaitent, ils pourront prendre la parole après l’intervention de Mme la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement supprime l’alinéa 2 de l’article 1er afin de faire figurer la sanction par le CSA à l’article 4 de la proposition de loi, tirant ainsi les conséquences de l’avis du Conseil d’État.

M. Frédéric Reiss. Cet alinéa 2 était, en effet, relativement mal rédigé. Il y est indiqué que le montant des sanctions pécuniaires « peut prendre en considération la gravité des manquements. » Dans la nouvelle mouture de l’article 4, proposée par notre rapporteure, il est écrit « en tenant compte » de la gravité des manquements. En effet, la prise en compte de la gravité des manquements ne doit pas être une possibilité mais une obligation. Je comprends la suppression de cet alinéa 2 et la référence à l’article 4.

Mme Brigitte Kuster. Dans mon amendement AC7, je souligne aussi le caractère flou de la rédaction de cet article et particulièrement l’ambiguïté que le verbe « peut prendre » fait peser sur le pouvoir d’interprétation du CSA pour fixer le montant de la sanction pécuniaire. Mon amendement propose de remplacer « peut prendre » par « prend » pour lever cette ambiguïté.

Dans mon amendement AC8, je propose que le montant maximum de la sanction puisse atteindre 10 % du chiffre d’affaires mondial et ne pas être limité à 4 %.

La commission adopte l’amendement.

En conséquence, les amendements AC7 de Mme Brigitte Kuster, AC14 de M. Frédéric Reiss, AC17 de Mme Béatrice Descamps et AC8 de Mme Brigitte Kuster tombent.

La commission en vient à l’amendement AC33 de M. Raphaël Gérard.

M. Raphaël Gérard. Comme précédemment, il s’agit de compléter la notion d’orientation sexuelle par celle d’identité de genre.

Suivant l’avis favorable de la rapporteure pour avis, la commission adopte l’amendement.

Puis elle examine l’amendement AC29 de Mme Géraldine Bannier.

Mme Géraldine Bannier. Au dispositif de signalement et de recours prévu par les plateformes, nous proposons d’ajouter un dispositif de prévention. Il est important que les plateformes diffusent des messages de prévention à l’égard des utilisateurs, informant des conséquences très néfastes que peuvent avoir des discours haineux.

Mme Fabienne Colboc, rapporteure pour avis. Vous avez raison sur la nécessité d’agir en amont et de prévenir la création même de contenus haineux. C’est au moment de cliquer que l’utilisateur doit se demander si ce qu’il s’apprête à diffuser est contraire à la loi ou s’il reste dans les limites de la liberté d’expression, et si cela peut avoir des conséquences néfastes pour autrui. Mais je crois que ces dispositions auraient plutôt leur place à l’article 3 et qu’elles excèdent le champ de notre saisine. Je vous propose donc de retirer votre amendement et de le redéposer devant la commission des Lois.

L’amendement est retiré.

La commission émet ensuite un avis favorable à l’adoption de l’article 1er modifié.

Après l’article 1er

La commission est saisie de l’amendement AC12 de Mme Brigitte Kuster.

Mme Brigitte Kuster. L’objet de cet amendement est double : faire de l’injure publique un véritable délit de droit commun et ne plus la cantonner aux dispositions de la loi du 29 juillet 1881 sur la liberté de la presse ; durcir le cadre répressif en portant la sanction pécuniaire actuellement encourue de 45 000 à 70 000 euros.

Mme Fabienne Colboc, rapporteure pour avis. La loi sur la presse offre certaines garanties procédurales qui visent à protéger au mieux la liberté d’expression. Il y a notamment une différence en termes de prescription de l’action publique, qui est plus courte dans le cadre de la loi de 1881.

Le choix a été fait par la rapporteure au fond de ne pas toucher à l’équilibre de la loi de 1881, pour se concentrer sur la diffusion des messages haineux, dont c’est la viralité qui crée le plus de dommage.

Il y aurait un écart trop marqué, à mon sens, entre l’injure non publique raciste, punie d’une simple contravention par le code pénal, et l’injure raciste publique, qui ne bénéficierait plus de la procédure prévue par la loi de 1881. Je crois préférable de ne pas toucher à cet équilibre. Avis défavorable.

La commission rejette l’amendement.

Après l’article 3

La commission examine l’amendement AC11 de Mme Brigitte Kuster.

Mme Brigitte Kuster. L’article 3 impose à dessein aux opérateurs d’informer leurs utilisateurs qui s’estiment victimes de contenus haineux sur les recours, y compris judiciaires, dont ils disposent pour y mettre un terme. Mais le parallélisme des formes semble requis s’agissant de ceux qui publient lesdits contenus.

Le présent amendement propose que les opérateurs communiquent auprès de leurs utilisateurs sur les sanctions qu’ils encourent en cas de manquement à leurs obligations. Une telle disposition pourrait présenter un caractère dissuasif.

Mme Fabienne Colboc, rapporteure pour avis. Je n’ai pas d’objection de fond à l’égard de cet amendement, mais je considère qu’il dépasse le champ de notre saisine qui vise surtout le CSA. Je vous demande donc de le retirer pour le redéposer devant la commission des Lois, à l’article 3, puisque c’était votre intention première.

L’amendement est retiré.

Article 4

La commission est saisie de l’amendement AC47 de la rapporteure pour avis.

M. le président Bruno Studer. Cet amendement de la rapporteure fera tomber les amendements suivants jusqu’à l’amendement AC35. Leurs auteurs pourront prendre la parole après l’intervention de la rapporteure.

Mme Fabienne Colboc, rapporteure pour avis. Plutôt que de donner une compétence générale au CSA en matière de haine en ligne, le présent amendement vise à renvoyer de façon précise aux dispositions de la loi, dans l’attente d’une refonte plus large des missions du CSA.

La commission adopte l’amendement.

En conséquence, les amendements AC3 de Mme Valérie Bazin-Malgras, AC10 de Mme Brigitte Kuster, AC21 et AC22 de Mme Emmanuelle Anthoine, AC18 de Mme Béatrice Descamps, AC34 de M. Raphaël Gérard et AC26 de Mme Géraldine Bannier tombent.

La commission en vient à l’amendement AC35 de M. Raphaël Gérard.

M. Raphaël Gérard. Je ne suis pas complètement sûr de la rédaction de cet amendement, que nous pourrons améliorer d’ici à la séance. Il s’agit de créer un conseil scientifique au sein du CSA. Cette autorité aurait vocation à aider le CSA à définir ce que sont des contenus illicites et ce qui relève de la haine en ligne. Elle pourrait faire appel aux associations de lutte contre les différents types de discriminations, qui ont en général une bonne connaissance de ces propos, de leur nature et de la manière dont ils prolifèrent sur internet.

Mme Fabienne Colboc, rapporteure pour avis. Je ne suis pas contre la création d’un tel conseil, qui pourrait fonctionner comme le comité d’experts « jeune public » qui existe depuis 2005 et regroupe des psychologues, des pédiatres, des associations, etc. On pourrait tout à fait imaginer que le CSA fasse la même chose en ce qui concerne les plateformes. Néanmoins, je ne crois pas nécessaire de l’inscrire dans le texte, sauf à alourdir la loi de 1986 qui est déjà très dense. Qui plus est, votre amendement n’apporte aucune précision sur le rôle que tiendrait exactement ce conseil scientifique. Avis défavorable.

L’amendement est retiré.

La commission examine l’amendement AC48 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement vise à établir un lien plus clair entre la transmission d’informations régulière de la part des plateformes au CSA et les recommandations que ce dernier peut prendre dans le domaine de la lutte contre les contenus haineux.

La commission adopte l’amendement.

Elle en vient à l’amendement AC49 de la rapporteure pour avis, qui fait l’objet du sous-amendement AC57 de M. Raphaël Gérard.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement évoque le rôle des associations dont parlait M. Gérard. Il a pour objet de formaliser la transmission d’informations au CSA de la part des associations œuvrant dans le champ de la lutte contre la haine et les discriminations, afin de leur reconnaître un rôle particulier d’alerte de l’autorité de régulation.

M. Raphaël Gérard. Je souscris totalement à l’idée de faire collaborer les associations à la définition des contenus. Néanmoins, je m’inquiète un peu de ce qui est pourtant un vrai atout de notre pays : la facilité d’y créer une association. Pour que les associations en question soient pertinentes et légitimes, je propose de préciser qu’elles doivent être régulièrement déclarées depuis au moins cinq ans à la date des faits. Il s’agit d’éviter de voir apparaître, pour des motifs politiques ou polémiques, des associations sorties de nulle part et venant brouiller le message.

Mme Fabienne Colboc, rapporteure pour avis. Je suis favorable à cette précision.

La commission adopte le sous-amendement.

Puis elle adopte l’amendement ainsi sous-amendé.

Elle examine ensuite l’amendement AC50 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement tend à rendre explicitement annuelle la publication du bilan du CSA.

La commission adopte l’amendement.

Elle en vient à l’amendement AC52 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Dans la même logique que celle du bilan annuel, le présent amendement vise à permettre au CSA de publier tout ou partie des informations que les opérateurs de plateforme seront tenus de lui transmettre mensuellement.

La commission adopte l’amendement.

Puis elle se saisit de l’amendement AC56 de la rapporteure pour avis.

M. le président Bruno Studer. L’adoption de cet amendement ferait tomber les deux suivants.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement a pour objet de tirer les conséquences de l’avis du Conseil d’État en faisant porter la sanction sur le non-respect de l’obligation de moyens mise à la charge des plateformes et en rendant impérative la prise en compte de la gravité du manquement et de son caractère persistant après une première mise en demeure.

M. Michel Zumkeller. J’ai cosigné un amendement de Mme Descamps qui va dans ce sens. Votre proposition permet de le satisfaire et nous y souscrivons totalement.

M. Frédéric Reiss. Comme nous avançons vite, et même très vite, je voudrais faire une remarque avant que nous n’achevions nos travaux. Les amendements de la rapporteure ont le mérite d’éclairer des articles qui étaient plutôt mal rédigés et dont la portée était ambiguë. J’y souscris donc totalement.

Je voudrais néanmoins émettre un petit regret : nous n’avons pas pu discuter l’amendement AC43 de Mme Frédérique Dumas, qui n’a pas été défendu lorsque nous avons examiné l’article 1er. Cet amendement tendait à préciser ce que doit être la notification permettant d’exiger des opérateurs de plateformes la suppression d’un contenu sous 24 heures. J’avais moi-même réfléchi à cette question. Nous pourrons peut-être lever l’ambiguïté lors de l’examen du texte en séance.

M. le président Bruno Studer. La discussion pourra avoir lieu au fond en commission des lois, le mercredi 19 juin à 9 heures 30.

La commission adopte l’amendement.

En conséquence, l’amendement AC28 de Mme Géraldine Bannier et l’amendement AC19 de Mme Béatrice Descamps tombent.

La commission émet un avis favorable à l’adoption de l’article 4 modifié.

Après l’article 4

La commission est saisie de l’amendement AC53 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Afin de renforcer l’efficacité de la lutte contre les contenus haineux en ligne, le présent amendement propose d’imposer aux plateformes qui permettent l’inscription de mineurs de moins de quinze ans de leur délivrer, ainsi qu’à leurs parents, une sensibilisation à l’utilisation civique et responsable de leurs services ainsi qu’une information sur les risques juridiques encourus par le mineur et ses parents en cas de diffusion de contenus haineux.

Mme Michèle Victory. L’idée paraît intéressante mais, à moins de préciser la forme que prendra cette sensibilisation, la rédaction sera trop vague et la mesure peu opérante.

Mme Fabienne Colboc, rapporteure pour avis. Le CSA émettra des recommandations concernant la mise en place de ce dispositif de prévention destiné aux jeunes et à leurs parents. J’ai des propositions – il existe des quizz, des questions – mais je ne pense pas que ce soit mon rôle de décrire ce dispositif.

La commission adopte l’amendement.

Puis elle en vient à l’amendement AC1 de Mme Valérie Bazin-Malgras.

Mme Valérie Bazin-Malgras. Il est nécessaire de responsabiliser les auteurs de contenus haineux en leur imposant de sortir du confort de l’anonymat. En effet, le recours aux pseudonymes leur permet de diffuser des contenus haineux sans avoir à en assumer la paternité, à la vue de tous.

C’est la raison pour laquelle cet amendement propose de faire obligation aux hébergeurs de vérifier l’identité de leurs utilisateurs.

Mme Fabienne Colboc, rapporteure pour avis. Il ne faut pas confondre anonymat et pseudonyme. Les plateformes ont d’ores et déjà l’obligation de détenir et de conserver les données permettant l’identification de toute personne ayant contribué à la création d’un contenu par l’intermédiaire de leurs services. Leurs utilisateurs ne sont donc théoriquement pas des anonymes, même s’ils peuvent utiliser des pseudonymes.

En cas de problème, l’autorité judiciaire peut ainsi leur demander communication de ces données. Il me semble que cette disposition est suffisante et qu’exiger un contrôle matériel de l’identité des internautes ne ferait que repousser le problème, car les plateformes ne seront pas en mesure de contrôler la véracité des informations transmises, même avec une pièce d’identité, potentiellement fausse, à l’appui.

En définitive, une telle disposition offrirait un faux sentiment de sécurité et de protection. Avis défavorable.

Mme Valérie Bazin-Malgras. Madame la rapporteure, je ne suis pas du tout d’accord avec vous. Je trouve que c’est très contraignant. Si l’identité de l’internaute était déclinée immédiatement, ce serait beaucoup plus simple pour les personnes qui se sentent menacées par ces contenus haineux.

La commission rejette l’amendement.

Après l’article 6

La commission examine l’amendement AC54 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Si le texte de l’article L. 312-9 du code de l’éducation permet théoriquement de sensibiliser les élèves au respect de la dignité de la personne, il paraît essentiel de préciser que la lutte contre la diffusion de messages haineux en ligne, à la fois en tant qu’émetteur ou simple utilisateur, doit impérativement faire partie du programme scolaire.

La commission adopte l’amendement.

Puis elle est saisie de l’amendement AC40 de M. Raphaël Gérard.

M. Raphaël Gérard. Il s’agit ici de tenir compte d’un phénomène que l’on constate dans les signalements déjà effectués concernant les différents réseaux sociaux : ils sont à 80 % du « bruit », c’est-à-dire de mauvais signalements qui émanent de gens qui n’aiment pas l’auteur de tel ou tel message et qui veulent faire bloquer le compte.

Dans le même temps, il est essentiel qu’une situation méritant un signalement soit dénoncée le plus rapidement possible. Or beaucoup de jeunes, notamment les préadolescents, ont peu le réflexe de signaler les contenus haineux parce qu’ils pensent que cela ne sert à rien.

L’amendement vise un double objectif : les sensibiliser à la nécessité de signaler les contenus haineux quand ils y sont confrontés ; les sensibiliser aux risques qu’ils courent en cas de signalement abusif. L’idée est en quelque sorte d’éduquer à la pratique du signalement.

Mme Fabienne Colboc, rapporteure pour avis. Votre amendement me paraît trop précis et donc un peu réducteur par rapport au sujet de la haine en ligne. Il est d’ailleurs satisfait par celui que nous venons d’adopter, dont la portée est plus large car il va au-delà du harcèlement scolaire qui est l’objet de l’alinéa que vous voulez modifier.

L’amendement est retiré.

La commission examine l’amendement AC55 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement a pour objet de renforcer la formation des enseignants en matière de lutte contre les contenus haineux en ligne, qui nécessite l’acquisition d’un savoir spécifique et technique que les enseignants, en formation initiale ou continue, n’ont pas nécessairement.

La commission adopte l’amendement.

Elle en vient à l’amendement AC41 de M. Raphaël Gérard.

M. Raphaël Gérard. Il s’agit d’ajouter un titre I « De la répression », pour être en phase avec le titre II « De la prévention et de l’éducation ».

Mme Fabienne Colboc, rapporteure pour avis. Je propose de laisser la commission des lois faire ce travail d’architecture sur le texte en fonction de ce qu’elle aura adopté. Avis défavorable.

M. Raphaël Gérard. Je vais le retirer et je le proposerai à la commission des Lois.

L’amendement est retiré.

Titre

La commission examine l’amendement AC30 de Mme Géraldine Bannier.

Mme Géraldine Bannier. Je ne suis pas une amatrice des longueurs mais, tout de même, je trouve que l’on pourrait compléter le titre par « et à promouvoir le respect ».

Mme Fabienne Colboc, rapporteure pour avis. Ma réponse sera la même qu’à l’amendement précédent : je vais laisser la commission des Lois modifier ou non le titre, en fonction de ce qu’elle aura adopté. Je vous propose de le retirer pour le proposer à la commission des Lois.

L’amendement est retiré.

La commission émet un avis favorable à l’adoption de l’ensemble des dispositions dont elle est saisie, modifiées.

La séance est levée à onze heures quinze.

______

Présences en réunion

Réunion du mercredi 5 juin 2019 à 9 heures 30

Présents. – Mme Emmanuelle Anthoine, Mme Stéphanie Atger, Mme Géraldine Bannier, Mme Valérie Bazin-Malgras, Mme Aurore Bergé, M. Bruno Bilde, M. Pascal Bois, M. Pierre-Yves Bournazel, Mme Anne Brugnera, Mme Marie-George Buffet, Mme Céline Calvez, Mme Danièle Cazarian, Mme Sylvie Charrière, Mme Fannette Charvier, M. Stéphane Claireaux, Mme Fabienne Colboc, M. François Cormier-Bouligeon, Mme Béatrice Descamps, Mme Jacqueline Dubois, Mme Virginie Duby-Muller, Mme Elsa Faucillon, M. Alexandre Freschi, M. Laurent Garcia, M. Jean-Jacques Gaultier, Mme Annie Genevard, M. Raphaël Gérard, Mme Florence Granjus, M. Pierre Henriet, Mme Danièle Hérin, M. Régis Juanico, M. Yannick Kerlogot, Mme Brigitte Kuster, M. Michel Larive, M. Gaël Le Bohec, Mme Constance Le Grip, Mme Sophie Mette, Mme Frédérique Meunier, M. Maxime Minot, Mme Sandrine Mörch, Mme Cécile Muschotti, M. Bertrand Pancher, M. Guillaume Peltier, Mme Bénédicte Pételle, Mme Maud Petit, Mme Béatrice Piron, M. Jean-François Portarrieu, M. Éric Poulliat, Mme Florence Provendier, Mme Cathy Racon-Bouzon, M. Pierre-Alain Raphan, M. Frédéric Reiss, Mme Cécile Rilhac, Mme Marie-Pierre Rixain, M. Cédric Roussel, M. Bertrand Sorre, M. Bruno Studer, M. Stéphane Testé, Mme Agnès Thill, Mme Sylvie Tolmont, Mme Michèle Victory, M. Michel Zumkeller

Excusés. - M. Bertrand Bouyx, Mme Nadia Essayan, Mme Josette Manin