Logo2003modif

N° 1989

______

 

ASSEMBLÉE   NATIONALE

 

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

 

Enregistré à la Présidence de l’Assemblée nationale le 5 juin 2019.

 

 

 

AVIS

 

 

 

PRÉSENTÉ

 

 

 

AU NOM DE LA COMMISSION DES AFFAIRES CULTURELLES ET DE LÉDUCATION SUR LA PROPOSITION DE LOI, visant à lutter contre la haine sur internet,

 

 

 

 

 

Par Mme Fabienne COLBOC,

 

Députée.

 

——

 

 

 

 

 

Voir le numéro :

Assemblée nationale : 1785.


 


–  1  –

 

SOMMAIRE

___

Pages

avant-propos

Principales propositions de la commission

I. conseil supÉrieur de laudiovisuel : lextension du domaine de la lutte

A. De nouvelles compétences confiées au Conseil supérieur de laudiovisuel en cohérence avec les évolutions législatives récentes

1. Un pouvoir de sanction nouveau à lencontre des plateformes de partage de contenus en ligne dans le domaine des contenus haineux

2. Une évolution cohérente avec les missions actuelles du CSA comme avec les évolutions récentes du cadre normatif national et européen

B. faire du CSA le garant de la mise en œuvre de procédures efficaces de lutte contre les contenus haineux sur internet

II. des actions spécifiques à mener à l’égard des plus jeunes et de leurs parents

Travaux de la commission

Réunion du lundi 5 juin 2019 à 9 heures 30 ()

I. discussion générale

II. examen des articles

Article 1er

Après larticle 1er

Après larticle 3

Article 4

Après larticle 4

Après larticle 6

Titre

annexe : Liste des auditions conduites par la rapporteure pour avis


–  1  –

   avant-propos

Une étude conduite en 2018 par la société de modération Netino sur la haine en ligne estimait, à partir de l’étude d’un échantillon de commentaires publiés sur vingt-quatre pages Facebook de grands médias français, que 10,4 % de ces commentaires comportaient des propos haineux ou agressifs ([1]). Un an après, le dernier Panorama de la haine en ligne recense 14,3 % des commentaires haineux ou agressifs sur les mêmes médias. Bien sûr, ces propos ne sont pas tous répréhensibles, au plan pénal, par les infractions d’injure ou de provocation à la haine ou à la violence. Mais ils témoignent d’une évolution inquiétante que le législateur doit prendre à sa juste mesure.

C’est du reste l’objet de la proposition de loi présentée par notre collègue Laetitia Avia, qui fait suite au rapport qu’elle a publié en septembre 2018 avec Karim Amellal et Gil Taieb visant à renforcer la lutte contre le racisme et l’antisémitisme sur le web. Partant du constat d’une exacerbation des discours de haine sur internet, permise par la viralité des réseaux sociaux, la proposition de loi tend à pallier l’impunité quasi-totale dans laquelle évoluent aujourd’hui les auteurs de tels propos, tant vis-à-vis des plateformes – dont le zèle à combattre les contenus haineux est pour l’heure limité à ce que la loi française rend obligatoire – que de la justice.

Se retranchant systématiquement derrière leur statut d’hébergeur et le possible engagement de leur responsabilité juridique par des tiers, ceux que la loi regroupe sous le vocable d’ « opérateurs de plateforme en ligne » – les moteurs de recherche, les réseaux sociaux, les plateformes de partage de contenus mis en ligne par leurs utilisateurs, etc. – doivent aujourd’hui combattre de façon plus volontaire l’hydre numérique qu’ils ont contribué à créer. Car c’est bien leur modèle économique, fondé sur l’exploitation algorithmique des données personnelles, qui nourrit l’enfermement intellectuel et, partant, l’intolérance croissante aux opinions contraires. Et c’est l’impunité totale des auteurs anonymes de propos haineux sur internet qui favorise leur expression exponentielle mais également leur banalisation dans la vie réelle.

Il n’y a qu’à, pour s’en convaincre, se référer au dernier rapport sur la lutte contre le racisme de la Commission nationale consultative des droits de l’homme ([2]) : bien que le contentieux lié aux injures, provocations et diffamations racistes soit en baisse, le nombre d’actes racistes recensés est, lui, tendanciellement en hausse, laissant entrevoir un phénomène massif de sous‑déclaration du racisme lié à une « forme de banalisation et d’accoutumance des victimes à ces expressions du racisme ordinaire » ([3]). Il est donc plus que temps d’intervenir pour briser le cercle vicieux de la normalisation du rapport à la haine.

C’est la raison pour laquelle la proposition de loi prévoit plusieurs mesures tendant à renforcer substantiellement les obligations à la charge des opérateurs de plateforme. Ceux-ci auront notamment l’obligation de retirer sous vingt-quatre heures les contenus qui contreviennent manifestement aux infractions d’injure et de provocation discriminatoires prévues par la loi de 1881 sur la liberté de la presse. Ils répondront, pour ce faire, à une véritable obligation de résultat, et devront par ailleurs désigner un représentant légal sur le territoire français pour faciliter l’application de la loi.

Ils auront également à répondre au Conseil supérieur de l’audiovisuel (CSA), dont les missions sont complétées pour lui permettre d’exercer un contrôle fin de l’action des plateformes dans ce domaine. Un pouvoir de sanction, nouveau et dissuasif, pourrait lui être conféré à l’égard des opérateurs de plateforme en ligne qui ne se conformeraient pas pleinement à la loi et persisteraient à s’abriter, pour échapper à leurs responsabilités, derrière des normes dont tous s’accordent à penser qu’elles sont aujourd’hui obsolètes.

C’est à ce titre que la commission des Affaires culturelles et de l’Éducation a souhaité se saisir pour avis. En effet, les missions du CSA ont récemment été modifiées, notamment par la loi n° 2018-1202 du 22 décembre 2018 relative à la manipulation de l’information, et sont appelées à évoluer à la faveur du futur projet de loi sur la régulation audiovisuelle. Il s’agit donc de veiller à la cohérence de l’ensemble normatif existant et futur, afin de donner à la loi sa pleine efficacité.

Au-delà, c’est bien sûr la compétence de la Commission en matière d’éducation et de jeunesse qui justifie sa saisine. Bien qu’aucune disposition de la proposition de loi ne concerne pour l’heure ce public en particulier, la rapporteure estime nécessaire de faire le bilan des outils existants, notamment au sein de l’Éducation nationale, pour permettre la prévention adéquate de ces comportements chez les mineurs et assurer leur protection vis-à-vis des contenus haineux auxquels ils sont involontairement, mais de plus en plus fréquemment, exposés.

 

 

 

 

 

   Principales propositions de la commission

 

Lors de l’examen de la présente proposition de loi, le mercredi 5 juin 2019, la commission des Affaires culturelles et de l’Éducation a émis un avis favorable à l’adoption de ses articles 1er et 4, sous réserve des amendements qu’elle propose, ainsi que de plusieurs articles additionnels.

À l’article 1er, la commission a adopté un amendement de la rapporteure supprimant la sanction administrative prévue en cas de non-respect de l’obligation de retrait en 24 heures de contenus manifestement haineux. Elle a également adopté plusieurs amendements incluant l’identité de genre parmi les motifs discriminatoires permettant l’application des dispositions de la loi.

À l’article 4, la commission a adopté plusieurs amendements de la rapporteure tendant à préciser les pouvoirs du Conseil supérieur de l’audiovisuel en matière de recommandations et de transmission d’informations de la part des plateformes et des associations, et à prévoir une sanction administrative en cas de non-respect de l’obligation de moyens faite aux plateformes en matière de traitement des signalements.

Elle a également adopté plusieurs amendements de la rapporteure créant de nouveaux articles au sein de la proposition de loi en matière de prévention et d’éducation. Notamment, la commission a adopté un amendement tendant à imposer aux plateformes qui permettent l'inscription de mineurs de moins de quinze ans de leur délivrer, ainsi qu'à leurs parents, une sensibilisation à l'utilisation civique et responsable de leurs services ainsi qu'une information sur les risques juridiques encourus par le mineur et ses parents en cas de diffusion de contenus haineux. Elle a également adopté deux amendements modifiant le code de l’éducation afin de renforcer la formation des enseignants et de préciser les contours de la formation à l’utilisation responsable des outils et des ressources numériques.

 


– 1 –

I.   conseil supÉrieur de l’audiovisuel : l’extension du domaine de la lutte

La proposition de loi visant à lutter contre la haine sur internet étend, par ses articles 1er et 4, la compétence du Conseil supérieur de l’audiovisuel à la lutte contre la diffusion des contenus haineux par les plateformes en ligne. Une telle évolution apparaît tout à fait cohérente avec, d’une part, les missions actuelles du Conseil et, d’autre part, l’évolution récente et à venir de ses compétences en direction des acteurs numériques.

A.   De nouvelles compétences confiées au Conseil supérieur de l’audiovisuel en cohérence avec les évolutions législatives récentes

1.   Un pouvoir de sanction nouveau à l’encontre des plateformes de partage de contenus en ligne dans le domaine des contenus haineux

Larticle 1er de la proposition de loi fait du CSA le garant de la mise en œuvre dune nouvelle obligation à la charge des plateformes les plus importantes.

Au-delà des obligations qui peuvent peser sur ces acteurs en application de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, notamment de son article 6 ([4]), la proposition de loi imposerait aux opérateurs de plateforme en ligne tendant à la mise en relation de plusieurs parties à des fins de partage de contenus, et dont l’activité dépasse un seuil de connexions sur le territoire français déterminé par décret, l’obligation de retirer ou de rendre inaccessibles, sous 24 heures, les contenus tombant manifestement sous le coup des infractions, prévues par les articles 24 et 33 de la loi du 29 juillet 1881 sur la liberté de la presse, de provocation à la haine, à la violence ou à la discrimination et dinjure à l’encontre d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou nonappartenance à une ethnie, une nation, une race ou une religion, de leur sexe, de leur orientation sexuelle ou de leur handicap.

Les obligations à la charge des hébergeurs prévues par la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique

L’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique organise la responsabilité civile et pénale des hébergeurs, définis comme les « personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, décrits, dimages, de sons ou de messages de toute nature fournis par des destinataires de ces services ».

La responsabilité civile et pénale d’un hébergeur peut être engagée à raison des contenus fournis par ses utilisateurs lorsque, ayant eu connaissance du caractère illicite d’un contenu, l’hébergeur n’a pas agi promptement pour le retirer ou le rendre inaccessible. La connaissance des faits litigieux est présumée acquise dès lors qu’un contenu leur est notifié par une personne physique ou morale, cette dernière devant, au préalable, tenter d’obtenir le retrait du contenu par son auteur ou son éditeur.

L’article 6 rappelle également les règles issues de la directive du 8 juin 2000 sur le commerce électronique ([5]) : à ce titre, il n’est pas possible de soumettre les hébergeurs à une obligation générale de surveiller les informations qu’ils stockent, ni à une obligation générale de rechercher des faits ou des circonstances révélant des activités illicites.

Les hébergeurs sont toutefois soumis à des obligations particulières en ce qui concerne certaines infractions, notamment celles ayant trait au terrorisme, à la pédopornographie, à l’incitation à la haine ou à la violence raciale ou à raison du sexe, de l’orientation ou de l’identité sexuelle ou du handicap. En effet, dans ce domaine, les hébergeurs doivent contribuer à lutter contre la diffusion de tels contenus, notamment en mettant en place un dispositif de signalement, en informant promptement les autorités de telles activités et en rendant publics les moyens qu’ils mettent en œuvre pour lutter contre ces dernières.

En ce qui concerne les infractions relatives au terrorisme et à la pédopornographie, l’article 6-1 de la loi précitée prévoit des obligations renforcées : lorsque l’autorité administrative enjoint à un hébergeur de retirer un contenu de cette nature et qu’il n’y défère pas dans un délai de 24 heures, cette dernière peut enjoindre aux fournisseurs d’accès à internet et aux moteurs de recherche, sous le contrôle d’une personnalité qualifiée issue de la Commission nationale de l’informatique et des libertés, de bloquer ou déréférencer les sites sur lesquels ce contenu apparaît.

Le fait de contrevenir à ces obligations particulières est puni d’un an d’emprisonnement et de 75 000 euros d’amende, le quantum de cette dernière étant automatiquement quintuplé s’agissant d’une personne morale.

Cette disposition, qui tend à compléter et préciser le régime prévu par la loi du 21 juin 2004, serait susceptible d’entraîner une sanction de nature administrative en cas de manquement. Ainsi, en application du II de l’article 1er, le CSA pourrait infliger à ces plateformes une sanction pécuniaire allant jusqu’à 4 % de leur chiffre d’affaires annuel mondial, y compris lorsqu’elles opèrent depuis l’étranger. Il pourrait, pour établir le quantum de la sanction, tenir compte de la gravité des manquements commis et de leur caractère réitéré. Le CSA, saisi par un tiers dont le signalement n’aurait pas été traité, dans le sens désiré, par la plateforme, aurait ainsi la tâche de vérifier que le contenu litigieux était, ou non, manifestement contraire aux infractions précitées de la loi de 1881.

Au-delà de cette obligation de résultat incombant aux plateformes et dont le CSA serait, d’après une interprétation littérale de la proposition de loi, le garant, l’article 4 de la proposition de loi modifie la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication afin de lui confier explicitement la mission de contribuer à la lutte contre la diffusion des contenus haineux sur internet.

Ainsi, sur le modèle de la rédaction retenue dans le cadre de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, le CSA pourrait, en cas de besoin, adresser aux opérateurs de plateforme des recommandations visant à améliorer la lutte contre lesdits contenus. Il s’assurerait également du suivi des obligations mises à la charge des plateformes par la proposition de loi, y compris celle prévoyant la mise en place, par ces mêmes opérateurs, d’un dispositif de contestation du maintien ou du retrait d’un contenu.

Enfin, il publierait périodiquement un bilan de lapplication de ces obligations et fixerait la liste des informations que les opérateurs de plateforme seraient tenus de rendre publiques afin de rendre compte de leurs actions de lutte contre la diffusion des contenus haineux. Si la nature de ces informations n’est pas, à ce stade, déterminée par le texte, on peut imaginer que la divulgation de statistiques sur le nombre de signalement, les suites qui leur sont données et les délais d’intervention moyens des plateformes pourraient en faire partie.

2.   Une évolution cohérente avec les missions actuelles du CSA comme avec les évolutions récentes du cadre normatif national et européen

Confier au CSA une mission de lutte contre la diffusion des contenus haineux sur internet apparaît tout à fait cohérent avec, d’une part, ses missions actuelles et, d’autre part, les évolutions récentes du cadre législatif national et européen.

En effet, le CSA dispose dores et déjà de compétences en matière de lutte contre les contenus haineux dans le domaine audiovisuel. Le CSA est chargé, en application de l’article 15 de la loi du 30 septembre 1986 précitée, de veiller à ce que « les programmes mis à disposition du public par un service de communication audiovisuelle ne contiennent aucune incitation à la haine ou à la violence pour des raisons de race, de sexe, de mœurs, de religion ou de nationalité ». La protection des mineurs, le respect de la dignité humaine comme la sauvegarde de l’ordre public justifient, en effet, que des limites puissent être posées à la liberté d’expression, comme le prévoit l’article 1er de la loi de 1986 précitée.

La lutte contre les contenus haineux fait ainsi partie des obligations figurant dans les conventions que les chaînes privées concluent avec le CSA. L’éditeur, responsable de sa programmation et de la maîtrise de son antenne, est notamment tenu de ne pas inciter à des pratiques ou comportements dangereux, délinquants ou inciviques et de ne pas encourager de comportements discriminatoires en raison de la race, du sexe, de l’orientation sexuelle, de la religion ou de la nationalité.

Cette obligation s’applique également aux services de médias audiovisuels à la demande. Ainsi, « les programmes mis à la disposition du public sur les services de médias audiovisuels à la demande ne doivent comporter aucune incitation à la haine ou à la violence à légard dune personne ou dun groupe de personnes en raison de leur origine, de leur appartenance ou de leur nonappartenance à une ethnie, une nation, une race ou une religion déterminée ou en raison de leur sexe, de leur orientation sexuelle ou de leur handicap, conformément aux dispositions légales relatives à la liberté de la presse. » ([6])

Le CSA est intervenu à plusieurs reprises pour sanctionner lincitation à la haine ou à la violence, quelle émane dun présentateur ou dun spectateur. Il a récemment condamné une radio à 25 000 euros d’amende, soit près de 3 % de son chiffre d’affaires, pour des propos de nature à encourager des comportements discriminatoires à l’égard des personnes en raison de leur appartenance à une ethnie, une nation, une race ou une religion tenus en mars 2016, sans réaction à l’antenne pour les modérer ou y apposer un regard critique. Cette sanction a été confirmée par le Conseil d’État ([7]), estimant son quantum proportionné à la gravité des faits.

Dès lors, il n’existe pas d’obstacle à l’extension aux plateformes de partage de contenus d’un contrôle que le CSA opère sur les télévisions, les radios et les services de médias audiovisuels à la demande. De surcroît, le législateur a récemment étendu les compétences du CSA vis-à-vis des plateformes et des réseaux sociaux dans le domaine de la manipulation de l’information (cf. supra), prélude à une régulation plus globale des plateformes qui pourrait intervenir dans le cadre de la future loi audiovisuelle. Cette future loi assurera également la transposition, en droit interne, des dispositions de la nouvelle directive relative aux services de médias audiovisuels, qui prévoit, dans son article 28 ter, des dispositions ambitieuses à l’égard des plateformes et dont la mise en œuvre sera confiée aux régulateurs audiovisuels des pays membres (cf. infra).

Les dispositions de la nouvelle directive dite « Services de médias audiovisuels » à l’égard des plateformes et des réseaux sociaux

La directive du 10 mars 2010 relative aux services de médias audiovisuels ([8]) , modifiée par la directive du 14 novembre 2018 ([9]), prévoit des dispositions spécifiques aux services de plateformes de partage de vidéos.

Dans la mesure où ils « fournissent un contenu audiovisuel qui est de plus en plus consulté par le grand public, en particulier les jeunes (…) et qu’ils se disputent les mêmes publics et les mêmes recettes que les services de médias audiovisuels, ces services de médias sociaux doivent être inclus dans le champ d’application de la directive 2010/13/UE. En outre, ils ont également un impact considérable en ce qu’ils permettent plus facilement aux utilisateurs de façonner et d’influencer l’opinion d’autres utilisateurs. Par conséquent, afin de protéger les mineurs des contenus préjudiciables et de mettre l’ensemble des citoyens à l’abri des contenus incitant à la haine, à la violence et au terrorisme, ces services devraient relever de la directive 2010/13/UE dans la mesure où ils répondent à la définition d’un service de plateformes de partage de vidéos. » ([10]) La directive de 2018 précise que les réseaux sociaux entrent dans le champ de la directive dès lors que la fourniture de programmes ou de vidéos créés par l’utilisateur en constitue une fonctionnalité essentielle.

Ainsi, l’article 28 ter de la directive modifiée contraint les États membres à veiller à ce que les plateformes établies sur leur territoire prennent les mesures appropriées pour protéger les mineurs, mais aussi le grand public, des vidéos créées par l’utilisateur qui comporteraient une incitation à la violence ou à la haine fondée sur le sexe, la race, la couleur, l’origine ethnique ou sociale, les caractéristiques génétiques, la langue, la religion, les convictions, les opinions politiques ou toute autre opinion, l’appartenance à une minorité nationale, la fortune, la naissance, un handicap, l’âge ou l’orientation sexuelle.

Ces mesures, qui doivent être réalisables et proportionnées à la taille et à la nature du service, peuvent notamment inclure la mise en place de dispositifs de signalement, de systèmes permettant d’expliquer aux utilisateurs quelles ont été les suites données à leurs éventuels signalements, de procédures de traitement des réclamations des utilisateurs ou encore d’outils d’éducation aux médias. Les États membres peuvent toutefois imposer aux plateformes des mesures plus strictes, dès lors qu’elles respectent les dispositions de la directive de 2000 sur le commerce électronique ([11]). Les États membres doivent encourager la co-régulation et l’autorégulation des plateformes au moyen des codes de conduite adoptés au niveau national et confient l’évaluation des mesures prises par les plateformes à leurs régulateurs nationaux.

B.   faire du CSA le garant de la mise en œuvre de procédures efficaces de lutte contre les contenus haineux sur internet

Comme l’a souligné le Conseil d’État dans son avis du 16 mai 2019, si « une lecture littérale de la proposition de loi laisserait entendre qu’elle envisage de faire sanctionner par le Conseil supérieur de l’audiovisuel le refus, opposé au cas par cas, de retirer des contenus odieux manifestement illicites », « une telle hypothèse se heurte à un obstacle constitutionnel » : « la suppression d’un contenu odieux sur Internet es un acte radical au regard de la protection dont jouit la liberté d’expression (…) Le retrait de contenu ne peut donc généralement être opéré que par le juge judiciaire ou à tout le moins sous son contrôle » ([12]).

Par ailleurs, si le CSA « veille enfin à ce que les programmes mis à disposition du public par un service de communication audiovisuelle ne contiennent aucune incitation à la haine ou à la violence pour des raisons de race, de sexe, de mœurs, de religion ou de nationalité » ([13]), le contrôle qu’il opère aujourd’hui sur les contenus audiovisuels diffusés par les chaînes de radio et de télévision s’exerce au regard des principes définis par la loi du 30 septembre 1986, et non sur le fondement des infractions à la loi de 1881 visées par la proposition de loi. L’application littérale de l’article 1er de la proposition reviendrait indirectement à conférer au CSA un pouvoir d’appréciation semblable à celui du juge judiciaire, qu’il ne possède nullement aujourd’hui.

Au-delà de ces considérations juridiques, la question des moyens humains – et partant, financiers – à déployer pour faire face à un contentieux nécessairement massif se pose également. En outre, une telle évolution constituerait un changement fondamental du rôle du CSA, qui appellerait nécessairement une modification profonde de sa composition et de son fonctionnement.

Dès lors, la rapporteure ne peut que s’associer à l’avis du Conseil d’État, qui suggère la création d’une infraction autonome, réprimée par le juge judiciaire, à l’encontre des plateformes qui ne retireraient pas les contenus manifestement odieux dans le délai imparti par la loi et l’application d’une sanction administrative par le CSA en cas d’ « attitude systémique non coopérative de l’opérateur, après prise en compte des moyens qu’il met en œuvre pour prévenir la diffusion des contenus odieux manifestement illicites et la faire cesser » ([14]). En d’autres termes, il s’agirait de sanctionner par ce biais l’obligation de moyens mise à la charge des opérateurs par le III de l’article 2, le juge pénal sanctionnant, pour sa part, l’obligation de résultat imposée par la loi. La rapporteure proposera ainsi une modification de la rédaction de l’article 4 en ce sens.

II.   des actions spécifiques à mener à l’égard des plus jeunes et de leurs parents

Si le problème soulevé par la diffusion massive et virale des contenus odieux sur internet est indéniablement le fait du développement des plateformes en ligne, il paraît tout aussi évident qu’une action ambitieuse doit être entreprise à l’égard des personnes qui émettent de tels contenus. Dans ce domaine, les institutions en charge de la jeunesse et le monde associatif ont un rôle pédagogique et préventif à jouer.

En effet, les mineurs doivent faire l’objet d’une protection particulière à l’égard de tels contenus. L’espace numérique constitue, pour eux, un continuum avec la réalité : ils jouent en ligne, communiquent avec leurs pairs, s’informent, apprennent via des tutoriels, se mettent en scène au travers de photos et de vidéos, etc. Plus que la plupart des adultes, les mineurs sont aujourd’hui hyper-connectés, si bien que les attitudes qu’ils peuvent adopter en ligne déteignent sans frontière sur leurs comportements dans la vie réelle.

L’école, premier espace de socialisation, constitue le lieu privilégié d’une intervention visant à assurer le respect, en ligne, des règles élémentaires de civisme. L’Éducation nationale mène, à ce titre, des actions nombreuses mais éparses. L’adjonction récente du respect d’autrui aux savoirs fondamentaux que sont la lecture, l’écriture et le calcul dénote ainsi d’une prise en compte réelle, au sein des politiques publiques, des enjeux de la lutte contre la prolifération de contenus haineux sur internet.

La formation à l’utilisation responsable des outils et des ressources numériques, prévue à l’article L. 312-9 du code de l’éducation, comporte ainsi « une éducation aux droits et aux devoirs liés à l’usage de l’internet et des réseaux, dont la protection de la vie privée et le respect de la propriété intellectuelle, de la liberté d’opinion et de la dignité de la personne humaine, ainsi qu’aux règles applicables aux traitements de données à caractère personnel » et « contribue au développement de l’esprit critique et à l’apprentissage de la citoyenneté numérique ». Depuis l’entrée en vigueur de la loi n° 2018-703 du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes, cette formation comprend également une sensibilisation relative à « l’interdiction du harcèlement commis dans l'espace numérique, la manière de s'en protéger et les sanctions encourues en la matière. »

Le respect d’autrui est également au cœur de l’enseignement moral et civique, dispensé à l’école et au collège, dont le but réside dans l’acquisition des valeurs de la République et la construction d’une culture civique. Son programme prévoit ainsi, dès le cycle 2, un premier enseignement sur les atteintes à la personne que représentent le racisme, l’antisémitisme, le sexisme, la xénophobie, l’homophobie, les discriminations liées au handicap et le harcèlement. Au cycle 3, les enjeux civiques de l’usage du numérique et des réseaux sociaux sont explorés, tandis que le respect des différences et de l’intégrité de la personne est approfondi. Au cycle 4, la notion d’identité numérique, et la responsabilité légale qui y est associée, sont abordées.

L’éducation aux médias et à l’information contribue de la même façon, dès l’école, à responsabiliser les élèves vis-à-vis des contenus qu’ils diffusent, le respect de la loi étant intégré à l’enseignement relatif aux publications dont ils peuvent être les auteurs. De nombreuses ressources sont, dans ce cadre, accessibles aux élèves et aux enseignants, notamment via la plateforme « Internet responsable ». Des fiches relatives à la liberté d’expression et à ses limites, comme à la responsabilité des acteurs de l’internet, rappellent ainsi le cadre juridique dans lequel tout utilisateur évolue en ligne.

La réforme du brevet informatique et internet, auquel se substitue une certification par le biais de la plateforme publique PIX pour l’évaluation des compétences numériques des collégiens et lycéens, est également porteuse de progrès dans le domaine du civisme en ligne. En effet, parmi les compétences testées figurent la communication et la collaboration, notamment la maîtrise des enjeux de la présence en ligne et de la « netiquette ».

La formation des enseignants est également capitale, dans ce domaine, pour assurer la transmission aux élèves des règles fondamentales du vivre ensemble numérique. Les écoles supérieures du professorat et de l’éducation ont ainsi l’obligation, en application de l’article L. 721-2 du code de l’éducation, de former les futurs enseignants « à l’usage pédagogique des outils et ressources numériques » et d’organiser des formations de sensibilisation « à l’égalité entre les femmes et les hommes, à la lutte contre les discriminations, à la manipulation de l’information, à la scolarisation des élèves en situation de handicap ainsi que des formations à la prévention et à la résolution non violente des conflits ».

Au-delà, la formation continue des enseignants permise par la plateforme M@gistère, à laquelle recourent chaque année quelque 250 000 enseignants, permet également de prendre en compte les enjeux numériques dans leur dimension civique. En outre, la création, en 2020, d’un certificat d’aptitude au professorat de l’enseignement du second degré (CAPES) dédié à l’enseignement des sciences numériques et informatiques devra être le lieu d’un apprentissage approfondi des pratiques et règles à enseigner aux élèves des collèges et lycées.

Enfin, l’action à destination des parents d’élèves apparaît indispensable à la prévention de la diffusion des contenus haineux en ligne. En effet, bien souvent, les parents n’ont qu’une conscience très limitée des risques que leurs enfants encourent dans l’environnement numérique. Leurs propres pratiques étant très différentes de celles de leurs enfants, ils peinent à imaginer que ces derniers puissent adopter des comportements préjudiciables en ligne. La prise de conscience des risques encourus par les enfants – et, partant, par leurs parents, s’agissant de leur responsabilité juridique – ainsi que la connaissance des moyens de prévenir des pratiques potentiellement illicites ou, à tout le moins, inciviques, est donc impérative.

L’Éducation nationale, par le biais de la mallette des parents, dispose d’un outil extrêmement efficace d’information des parents. Une fiche à destination du personnel d’encadrement y explique ainsi la nécessité d’une réunion pédagogique avec les parents sur le thème de l’usage des écrans et du numérique. Si les phénomènes de cyber-harcèlement et de cyber-violences sont également traités, notamment par le biais d’une fiche à destination des parents indiquant les moyens de signaler les contenus dont son enfant est victime en ligne par le biais du portail gouvernemental ou du site pointdecontact.net, il serait souhaitable qu’une fiche soit directement proposée aux parents sur l’utilisation sécurisée d’internet et des réseaux sociaux, en lien avec les enseignements dispensés sur ce sujet par l’école. Un lien vers le guide « La Famille Tout-Écran », édité par le Centre de liaison de l’enseignement et des médias d’information (CLEMI), qui dispense de nombreux conseils aux familles en matière d’éducation aux médias et à l’information, pourrait par exemple être créé.

Ainsi, si le droit existant n’appelle que quelques modifications d’ordre législatif, des progrès peuvent encore être accomplis dans le sens d’une information plus systématique des enseignants, des élèves et de leurs parents. Si de nombreux outils sont proposés à la communauté éducative et aux familles, ils mériteraient probablement une forme de rationalisation pour toucher de façon effective leurs publics.

Par ailleurs, il conviendra également, dans le cadre du futur projet de loi sur le service national universel, d’être particulièrement attentif à l’intégration d’une formation ou d’une sensibilisation au civisme numérique et, plus largement, à la lutte contre les discriminations et les discours de haine, aux modules collectifs qui seront proposés dans ce cadre. On peut ainsi imaginer que, de la même façon qu’une initiation au code de la route et une formation aux premiers secours seront dispensées par ce biais, le service national universel sera l’occasion de délivrer à tous les jeunes les bases d’un réel civisme numérique.

Le secrétaire d’État auprès du ministre de l’Éducation nationale et de la jeunesse, M. Gabriel Attal, a récemment exprimé, devant notre commission, sa volonté d’intégrer ces enjeux au service national universel par le biais d’un module de cyber-éducation. Celui-ci comprendra une formation aux risques liés à l’usage d’internet en matière de discriminations et de discours de haine. Les associations spécialisées sur le sujet seront associées à la conception de ce module. 

Enfin, la rapporteure estime nécessaire d’amener les plateformes à mener des actions de plus grande ampleur dans le domaine du civisme numérique, notamment à l’égard de leurs utilisateurs mineurs, et proposera à la Commission d’adopter des dispositions en ce sens.

 

 

 

 

 


–  1  –

 

   Travaux de la commission

Réunion du lundi 5 juin 2019 à 9 heures 30 ([15])

La commission des Affaires culturelles et de lÉducation examine pour avis les articles 1er et 4 de la proposition de loi visant à lutter contre la haine sur internet (n° 1785).

I.   discussion générale

M. le président Bruno Studer. Nous sommes réunis pour examiner l’avis que notre commission a souhaité donner sur les articles 1er et 4  de la proposition de loi visant à lutter contre la haine sur internet. Ces dispositions relèvent des compétences de notre commission puisqu’elles étendent celles du Conseil supérieur de l’audiovisuel (CSA). Je tiens à saluer le travail réalisé par notre rapporteure, Fabienne Colboc, en coordination avec Laëtitia Avia, rapporteure au fond de la commission des Lois et première signataire du texte.

Madame la rapporteure, vous nous proposerez tout à l’heure quelques amendements destinés à améliorer la proposition de loi sur les sujets qui nous intéressent. Elle sera examinée mercredi 19 juin par la commission des lois et devrait être inscrite en séance publique début juillet.

Mme Fabienne Colboc, rapporteure pour avis. À partir d’un échantillon de commentaires publiés sur vingt-quatre pages Facebook de grands médias français, une étude sur la haine en ligne conduite en 2019 par la société de modération Netino estimait que 14 % de ces commentaires comportaient des propos haineux ou agressifs. Cela témoigne d’une évolution inquiétante que le législateur doit considérer à sa juste mesure.

C’est d’ailleurs tout l’objet de la proposition de loi qui nous est aujourd’hui soumise par notre collègue Laëtitia Avia, et dont la commission a souhaité se saisir pour avis. Partant du constat d’une augmentation considérable des discours de haine sur internet, permise par la viralité propre aux réseaux sociaux, la proposition de loi vise à mettre fin à l’impunité quasi‑totale dans laquelle évoluent aujourd’hui les auteurs de tels propos, et à mobiliser les plateformes, dont l’action pour combattre les contenus haineux est pour l’heure limitée à ce que la loi française rend obligatoire.

Dont acte : la proposition de loi rendra obligatoire le retrait en 24 heures des contenus contrevenant manifestement aux dispositions de la loi du 29 juillet 1881 sur la liberté de la presse relatives aux provocations à la haine, à la discrimination ou à la violence et aux injures à raison de la race, de la religion, de l’ethnie, du sexe ou du handicap.

Il est grand temps d’établir une législation efficace pour assurer le respect, par des plateformes virtuelles, de lois conçues pour le monde réel. Alors qu’ils se retranchent systématiquement derrière leur statut d’hébergeur et le possible engagement de leur responsabilité juridique par des tiers, les moteurs de recherche, les réseaux sociaux, les plateformes de partage de contenus mis en ligne par leurs utilisateurs doivent combattre de façon plus volontaire l’hydre numérique qu’ils ont contribué à créer. C’est leur modèle économique, fondé sur l’exploitation algorithmique de nos données, qui nourrit l’enfermement intellectuel et l’intolérance croissante aux opinions contraires. C’est l’impunité totale des auteurs anonymes de propos haineux sur internet qui favorise leur expression exponentielle, mais également leur banalisation dans la vie réelle.

C’est pourquoi la proposition de loi prévoit plusieurs mesures tendant à renforcer de façon conséquente les obligations à la charge des opérateurs de plateforme. Au-delà de l’obligation de retrait déjà évoquée, ils auront dorénavant une véritable obligation de moyens dans ce domaine. Il leur faudra notamment répondre au CSA, dont les missions sont complétées pour lui permettre d’exercer un contrôle fin de l’action des plateformes en matière de lutte contre la haine en ligne. Un pouvoir de sanction, nouveau et dissuasif, pourrait lui être confié à l’égard des opérateurs de plateforme en ligne qui ne se conformeraient pas pleinement à la loi.

C’est à ce titre que la commission des Affaires culturelles et de l’Éducation a souhaité se saisir pour avis. En effet, les missions du CSA ont été récemment modifiées, notamment par la loi du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, et sont appelées à évoluer à la faveur du futur projet de loi sur la régulation audiovisuelle. Il s’agit donc de veiller à la cohérence de l’ensemble normatif, afin de donner à la loi sa pleine efficacité.

Suivant l’avis du Conseil d’État, je vous proposerai plusieurs amendements tendant à ce que la sanction prononcée par le CSA contre les plateformes réponde non pas à une obligation de résultat, mais bien à l’obligation de moyens qui leur est faite, dans un cadre juridique plus cohérent avec la loi du 30 septembre 1986 relative à la liberté de communication. L’application littérale de la proposition de loi ne paraît pas opportune, pour des raisons tant juridiques que pratiques ; c’est pourquoi il nous faut la modifier pour donner à ces dispositions toute leur portée.

La compétence de la commission en matière d’éducation et de jeunesse justifie également sa saisine. Bien qu’aucune disposition de la proposition de loi ne concerne pour l’heure ce public en particulier, j’estime nécessaire de renforcer les outils existants, notamment au sein de l’Éducation nationale, pour permettre une prévention adéquate chez les mineurs et assurer leur protection vis-à-vis des contenus haineux auxquels ils sont involontairement, mais de plus en plus fréquemment, exposés.

Je vous proposerai également de renforcer les obligations des plateformes qui permettent l’inscription de personnes mineures sur leurs services en dessous de l’âge de 15 ans – âge de la majorité numérique. En dessous de cet âge, elles devront obligatoirement sensibiliser les enfants et leurs parents à la diffusion de la haine en ligne et les informer des risques juridiques encourus. C’est un axe majeur de prévention, car bien souvent, les parents n’ont qu’une conscience très limitée des risques que leurs enfants encourent dans l’environnement numérique et de la responsabilité juridique qui est la leur en cas d’infraction.

Mme Anne Brugnera. Chaque jour, chaque instant, la liberté qu’offre internet est dévoyée pour s’attaquer aux personnes par l’injure, la stigmatisation, l’offense. C’est inacceptable. De récents sondages soulignent que 58 % de nos concitoyens considèrent internet comme le principal foyer des discours de haine et plus de 70 % indiquent avoir déjà été confrontés à des propos haineux sur les réseaux sociaux. La plupart réclament une action des pouvoirs publics. C’est bien la volonté de la proposition de loi portée par notre collègue Laëtitia Avia visant à lutter contre la haine sur internet.

Le groupe La République en Marche se félicite de l’examen de ce texte qui permettra d’affirmer clairement que s’attaquer, derrière un pseudonyme, à une personne en pointant son origine, sa religion, son orientation sexuelle n’est plus toléré et n’est pas licite.

Ce texte est le fruit d’une concertation menée par notre collègue depuis plus d’an pour aboutir à la proposition que nous examinons. Notre commission a été saisie pour avis des articles 1er et 4. Je remercie notre collègue Fabienne Colboc pour son investissement et le travail réalisé, dans la droite ligne de son engagement contre les fausses informations.

L’article 1er dispose que les opérateurs devront retirer les contenus signalés comportant une injure discriminatoire dans un délai maximal de 24 heures. C’est un changement important, mais nécessaire. Le sentiment d’impunité sur internet ne peut perdurer ; cet espace doit connaître des règles identiques à celles appliquées sur la voie publique.

L’article 4 permettra quant à lui de s’assurer de la transparence des actions de retrait par les services des opérateurs. Le CSA en assurera la régulation. Nous avons pleinement confiance en lui pour réaliser cette mission. Son expertise, reconnue, sera un vrai appui pour les plateformes et les opérateurs.

Je ne m’exprimerai pas sur les autres articles de ce texte, qui seront étudiés par nos collègues commissaires aux Lois, mais je soutiens l’idée que la responsabilité des individus ne peut être différente sur internet. Prévoir des sanctions judiciaires, pénales et pécuniaires est important pour dire « stop » à ce déferlement de haine que trop d’individus, se croyant protégés derrière leur écran et leurs pseudonymes, se permettent.

Il ne s’agit nullement de remettre en question la liberté qu’internet et le numérique offrent. Je suis convaincue que ce nouvel espace démocratique doit et peut être utilisé à bon escient. L’expression de sa haine, la discrimination envers autrui ne sont pas une liberté. C’est donc bien notre rôle de législateur que d’encadrer les dérives trop souvent constatées.

J’ai assisté il y a peu, à Lyon, au comité d’orientation de la lutte contre le racisme, l’antisémitisme et l’homophobie. Je peux témoigner de l’urgence à encadrer de la sorte l’expression sur internet, qui fait trop de victimes et trop d’impunis. Toutes les associations engagées dans cette lutte l’appellent de leurs vœux. Le Président de la République l’a rappelé : il faut responsabiliser les plateformes, comme les citoyens, dans leur expression sur internet. C’est tout le sens de la proposition de loi, que le groupe La République en Marche soutiendra.

M. Frédéric Reiss. Sur internet, le meilleur côtoie le pire. Sa gouvernance est une question centrale pour les droits humains. La proposition de loi cible la lutte contre la haine sur internet, réelle préoccupation au cœur de nos sociétés démocratiques. Les Républicains se sont toujours positionnés contre le cyberharcèlement et la propagation des messages de haine, d’antisémitisme ou de discrimination en tous genres. Aussi souhaitons-nous que cette proposition de loi puisse apporter des solutions, d’autant que 70 % de nos compatriotes disent avoir été confrontés à des propos haineux sur les réseaux sociaux.

Mais nous nous posons encore beaucoup de questions, auxquelles sont malheureusement apportées trop peu de réponses… Nous avons bien conscience des difficultés de l’exercice, dans le cadre du respect des droits de l’homme et du citoyen. Cette proposition de loi cherche à accélérer la suppression des contenus illicites au regard de la loi de 1881 sur la liberté de la presse.

Dans une démocratie, les individus et les organisations – quelles qu’elles soient – doivent pouvoir s’exprimer et diffuser des informations et des opinions par le biais des réseaux sociaux. Mais on atteint très vite les limites de la liberté d’expression dans des domaines controversés – incitation à la violence, voire à des comportements criminels, propagande du terrorisme ou du djihadisme, discours de haine en raison de la race, de la religion, du sexe ou du handicap.

Les articles 1er et 4, dont nous allons débattre, proposent des solutions, même si la question de la définition d’un contenu offensant ou illicite n’est pas tranchée. Le CSA va jouer un rôle déterminant dans les sanctions, mais le gendarme de l’audiovisuel aura-t-il les moyens d’agir sur internet, et dans quel délai ? Le CSA deviendra, de fait, un méta-régulateur de l’activité numérique.

Au cours de sa déposition devant le Sénat américain, en avril 2018, Mark Zuckerberg a affirmé à plusieurs reprises que Facebook était responsable du contenu diffusé, tout en rappelant que sa plateforme ne produisait pas le contenu. Les géants d’internet ont donc conscience du problème…

J’estime que les solutions résident dans des projets concertés – a minima au niveau européen. Ainsi, s’agissant du règlement général pour la protection des données (RGPD), les ministres européens ont souligné à Elseneur l’importance d’une adhésion rapide par le plus grand nombre de parties à la convention « 108 » du Conseil de l’Europe, afin de faciliter la création d’un régime juridique global de protection des données. Dans la lutte contre la haine sur internet, il faudrait s’en inspirer.

La question du contrôle et des sanctions liées au déréférencement de contenus haineux est évidemment centrale. Malgré une politique affichée d’autorégulation via des vérificateurs ou autres modérateurs, l’expérience a montré que les grands acteurs du numérique sont loin d’être exemplaires. Il est indispensable d’associer les utilisateurs d’internet à la régulation que nous appelons tous de nos vœux. Les jeunes, grands utilisateurs des médias sociaux, sont-ils conscients des dangers et des dérives de ce lieu d’expression et d’échanges ? Savent-ils que lorsqu’il « likent » une image ou un propos de harcèlement, ils deviennent complices ? On en revient toujours à l’éducation aux médias sociaux, dont nous avons déjà parlé au sein de notre commission…

Mme Géraldine Bannier. En préambule, j’aurais voulu citer quelques-uns des messages que l’on peut lire ou recevoir sur les réseaux sociaux, pour illustrer le niveau de violence et de haine que l’on peut y rencontrer. Mais, devant leur vulgarité et leur irrespect, je m’en abstiendrai. Il ne s’agit pas de cas isolés et chacun de nous sait très bien de quoi nous parlons. Parmi les quelques échantillons sympathiques que l’on trouve aisément sur internet figurent en bonne position les insultes racistes, sexistes, antisémites, etc. Ils disent assez l’action urgente que le déferlement de ce type de contenus appelle.

Certes, la transposition de la directive du 8 juin 2000 sur le commerce en ligne par la loi  2004-575 du 21 juin 2004 pour la confiance dans léconomie numérique (LCEN) a constitué un premier pas utile en son temps. Mais lapparition de nouveaux acteurs, différents des fournisseurs daccès à internet et des hébergeurs, tels que les réseaux sociaux et les moteurs de recherche, qui nont pas quun rôle technique et neutre puisquils peuvent accélérer laccès à des contenus par le biais dalgorithmes de hiérarchisation et doptimisation, ainsi que la complexité procédurale menant au blocage temporaire daccès à un site ou au retrait de contenus illicites imposait, dans la ligne de la loi relative à la lutte contre la manipulation de linformation, des évolutions pour rendre plus efficaces et adaptées aux récentes mutations la répression de la diffusion des contenus haineux.

La proposition de loi s’inspire directement du modèle allemand, la Netzwerkdurchsetzungsgesetz, dite NetzDG, et met à la charge des opérateurs de plateformes en ligne – au-delà d’un seuil de connexion sur le territoire français – une obligation de retrait de tout contenu manifestement illicite dans un délai de 24 heures. En cas de refus de retrait ou de déréférencement des contenus dits « odieux », cette obligation est assortie d’une sanction pécuniaire plafonnée à 4 % du chiffre d’affaires mondial.

Dans le même souci d’efficacité, les modalités de signalement de contenus illicites sont simplifiées. L’article 3 prévoit une information claire et détaillée du public sur les possibilités de recours dont il dispose, soit qu’un auteur de contenus en conteste le retrait, soit que l’auteur du signalement d’un contenu ait vu sa demande de retrait rejetée.

Le CSA se voit confier une mission de régulation : il aura notamment la charge de recueillir le compte rendu des actions et moyens mis en œuvre par les opérateurs de plateformes pour lutter contre les contenus illicites. Le MoDem considère que cette tâche devrait pouvoir s’effectuer conjointement avec l’Autorité de régulation des communications électroniques et des postes (ARCEP), afin de mutualiser non seulement des moyens, mais aussi des compétences complémentaires.

Les sanctions financières sont également quadruplées par rapport à celles prévues par la loi pour la confiance dans l’économie numérique en cas de méconnaissance des obligations de concours à la lutte contre la diffusion de propos dit odieux et d’absence de mise en place d’un dispositif de signalement facilement accessible et lisible.

Les dispositifs sont donc renforcés et l’information publique améliorée, pour qu’internet ne soit plus un lieu d’irresponsabilité au regard du respect des droits fondamentaux. Le groupe MoDem et apparentés se félicite de ces avancées et proposera d’aller un peu plus loin, notamment en termes de prévention.

À titre personnel, puisque rien n’est si proche de la haine que l’amour, à la suite de la publication de cette loi, j’espère que les internautes auront la bonne idée de réfléchir à deux fois avant de dire tout et n’importe quoi sur la Toile. La liberté d’expression est primordiale, mais elle doit nécessairement s’inscrire dans le respect des droits fondamentaux.

Mme Michèle Victory. Si notre groupe se retrouve bien dans les enjeux soulevés par la proposition de loi, il n’a pas encore défini sa position sur le texte, qui a le mérite de poser la question du déferlement de la haine sur internet, véritable fléau de notre temps qui met en danger tous nos principes républicains
– nous connaissons tous le problème – et de s’y attaquer.

Ce faisant, la proposition de loi touche à un équilibre essentiel et fragile entre la protection de la liberté d’expression – affirmée dans les précédents textes de loi – et la protection des personnes lorsqu’elles sont harcelées ou cyber‑harcelées pour quelque motif que ce soit. L’extension des prérogatives du CSA en matière de lutte contre les propos haineux aux nouveaux supports numériques et aux plateformes nous semble aller dans le bon sens pour lutter contre la diffusion de ces contenus, bien que certains termes doivent être précisés. Il faudra cependant être très prudents face à une éventuelle dérive administrative, au détriment du pouvoir judiciaire – cela a été pointé par le Conseil d’État et différents organismes comme la Commission nationale consultative des droits de l’homme (CNCDH).

En outre, les auditions de notre commission d’enquête en cours sur les groupuscules d’extrême droite ont souligné l’importance des moyens déjà existants. La Plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements (PHAROS) dispose de compétences indéniables
– nous l’avons visitée – mais ces dernières doivent être démultipliées. Des moyens supplémentaires doivent être déployés et beaucoup plus de personnes pour traiter toutes ces données et plaintes, afin de venir en aide aux utilisateurs.

Enfin, la prévention des risques, l’information, la sensibilisation seront les bienvenus. L’Éducation nationale joue déjà pleinement son rôle envers les jeunes, soutenue par de nombreuses associations sur le terrain. C’est un enjeu majeur. Mais les jeunes ne sont pas les seuls à propager des propos haineux ou de fausses informations sur internet ; toute la société est touchée, y compris nos anciens. Il faut donc responsabiliser tous nos concitoyens : chacun d’entre nous doit faire face à ses contradictions et à ses responsabilités. En la matière, la proposition de loi ne prévoit pas de mesures spécifiques, mais « responsabilisation » doit être le maître mot. Nous allons réfléchir à notre position concernant la proposition de loi pour la séance publique.

Mme Béatrice Descamps. Nous examinons pour avis les articles 1er et 4 de la proposition de loi visant à lutter contre la haine sur internet. La prolifération de la haine sur ce média s’accroît de manière exponentielle. La proposition de loi porte l’objectif très ambitieux d’apporter des réponses à ce phénomène.

Le sujet qui nous réunit aujourd’hui rejoint, à certains égards, les débats sur le projet de loi relatif à la lutte contre la manipulation de l’information. Il s’agit de lutter contre la publication de contenus néfastes qui prolifèrent sur internet sans que l’on ne parvienne à y mettre un terme. L’auteur de ces contenus, derrière un écran d’ordinateur, est capable de proférer des propos racistes, discriminatoires – illégaux donc – en toute impunité. L’instantanéité de la diffusion et le caractère immatériel d’internet engendrent toute une série d’abus qui sont autant de souffrances pour les personnes qui en sont victimes.

On imagine souvent que l’auteur de tels propos est une personne très jeune et puérile. Mais la vérité est bien différente… En février dernier, la désormais fameuse « Ligue du LOL », regroupant des journalistes, des communicants et des publicitaires, a été démasquée. Elle est accusée de harcèlement à connotation sexiste et homophobe. La prolifération des contenus haineux atteint un tel degré que des applications permettent de faire le tri, via des algorithmes, entre les messages reçus sur les réseaux sociaux. Ces algorithmes sont capables de distinguer les messages haineux des messages anodins.

Au-delà de l’endiguement des contenus haineux, il s’agit également de lutter contre leur banalisation. C’est simple, à force de les voir, on ne fait plus attention à eux ; ils font partie du paysage.

Toute la difficulté tient dans l’imputabilité : à qui attribuer la responsabilité ? À qui incombe-t-il de faire le tri dans la diffusion des contenus ? La proposition de loi fait un choix en étendant les prérogatives du CSA. Cela va dans le bon sens car c’est l’autorité la plus compétente pour opérer ce contrôle. Toutefois, nous nous interrogeons sur la nature du contrôle et sur les moyens alloués, face à l’afflux colossal des requêtes. Le CSA effectue d’ores et déjà le contrôle des contenus diffusés à la télévision, à la radio et sur les services de médias audiovisuels à la demande, il semble donc naturel que ce contrôle soit étendu aux réseaux sociaux. Mais effectuer un contrôle global entrainera une charge de travail colossale, qui nécessite des moyens financiers, humains et organisationnels.

Quels moyens entend-on octroyer au CSA afin qu’il mène à bien la mission que vous lui confiez ? Quelle sera l’articulation des prérogatives du CSA avec celles du juge judiciaire ? Comme l’énonce le Conseil d’État dans son avis du 16 mai 2019 : « la suppression dun contenu odieux sur internet est un acte radical au regard de la protection dont jouit la liberté dexpression (…). Le retrait de contenu ne peut donc généralement être opéré que par le juge judiciaire ou à tout le moins sous son contrôle ».

Au-delà des interrogations, nous avons également des craintes. Si nous partageons ardemment la nécessité de lutter contre la haine sur internet, toutes les situations ne sont pas évidentes. L’étude des propos dénoncés ne permettra pas toujours de classer ceux-ci comme corrects ou devant être supprimés en un temps record. La temporalité de la suppression interroge donc : porter atteinte à la liberté d’expression mérite de prendre le temps de la réflexion.

Comme l’indique votre rapport, pour lutter efficacement contre la diffusion des contenus haineux sur internet, il faut prévoir un accompagnement, par des programmes ambitieux de lutte contre le harcèlement, notamment à l’école – c’est déjà le cas – mais pas uniquement. Il est primordial de former les enseignants, tant lors de leur formation initiale qu’en formation continue, afin que ceux-ci sachent réagir face aux situations de harcèlement. Il faut aussi sensibiliser les parents, qui n’ont pas toujours conscience de ce que font leurs enfants sur internet.

Le groupe UDI Agir et Indépendants ne formulera donc pas d’avis sur un texte dont nous savons déjà que les articles seront largement modifiés.

M. Michel Larive. Deux articles de la proposition de loi nous sont présentés. L’article 1er dispose que les plateformes sont tenues de retirer ou de rendre inaccessible dans un délai maximal de 24 heures après notification tout contenu comportant manifestement une incitation à la haine ou une injure discriminatoire à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap. Bien entendu, nous y sommes favorables. Mais l’auto‑régulation nous inquiète. Ainsi, l’article 4 de la proposition de loi dispose que le CSA contribue à la lutte contre la diffusion de la haine sur internet, envoie des recommandations aux plateformes, suit les obligations pesant sur les opérateurs, publie un rapport périodique, etc. C’est bien joli, mais cela ne va pas vraiment faire trembler ces plateformes.

Je le répète, nous sommes favorables au retrait des contenus comportant une incitation à la haine ou à une injure liée à la race, la religion, l’ethnie, le sexe, l’orientation sexuelle ou le handicap. Mais la rédaction de la proposition de loi manque de clarté et cela emporte des conséquences sur celle des dispositifs qu’elle souhaite mettre en place et sur les différents pouvoirs mobilisés. Ainsi, quand elle mentionne l’autorité administrative chargée d’ordonner des actions aux plateformes et aux moteurs de recherche, elle ne détermine pas laquelle. Est-ce le CSA ou la police administrative d’une structure ad hoc ? La proposition de loi peut être dangereuse, comme le souligne le Conseil national du numérique (CNNum). Elle pourrait avoir un impact, insuffisamment évalué à son sens, sur les droits et libertés. Selon le CNNum, il faut tout d’abord, et urgemment, définir très précisément ce qu’est un discours haineux, tout comme il faut impérativement prévoir un juste équilibre entre le recours au mécanisme judiciaire, à la régulation et à l’autorégulation.

En matière de lutte contre les contenus haineux, le rôle du juge est fondamental pour éviter les abus, protéger les victimes et offrir les garanties d’indépendance nécessaires à l’égard tant des plateformes que du pouvoir exécutif. Les lois récentes – lutte contre la manipulation de l’information et droits voisins des éditeurs de presse en ligne – confèrent de plus en plus de pouvoirs aux plateformes. Cette dérive risque de les doter d’un rôle important de filtre des contenus sur internet.

Rien ne justifie l’urgence avec laquelle cette proposition de loi est examinée puisqu’une mission sur la régulation des réseaux sociaux est en cours et rendra ses conclusions fin juin, après le début de l’examen de cette proposition de loi. C’est dommage.

Mme Elsa Faucillon. Bien évidemment, l’objectif de cette proposition de loi est également le nôtre. Nous tentons par tous moyens, y compris dans le cadre de notre mandat et par notre action politique, de faire face et de lutter contre la haine – sur internet ou ailleurs. C’est un travail de longue haleine, ce qui ne doit pas nous empêcher d’agir vite et par la loi. Mais comment agir contre la haine sans restreindre la liberté d’expression ?

Nous avons les mêmes réserves sur cette proposition de loi que sur celle relative à la lutte contre la manipulation de linformation. Laccumulation de lois visant à réguler internet nous inquiète à plusieurs titres : la liberté dexpression est un des piliers des sociétés démocratiques. Il est fondamental de la préserver, comme il est fondamental de lutter contre la haine. Je fais miens les propos du Conseil dÉtat qui, dans une étude de 2014, estimait que lessor dinternet ne modifie pas les limites pouvant être imposées à la liberté dexpression, mais amène à sinterroger sur les instruments de la lutte contre les contenus outrepassant ces limites.

L’article 1er de la proposition de loi dont notre commission est saisie exige que les plateformes suppriment en 24 heures les propos de nature haineuse et manifestement illicites. Cette mesure s’inspire de la loi allemande entrée en vigueur en 2018. On peut en faire un premier bilan : son application fait polémique, les plateformes étant accusées d’excès de zèle – elles censurent des contenus qui ne relèveraient pas de propos illicites, en toute opacité. Facebook, Google et Twitter deviennent ainsi les seuls maîtres de ce qui peut, ou non, être dit sur internet. Or l’indépendance de ces plateformes est nulle.

Le Conseil national du numérique estime que les systèmes de modération des contenus encouragés par la proposition de loi pourraient conférer un avantage non négligeable aux grands acteurs, qui disposent déjà des capacités techniques et des ressources humaines, au détriment des acteurs plus petits. En novembre 2018, Mark Zuckerberg a été très clair : les petits acteurs d’internet ne peuvent pas faire face à la propagande terroriste, aux fausses informations ou à la haine en ligne seuls ; ils ont besoin de l’aide de Facebook. C’est pourquoi il se réjouissait que le Gouvernement français collabore avec lui pour réfléchir à l’élaboration de la loi !

L’article 4 dispose que le CSA émettra des recommandations, s’assurera du suivi des obligations reposant sur les opérateurs et publiera un bilan périodique. Cet article fixe également des obligations de transparence aux opérateurs de plateforme en matière de lutte contre les contenus comportant manifestement une incitation à la haine. Je redis ici les limites que nous avions déjà formulées lors de l’examen du projet de loi relatif à la lutte contre la manipulation de l’information : internet doit rester un vecteur de libération. Or une structure dédiée à la régulation audiovisuelle ne peut réguler les contenus sur internet. Exiger l’extension des principes de la régulation des contenus audiovisuels à internet est un contresens, car internet n’est pas marqué par les mêmes spécificités que le secteur audiovisuel.

M. Stéphane Testé. La proposition de loi que nous examinons ne prévoit de sanctions qu’en cas de manquement aux obligations de retrait d’un contenu, et non en cas de surcensure. Ne craignez-vous pas que les plateformes censurent abusivement pour se protéger d’actions intentées contre elles ?

Mme Emmanuelle Anthoine. Le harcèlement scolaire est une forme de discours de haine dont souffrent de trop nombreux enfants. Les plateformes numériques en sont un vecteur important, tout en lui donnant une ampleur dramatique. Face à la violence que subissent les élèves qui en sont victimes, ne pourrions-nous pas étendre le champ de la proposition de loi aux contenus relevant du harcèlement scolaire ?

M. Laurent Garcia. Je salue le travail de notre rapporteure, Mme Colboc. Le CSA se voit désormais attribuer des pouvoirs de sanction. Une de nos collègues l’a évoqué : comment ses pouvoirs s’articuleront-ils avec ceux du juge ? Comment le processus, entre la détection du contenu et la sanction, sera-t-il mis en musique ?

M. Pierre-Yves Bournazel. Ne faudrait-il pas que le CSA sanctionne uniquement le non-respect systématique par les opérateurs de plateformes de l’obligation de retrait sous 24 heures des contenus manifestement illicites, afin de ne pas exiger du Conseil un examen contenu par contenu ? Ne pensez-vous pas qu’un risque de sanction systématique pour chaque contenu aboutirait à une censure préventive des plateformes et donc, par extension, à une réduction progressive de la liberté d’expression en ligne ?

Mme Agnès Thill. Madame la rapporteure, je vous remercie de votre implication sur ce sujet important qu’est la lutte contre la haine en ligne.

Notre société se juge par le sort auquel nous exposons nos enfants. Aujourd’hui, quatre adolescents sur cinq ont accès ou sont inscrits sur les réseaux sociaux. En conséquence, ils bénéficient d’une liberté sans précédent par rapport aux générations passées, mais sont surtout exposés à des propos haineux – dont ils sont la cible – et à des contenus violents ou pornographiques. Même entourés, les enfants font face à une diversité sans limite de manifestations de haine. Ils voient des images violentes dès l’école primaire.

Comment ce texte cible-t-il la protection en amont des mineurs face à la haine et à la violence sur internet ? Quels seront les nouveaux instruments de cette lutte ? Dans quelle mesure et avec quels moyens la proposition de loi permet-elle d’entendre, puis de protéger les enfants mineurs victimes de la haine et de la violence sur internet ? Pouvez-vous nous exposer le degré d’investissement des grandes plateformes numériques dans la lutte contre la haine sur internet, quelle que soit sa forme ?

Mme Valérie Bazin-Malgras. Ma question porte sur la levée de l’anonymat sur les plateformes. Pour lutter contre les contenus haineux sur internet, il faut se donner les moyens d’obtenir leur retrait dans les délais les plus brefs, ce que prévoit cette proposition de loi. La sanction de tels contenus est déjà prévue par la loi, et la présente proposition vise à intervenir pour leur suppression, mais rien n’est prévu pour renforcer la dissuasion de diffuser de tels contenus. Dans la proposition de loi n° 1776, que j’ai rédigée, il était prévu que les utilisateurs des réseaux sociaux s’enregistrent sous leur identité réelle, ce qui constitue un moyen de dissuasion. Pensez-vous insérer une telle obligation dans ce texte ?

Mme line Calvez. Cette proposition de loi prévoit un véritable arsenal contre les propos haineux ou injurieux sur internet et vous soulignez dans le rapport le nouveau rôle qui incombe au CSA, « l’extension du domaine de la lutte ». Pour mettre fin à l’irresponsabilité des hébergeurs, ce texte prévoit un mécanisme facilité de signalement des contenus comportant une incitation à la haine ou une injure discriminatoire. Les opérateurs de plateforme en ligne devront rendre leur retrait effectif dans un délai maximum de 24 heures après notification. Un bouton unique sera ainsi instauré pour tout signalement. Ce système repose toutefois sur la diligence des utilisateurs des plateformes et sur leur capacité à repérer de tels contenus. Que faire lorsque des utilisateurs signalent un contenu haineux sur certains des services et non sur les autres, où ces contenus seraient par conséquent toujours disponibles ? Les différents opérateurs pourraient-ils être informés des contenus signalés chez leurs concurrents pour, à leur tour, les déréférencer s’ils les hébergent ? Que pensez-vous de la création d’une plateforme commune de signalement ?

Mme Florence Granjus. À la page 13 de votre projet de rapport, vous précisez les actions spécifiques à mener à l’égard des plus jeunes et de leurs parents, vous soulignez le rôle pédagogique et préventif des institutions en charge de la jeunesse et du monde associatif et vous précisez également que l’école est le lieu privilégié d’une intervention visant à assurer le respect des règles élémentaires de civisme en ligne. Vous rappelez que la formation des enseignants est également capitale, et proposez qu’une fiche sur l’utilisation sécurisée d’internet et des réseaux sociaux soit mise à disposition des parents. Or, constat effrayant, seuls 10 % des victimes mineures parlent de leur problème à leurs parents. Comment mieux former les enseignants à détecter les enfants susceptibles d’être touchés par la haine exprimée sur internet ? Que pourrait-on faire pour orienter plus efficacement les victimes vers les plateformes d’écoute spécialisées, afin qu’elles soient plus rapidement prises en charge et accompagnées ?

M. Bertrand Sorre. Je tiens à mon tour à saluer le travail de la rapporteure pour avis. Il existe aujourd’hui de nombreuses associations spécialisées dans le domaine de la prévention de la haine, des discriminations et du harcèlement en ligne. Elles me paraissent constituer des ressources majeures dans la lutte contre la haine sur internet. Comment valoriser davantage le rôle et l’expertise de ces associations spécialisées au travers de cette proposition de loi ?

Mme Aurore Bergé. Bien que de nombreux citoyens soient victimes de propos haineux sur internet, l’appréciation des contenus dénoncés peut s’avérer délicate. Le fait que cette compétence soit attribuée à une autorité administrative indépendante présente une difficulté d’ordre constitutionnel en matière de contrôle. Comment pensez-vous que celle-ci puisse être levée ?

Par ailleurs, comment pourra-t-on articuler l’élargissement des prérogatives du CSA et sa possible fusion avec la Haute Autorité pour la diffusion des œuvres et la protection des droits sur internet (HADOPI) dans le cadre d’une réorganisation des autorités de régulation des contenus audiovisuels ?

M. Stéphane Claireaux. Le texte de loi visant à lutter contre la haine sur internet prévoit dans son article 1er, outre un dispositif simplifié de signalement de contenus haineux, une obligation pour les plateformes concernées de retirer lesdits contenus dans un délai maximum de 24 heures après en avoir reçu le signalement. Le fait que ces contenus soient protéiformes – il peut s’agir d’un écrit, d’une photo, d’une vidéo ou d’un simple lien – rend plus difficiles leur repérage et leur qualification. Ces contenus étant par ailleurs d’une extrême viralité, ils peuvent se propager très rapidement dès qu’ils sont publiés. Existe-t-il un moyen pour les hébergeurs de tracer la publication d’une forme numérique d’incitation à la haine lorsque celle-ci est relayée sur d’autres sites que le leur ? La proposition de loi vise à tarir en 24 heures la source qui abreuve la toile de propos haineux, mais comment endiguer les reprises, relais et copies de ces propos ailleurs sur internet ?

Mme Jacqueline Dubois. L’article 28 ter de la directive européenne du 10 mars 2010 relative aux services de médias audiovisuels modifiée par la directive du 14 novembre 2018 contraint les États membres à prendre des mesures pour protéger les mineurs et le grand public des vidéos incitant à la violence ou à la haine fondée notamment sur les convictions, les opinions politiques ou toute autre opinion. Or, durant l’épisode de contestation des Gilets jaunes, de nombreux députés ont été la cible d’insultes, de menaces, d’appels à la haine sur internet en raison de leur fonction ou de leur appartenance à un parti politique. Ne faudrait-il donc pas étendre le champ de la proposition de loi à ce type de situations ?

Mme Danièle Cazarian. Les propos appelant à la haine sur la toile sont en recrudescence. Internet et les réseaux sociaux, que l’on qualifie à juste titre d’accélérateurs de contenus, sont aujourd’hui les principaux lieux de propagation des propos incitant à la violence, notamment de vidéos retransmises en direct et qui restent parfois en ligne en toute impunité. Il est impératif que les dispositions législatives priment les conditions générales d’utilisation des opérateurs. Si la préservation de la sécurité et de la dignité de nos concitoyens repose sur une législation efficace, elle dépend également de notre action en matière de prévention. Quels mécanismes pouvons-nous mettre en place pour prévenir les appels à la violence sur internet, et sur les réseaux sociaux en particulier ?

Mme Florence Provendier. Madame la rapporteure, je vous remercie du travail que vous avez mené au nom de notre commission sur cette proposition de loi si importante pour lutter contre le fléau de la haine en ligne et sa banalisation.

Dans l’espace numérique, les enfants sont seuls, livrés à eux-mêmes et aux autres, seuls face à la diversité des manifestations de haine. Cette situation est totalement contraire au principe réaffirmé par la Convention internationale des droits de l’enfant selon lequel l’enfant a besoin d’une protection spéciale. À ce titre, il ne doit pas être livré à lui-même. On constate malheureusement aujourd’hui qu’il existe un écart générationnel entre les parents et les enfants en ce qui concerne l’usage d’internet. Peu de parents imaginent la violence constante à laquelle les enfants peuvent être confrontés en ligne ; images choquantes, contenus pornographiques, propos injurieux, racistes ou homophobes. Pour plus de 42 % des 11-18 ans, il n’est pas question d’en parler. C’est toutefois la seule manière d’endiguer la banalisation de la haine. Beaucoup de jeunes victimes ou témoins de cette haine alternent entre peur, impuissance et honte face au phénomène. La présente proposition de loi vise à faire cesser le sentiment d’impuissance grâce aux signalements par les internautes avec l’obligation pour les plateformes de supprimer les contenus dans les 24 heures. Qu’en est-il cependant pour les mineurs exposés à ce type de contenu et dont le discernement n’est pas total ? Quels dispositifs pourrait-on inscrire dans ce texte afin de protéger les enfants des contenus haineux ?

M. Cédric Roussel. Face aux insultes et aux humiliations postées en ligne chaque jour et visibles par tous, l’intervention du législateur apparaît nécessaire. Personne ici ne veut que ses enfants banalisent la dévalorisation de l’autre via un écran, sans souci des conséquences réelles. Internet offre une multitude d’opportunités, mais l’absence d’une véritable régulation des contenus peut les rendre plus nuisibles que constructives. La présente proposition de loi permettra à cet espace de partage de redevenir un lieu de mise en commun de connaissances et d’avis éclairés et responsables. Si les plateformes doivent adopter dès à présent un comportement responsable face à ces agissements répréhensibles, c’est véritablement dans le domaine de la prévention envers le jeune public et les parents que nous devons travailler. Permettre au citoyen de développer son esprit critique et son sens de la responsabilité, c’est lui permettre de jouir pleinement de sa liberté d’expression. C’est à cette condition que celle-ci pourra être exercée dans le respect absolu d’autrui. Le ministre Jean‑Michel Blanquer a récemment fait plusieurs annonces sur la lutte contre le harcèlement : comment, à partir des outils juridiques mis à notre disposition, impulser une culture de responsabilité face aux dangers d’internet auprès du jeune public et des parents ?

Mme Danièle Hérin. Le filtrage des contenus, en particulier des images et des vidéos, est très coûteux. Les grandes plateformes des géants de l’informatique ayant beaucoup plus de moyens que les plateformes plus récentes, elles se trouvent avantagées pour l’utilisation de ces techniques. Existe-t-il des études sur le sujet ? Avez-vous réfléchi à ce problème ?

Mme Sophie Mette. Les campagnes de désinformation russes, la diffusion en direct des attentats de Christchurch, la crise des gilets jaunes ou dernièrement les fausses informations sur les populations roms montrent que la haine sur internet a pour vecteur principal les réseaux sociaux. Facebook étant le plus grand réseau social au monde et la principale porte d’entrée vers l’information pour des millions de gens, cette entreprise devrait avoir une responsabilité forte en matière d’accès à l’information. Or en fait de déontologie, il n’y a que l’autorégulation d’une entreprise multinationale. Dans ces conditions, ne pensez-vous pas qu’il conviendrait d’instaurer un nouveau rapport de force entre les réseaux sociaux et les individus ? Nous avons tous conscience du problème que posent ces grandes entreprises du numérique qui sont désormais partie intégrante de nos vies, et parce que ce problème soulève des enjeux importants, il est nécessaire d’y apporter une réponse forte. Que pensez-vous de l’idée de créer une autorité administrative spécifique dont la seule prérogative serait de réguler les réseaux sociaux ? En effet, l’autorégulation ne semble pas fonctionner, comme l’a souligné un rapport parlementaire britannique qui vise à empêcher que les entreprises comme Facebook continuent à se comporter comme des « gangsters du numérique ».

Mme Marie-George Buffet. Telle qu’elle est aujourd’hui rédigée, la proposition de loi suscite mon inquiétude sur un point en particulier : le pouvoir donné aux plateformes. En contraignant ces dernières à retirer dans les 24 heures les contenus signalés comme incitant à la haine, ne court-on pas le risque qu’elles exercent une forme de censure à l’encontre de propos qui leur déplairaient pour des raisons de sensibilité propre, notamment politique ? Pouvez-vous nous rassurer sur ce point, madame la rapporteure ?

Mme Frédérique Meunier. L’article 2 rappelle que les plateformes devront mettre en œuvre les moyens humains ou technologiques proportionnés et nécessaires à un traitement dans les meilleurs délais des signalements reçus. Twitter, qui draine chaque jour des millions de messages, devra donc prévoir une armée de modérateurs en mesure de traiter toutes les notifications reçues, qu’elles soient sérieuses ou farfelues. Pensez-vous qu’un délai de 24 heures pour le retrait des publications signalées soit réaliste au vu du nombre de notifications à traiter ?

Mme Fabienne Colboc, rapporteure pour avis. Je suis heureuse de constater que nous sommes d’accord sur le constat et partageons les mêmes objectifs. J’entends vos craintes, notamment en matière de droits et libertés ; mes amendements visant à y répondre, nous y reviendront dans quelques instants. J’ai pris note de vos remarques sur l’efficacité de cette proposition et sur les nouveaux pouvoirs conférés au CSA. Je vous proposerai également plusieurs amendements sur ces sujets, sachant que nous devons tenir compte du cadre législatif européen. Cette proposition de loi vise à créer un nouveau rapport de force ; si les moyens proposés se révèlent inefficaces, il nous incombera d’aller plus loin.

S’agissant du CSA, une application rigoureuse des dispositions du texte requiert une augmentation importante de ses moyens humains. C’est la raison pour laquelle je propose de lui conférer un pouvoir de sanction limité à l’obligation de moyens, la sanction de l’obligation de résultat revenant au juge judiciaire ; c’est d’ailleurs la solution retenue par le Conseil d’État. Le CSA doit être un régulateur, et non un juge. L’amendement que je propose à l’article 4 répond ainsi à vos craintes sur les moyens : moins d’une dizaine d’équivalents temps plein (ETP) supplémentaires seraient alors nécessaires.

Concernant le rapprochement du CSA avec l’ARCEP, il serait préférable d’attendre la discussion du projet de loi audiovisuel.

Je suis également l’avis du Conseil d’État sur la création d’une infraction autonome réprimée par le juge judiciaire en cas de non-retrait après 24 heures ; le CSA, régulateur, pourra ainsi appuyer ses analyses sur les plaintes et les condamnations prononcées.

Sur la prévention, les jeunes ne sont pas les seuls concernés. Il est néanmoins plus difficile de toucher le public plus âgé dans son ensemble autrement que par la sensibilisation opérée par les plateformes elles-mêmes. Plusieurs amendements de Mme Bannier et de Mme Kuster vont dans ce sens. Ce n’est toutefois pas le champ de compétence de notre commission ; c’est pourquoi je me suis centrée sur les élèves et, plus généralement, les jeunes. Les enseignants doivent à cet égard disposer de clés pour juguler ce phénomène et être en mesure de détecter les potentielles victimes.

Quant au risque de censure, de sur-retrait, il existe, et nous avons pu le constater avec Twitter. Ce ne serait toutefois pas dans l’intérêt des plateformes d’agir ainsi, car leurs utilisateurs seraient alors tentés de partir chez leurs concurrents. Ce sujet est donc à suivre de près, notamment dans les recommandations adressées par le CSA aux plateformes.

Le ministre Jean-Michel Blanquer a fait des annonces claires sur le harcèlement scolaire et proposé des mesures spécifiques, notamment la création d’un label « non au harcèlement » pour les établissements les plus à la pointe dans la lutte contre ce fléau. D’autres mesures concernent plus généralement la lutte contre l’homophobie, contre les propos racistes et antisémites. Des propositions ont également été faites sur la formation initiale et continue des enseignants. La mallette des parents, enfin, est un outil dont dispose l’Éducation nationale pour l’information des parents d’élèves. Le guide « La Famille Tout-Écran » gagnerait à être plus largement diffusé en direction des familles, et tout le travail réalisé doit être valorisé.

Mme Emmanuelle Anthoine. C’est de la prévention !

Mme Fabienne Colboc, rapporteure pour avis. Il s’agit bien de prévention. Le texte portant spécifiquement sur les contenus haineux, il conviendra de traiter le problème du cyber‑harcèlement dans le cadre du projet de loi audiovisuel, qui aura également pour objet la régulation du numérique.

Madame Dubois, vous m’avez interrogée sur la prise en compte des propos haineux visant les élus ; nous y reviendrons lors de l’examen de l’amendement de Mme Bannier.

Pour valoriser l’expertise des associations spécialisées dans le domaine de la lutte contre la haine et contre les discriminations soulignée par M. Sorre, je propose dans un amendement à l’article 4 de leur reconnaître un rôle particulier d’alerte auprès du CSA.

J’en viens au sujet de l’anonymat en ligne. Entre les tenants d’un internet libre et ceux qui veulent réglementer l’espace numérique de la même façon que l’espace public, il y a un écart non négligeable. L’équilibre trouvé par la loi pour la confiance dans l’économie numérique me paraît bon : ceux qui produisent et diffusent des contenus sur internet sont tenus de fournir leurs coordonnées à l’hébergeur, lequel est tenu de les transmettre à la justice le cas échéant. Un durcissement des règles dans ce domaine ne serait pas efficace, car ceux qui les contournent déjà aujourd’hui n’auront aucun mal à le faire demain.

Concernant la traçabilité, il existe des moyens de repérer des contenus identiques grâce à l’intelligence artificielle, mais ces technologies ont encore des limites, notamment quand le contenu est légèrement modifié par rapport à l’original. C’est pourquoi il est accordé une telle importance au signalement, dont la procédure doit être simplifiée pour les utilisateurs et les associations qui peuvent œuvrer dans ce domaine. Il faudra également promouvoir la coopération entre plateformes, car rien n’est prévu en cas de suppression d’un contenu par l’une d’entre elles à la suite d’une décision judiciaire. Les représentants des réseaux sociaux que nous avons auditionnés sont d’ailleurs favorables à un partage d’informations pour neutraliser la viralité des propos haineux. Le CSA pourra formuler de recommandations en ce sens.

II.   examen des articles

Article 1er

La commission examine lamendement AC24 de M. Michel Larive.

M. Michel Larive. Cet article met en place une contrainte sur les plateformes, qui devront retirer les contenus comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap, ce à quoi nous sommes évidemment favorables. Mais nous avons des doutes quant à l’efficience de ce dispositif, qui ne s’accompagne pas réellement d’une prise en charge des victimes. Pire encore, on laisse aux plateformes, dont le modèle économique repose sur l’échange de messages qui font le buzz et qui, par suite, répandent la haine, le soin d’être leurs propres régulateurs. D’autres solutions, prônées par des associations, notamment La Quadrature du Net, nous ont semblé plus à même de lutter contre la haine via la mise en place de l’interopérabilité des plateformes, que le groupe La France insoumise défendra en commission des Lois. Enfin, le pouvoir de sanction du CSA est très rarement utilisé, et nous pensons que la menace d’une sanction pécuniaire de 4 % du chiffre d’affaires annuel mondial total de l’exercice précédent n’est qu’une incantation. Nous partageons votre façon de poser le problème, mais les solutions que vous proposez nous paraissent inefficaces. C’est pourquoi nous demandons la suppression de l’article dans sa rédaction actuelle.

Mme Fabienne Colboc, rapporteure pour avis. Je suis heureuse que vous partagiez l’objectif général de la proposition de loi de ma collègue Laëtitia Avia. Concernant la protection des victimes, elle est garantie par le droit pénal et civil existant, et il n’est pas utile de créer de nouveaux dispositifs. Des moyens supplémentaires pour la justice seraient néanmoins probablement nécessaires, je vous l’accorde.

Je ne peux pas vous laisser dire que le CSA n’applique jamais les sanctions prévues, soit jusqu’à 3 % du chiffre d’affaires pour les chaînes de télévision et de radio qui commettent des manquements graves. Il le fera donc aussi pour les opérateurs de plateforme, à l’instar de ce que fait aujourd’hui la Commission nationale de l’informatique et des libertés (CNIL). Google a ainsi été condamné récemment à 50 millions d’euros d’amende, un montant significatif. Je n’ai donc aucune crainte quant à ce que cette possibilité légale soit utilisée par le CSA toutes les fois qu’il le jugera nécessaire.

Je vous rejoins cependant sur le fait qu’en l’état actuel, le dispositif de la proposition de loi n’est pas satisfaisant et risque de se heurter à des problèmes de mise en œuvre. C’est la raison pour laquelle je vous propose de transférer la sanction administrative à l’article 4 et de la faire porter sur l’obligation de moyens à la charge des plateformes, et non sur l’obligation de résultat, c’est-à-dire sur le non-retrait en 24 heures. Le CSA ne pourra en effet faire face à l’afflux de demandes, et ce n’est d’ailleurs pas son rôle.

Je vous demande de bien vouloir retirer votre amendement, car celui que je propose répondra à vos préoccupations. À défaut, l’avis sera défavorable.

M. Raphaël Gérard. J’ai moi-même rencontré l’association La Quadrature du Net, qui propose une solution techniquement intéressante, l’interopérabilité des grandes plateformes avec les autres services internet. Mais celle-ci a pour défaut de ne pas tenir compte des pratiques. Si les utilisateurs vont vers des plateformes telles que Twitter ou Snapchat, c’est principalement pour leur attractivité, pour leur visibilité.

Quant au CSA, il est intervenu à de très nombreuses reprises l’année dernière dans le domaine audiovisuel à la suite de signalements de propos racistes, homophobes ou antisémites. On ne peut donc pas affirmer qu’il n’intervient pas suffisamment.

M. Michel Larive. Il importe de définir clairement les prérogatives du CSA, et leur articulation avec celles du juge judiciaire. J’aimerais également qu’on cite un exemple de condamnation par le CSA à une sanction de 4 % du chiffre d’affaires annuel mondial, car l’amende de 50 millions d’euros prononcée à l’encontre de Google est très loin de cette proportion.

Mme Fabienne Colboc, rapporteure pour avis. Radio Courtoisie a été condamnée en 2017 à verser 3 % de son chiffre d’affaires.

M. Michel Larive. Mais pas 4 % !

Mme Fabienne Colboc, rapporteure pour avis. Pour les services de médias audiovisuels, le quantum maximal est bien de 3 %. Le chiffre de 4 % est repris du règlement général sur la protection des données (RGPD).

La commission rejette lamendement.

Elle en vient à lamendement AC6 de Mme Brigitte Kuster.

Mme Brigitte Kuster. La lutte contre les contenus haineux publiés sur internet, un objectif d’intérêt général, commande d’effacer la distinction que la loi opère entre le statut d’éditeur et celui d’hébergeur. Cet amendement prévoit qu’une fois le contenu illicite notifié, les opérateurs de plateforme en ligne comme leurs hébergeurs sont tenus, dans un délai de 24 heures, de procéder à sa suppression ou à son retrait et que, en cas de manquement, ils sont soumis au même régime de sanction.

Mme Fabienne Colboc, rapporteure pour avis. La commission s’est saisie pour avis de ce texte en raison du rôle confié au CSA, mais n’est pas concernée, à titre principal, par le régime décrit dans la loi pour la confiance dans l’économie numérique quant aux contenus haineux. Je ne pourrai donc vous apporter une réponse aussi éclairée que celle de la rapporteure au fond sur ce sujet. Néanmoins, tel qu’il est rédigé, votre amendement risque d’entraîner une certaine confusion car il donne l’impression que les opérateurs de plateforme en ligne visés par le code de la consommation ne sont pas des hébergeurs au sens de la LCEN et de la directive e‑commerce. Les opérateurs de plateforme ne sont pas hébergés par d’autres : ils sont des hébergeurs. J’y suis donc défavorable.

La commission rejette lamendement.

Elle examine lamendement AC4 de Mme Anthoine.

Mme Emmanuelle Anthoine. Le 15 mai dernier, la France a lancé aux côté de la Nouvelle-Zélande l’appel de Christchurch exprimant sa volonté de lutter contre les contenus terroristes et extrémistes violents sur le net. L’examen de cette proposition de loi est l’occasion de donner corps à cet engagement en ajoutant les contenus terroristes et extrémistes violents à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement. Tel est l’objet de cet amendement.

Mme Fabienne Colboc, rapporteure pour avis. À nouveau, je ne suis pas la mieux à même de donner un avis sur des sujets qui concernent plus directement la rapporteure au fond, mais il me semble que votre amendement est couvert, du moins en partie, par les dispositions de l’article 6-1 de la LCEN, qui prévoit une procédure de retrait spécifique pour les contenus terroristes. Quant aux contenus extrémistes et violents, ils ont généralement un ressort discriminatoire qui peut les faire entrer dans le champ des provocations à la haine ou à la violence raciste ou homophobe, par exemple. Votre amendement étant largement satisfait, mon avis est défavorable.

La commission rejette lamendement.

Elle en vient à lamendement AC20 de Mme Anthoine.

Mme Emmanuelle Anthoine. Le harcèlement scolaire touche plus d’un jeune français sur dix, soit 750 000 enfants chaque année. Nous devons donc réagir. Trop de jeunes, chaque année, mettent fin à leurs jours à cause de telles situations. Le harcèlement scolaire se définit par la violence, les agressions régulières, verbales, physiques ou psychologiques. Les enfants sont insultés, bousculés, menacés, battus ou injuriés. Cette réalité insoutenable ne doit pas avoir sa place au sein de l’école de la République. C’est pourquoi nous proposons par cet amendement d’ajouter le harcèlement scolaire à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement.

Mme Fabienne Colboc, rapporteure pour avis. Je suis comme vous indignée par le harcèlement scolaire, mais ce sujet s’éloigne de celui de la haine en ligne à caractère discriminatoire. En outre, sur le plan rédactionnel, la notion de « forme de harcèlement scolaire » me paraît insuffisamment précise. Le harcèlement scolaire n’est pas une infraction en tant que tel, et en usant d’une expression qui ne renvoie pas à une infraction caractérisée, vous encourez un risque de censure constitutionnelle. Les mesures très récemment annoncées par le ministre de l’Éducation nationale, comme le programme clé en main pour tous les établissements et les réseaux départementaux d’intervention, me paraissent d’ailleurs répondre à vos préoccupations. Avis défavorable.

La commission rejette lamendement.

Elle examine lamendement AC23 de Mme Emmanuelle Anthoine.

Mme Emmanuelle Anthoine. Nous proposons d’ajouter la notion d’atteinte à l’intimité de la vie privée d’autrui. La diffusion de contenu portant atteinte à l’intimité d’autrui a de lourdes répercussions pour les victimes. Les femmes sont le plus souvent victimes de la diffusion de contenus intimes de la part de leur ex-conjoint ou ex-compagnon dans le contexte d’une séparation. Elles en souffrent souvent comme d’un viol car elles sont atteintes dans leur intimité.

Plus généralement, tout individu a droit au respect de sa vie privée comme le consacre notamment l’article 8 de la Convention européenne des droits de l’homme.

De même, l’article 9 du code civil affirme que « chacun a droit au respect de sa vie privée. » Le droit à l’image se fonde sur cette disposition. Par sa jurisprudence, la cour d’appel de Paris a posé, en 1982, le principe selon lequel que « le droit au respect de la vie privée, permet à toute personne, fût-elle artiste du spectacle, de sopposer à la diffusion, sans son autorisation expresse, de son image, attribut de sa personnalité. »

La jurisprudence consacre aussi une neutralité technologique permettant que le droit à l’image s’applique de la même manière lorsque l’atteinte à l’image a lieu sur internet.

Il convient dès lors d’ajouter les atteintes à la vie privée d’autrui à la liste des contenus que les plateformes numériques se doivent de retirer dans les 24 heures suivant leur signalement.

Mme Fabienne Colboc, rapporteure pour avis. Vous souhaitez étendre l’obligation de retrait aux contenus constitutifs de l’infraction d’atteinte à l’intimité de la vie privée. Là encore, il me semble que l’on quitte un peu le champ de la haine en ligne à caractère discriminatoire. Certains faits peuvent être très graves, mais il faudrait les cibler et retenir un champ moins large que celui que vous proposez.

En outre, vous avez omis de préciser le caractère manifestement illicite nécessaire au respect de la jurisprudence constitutionnelle dans ce domaine. Avis défavorable.

La commission rejette lamendement.

Puis elle examine lamendement AC9 de Mme Brigitte Kuster.

Mme Brigitte Kuster. Les images violentes ou à caractère terroriste trouvent un champ d’expression et de diffusion extrêmement large sur les plateformes en ligne. Si les opérateurs parviennent, souvent avec les plus grandes difficultés, à extraire les contenus violents les plus relayés, beaucoup d’images particulièrement choquantes échappent à leur vigilance.

À l’heure de l’Appel de Christchurch, lancé depuis l’Élysée par le Président de la République et la Première ministre néo-zélandaise, en présence des principaux éditeurs mondiaux de contenus sur internet, il serait incompréhensible que la lutte contre les images violentes ou à caractère terroriste ne soit pas spécifiquement intégrée à la présente proposition de loi.

C’est pourquoi je vous propose de compléter le premier alinéa, en insérant « des images violentes ou à caractère terroriste » après le mot « comportant ».

Mme Fabienne Colboc, rapporteure pour avis. J’émets le même avis que pour les amendements précédents, notamment l’amendement AC2, pour les mêmes raisons.

La commission rejette lamendement.

Puis elle se saisit de lamendement AC32 de M. Raphaël Gérard.

M. Raphaël Gérard. C’est le premier d’une série d’amendements qui ont le même objet. Je vais développer mon argumentaire pour celui-ci, ce qui me permettra d’être plus rapide dans la défense des suivants.

Pour vous expliquer pourquoi il serait utile d’ajouter la notion d’identité de genre, je vais m’appuyer sur le cas médiatisé de Julia Boyer, car cette affaire montre bien le cheminement des propos haineux. Cela commence dans la rue par l’agression d’une jeune femme transgenre, place de la République. Ensuite, l’agression arrive sur les réseaux sociaux par le biais de contenus vidéo largement partagés. Ces contenus sont accompagnés de commentaires de soutien mais aussi de commentaires vraiment haineux, ceux que cible le présent texte. L’ajout proposé permettrait de ne pas écarter ce type de haine qui est vraiment fréquent sur internet.

Mme Fabienne Colboc, rapporteure pour avis. Je suis favorable à cet amendement de précision et de coordination.

La commission adopte lamendement.

Puis elle examine lamendement AC16 de Mme Béatrice Descamps.

Mme Béatrice Descamps. Parmi les différents sujets de haine ciblés par le présent article – religion, race, ethnie, sexe, orientation sexuelle, handicap –, il manque la discrimination d’ordre physique. Cette précision permet d’englober les nombreux cas de « grossophobie » mais également les propos insultants en raison de la maigreur, de la couleur des cheveux ou de toute particularité d’ordre physique. Rappelons le cas de Mattéo, un collégien de treize ans, qui s’est suicidé en 2013 parce qu’il était harcelé en raison de sa couleur de cheveux.

Mme Fabienne Colboc, rapporteure pour avis. Si nous adoptons l’amendement rédactionnel AC31 de notre collègue Raphaël Gérard, qui viendra en discussion dans quelques instants, les discriminations fondées sur l’apparence physique entreront bel et bien dans le champ de la proposition de loi, par le biais de la mention, à l’article 24 de la loi de 1881, de l’article 225-2 du code pénal, qui fait lui-même référence à l’article 225-1 du même code citant l’apparence physique. Votre amendement sera alors satisfait. Je demande donc son retrait au profit de l’amendement AC31.

Lamendement est retiré.

La commission est saisie de lamendement AC25 de Mme Géraldine Bannier.

Mme Géraldine Bannier. Je propose de mentionner les élus ou représentants de l’autorité publique dans cet article. En tant qu’élus, nous pouvons être attaqués sur les réseaux sociaux, mais j’ai pensé également aux enseignants et aux représentants des forces de l’ordre. Du seul fait de représenter l’État, ces personnes peuvent être fragilisées et particulièrement visées sur les plateformes.

Lamendement propose dajouter ces contenus qui, pour linstant, ne sont pas visés comme les propos haineux ou injurieux tenus envers des personnes en raison de la race, la religion, lethnie, le sexe, lorientation sexuelle ou le handicap.

Mme Fabienne Colboc, rapporteure pour avis. Je suis assez partagée sur ce point, car le personnel politique est, en proportion, largement visé par les propos haineux. C’est notamment ce qui ressort de l’enquête Netino sur la haine en ligne : 31 % des propos haineux concernent en effet des personnalités médiatiques ou politiques.

Cela étant dit, je ne pense pas qu’il faille mettre sur le même plan les injures racistes ou homophobes et les injures à l’égard des élus. Du reste, les peines prévues par la loi de 1881 sont très différentes : une amende de 12 000 euros pour l’injure aux élus, contre un an d’emprisonnement et 45 000 euros d’amende pour les injures racistes ou homophobes. C’est la raison pour laquelle je suis défavorable à votre amendement.

La commission rejette lamendement.

Puis elle examine, en discussion commune, lamendement AC31 de M. Raphaël Gérard et lamendement AC15 de Mme Béatrice Descamps.

M. Raphaël Gérard. Mon amendement vise à clarifier et à mieux coordonner le champ de l’obligation de retrait des contenus d’incitation à la haine par les plateformes, en renvoyant aux septièmes et huitième alinéas de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse, afin d’être en phase avec les textes existants.

M. Michel Zumkeller. Notre amendement AC15 répond à la même volonté de simplification.

Mme Fabienne Colboc, rapporteure pour avis. Je suis favorable à l’amendement rédactionnel AC31 qui vise à corriger une coquille de la proposition de loi concernant les alinéas de l’article 24 de la loi du 29 juillet 1881 sur la liberté de la presse.

L’amendement AC15 fait référence aux articles 24 et 33 de la loi du 29 juillet 1881. Or les infractions visées à l’article 33 ne sont absolument pas identiques à celles de l’article 24 puisqu’il s’agit d’injures publiques. Seules les circonstances aggravantes sont communes. Cet amendement reviendrait donc à restreindre le champ de la proposition de loi aux infractions de provocation, ce qui n’est pas son seul objet. J’émets donc un avis défavorable à l’amendement AC15.

M. Michel Zumkeller. J’aimerais faire une remarque relative à l’organisation générale et à l’ambiance de nos travaux, notamment la semaine dernière. À chaque fois qu’il y a deux amendements identiques, c’est toujours celui de la majorité qui est gardé. Vous faites comme vous voulez, mais je vous le redis très gentiment : la majorité pourrait, de temps en temps, faire un geste pour reconnaître que les idées de l’opposition ne sont pas toujours mauvaises.

M. le président Bruno Studer. Dans le cas présent, monsieur Zumkeller, les deux amendements sont en discussion commune mais ils ne sont pas identiques. Cela étant dit, votre message sera reçu par ses destinataires.

La commission adopte lamendement AC31.

En conséquence, lamendement AC15 tombe.

La commission examine lamendement AC46 de la rapporteure pour avis.

M. le président Bruno Studer. Pour la clarté de nos débats, je signale que l’adoption de l’amendement AC46 ferait tomber les suivants jusqu’à l’amendement AC33 de M. Gérard. Si les auteurs de ces amendements le souhaitent, ils pourront prendre la parole après l’intervention de Mme la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement supprime l’alinéa 2 de l’article 1er afin de faire figurer la sanction par le CSA à l’article 4 de la proposition de loi, tirant ainsi les conséquences de l’avis du Conseil d’État.

M. Frédéric Reiss. Cet alinéa 2 était, en effet, relativement mal rédigé. Il y est indiqué que le montant des sanctions pécuniaires « peut prendre en considération la gravité des manquements. » Dans la nouvelle mouture de l’article 4, proposée par notre rapporteure, il est écrit « en tenant compte » de la gravité des manquements. En effet, la prise en compte de la gravité des manquements ne doit pas être une possibilité mais une obligation. Je comprends la suppression de cet alinéa 2 et la référence à l’article 4.

Mme Brigitte Kuster. Dans mon amendement AC7, je souligne aussi le caractère flou de la rédaction de cet article et particulièrement l’ambiguïté que le verbe « peut prendre » fait peser sur le pouvoir d’interprétation du CSA pour fixer le montant de la sanction pécuniaire. Mon amendement propose de remplacer « peut prendre » par « prend » pour lever cette ambiguïté.

Dans mon amendement AC8, je propose que le montant maximum de la sanction puisse atteindre 10 % du chiffre d’affaires mondial et ne pas être limité à 4 %.

La commission adopte lamendement.

En conséquence, les amendements AC7 de Mme Brigitte Kuster, AC14 de M. Frédéric Reiss, AC17 de Mme Béatrice Descamps et AC8 de Mme Brigitte Kuster tombent.

La commission en vient à lamendement AC33 de M. Raphaël Gérard.

M. Raphaël Gérard. Comme précédemment, il s’agit de compléter la notion d’orientation sexuelle par celle d’identité de genre.

Suivant lavis favorable de la rapporteure pour avis, la commission adopte lamendement.

Puis elle examine lamendement AC29 de Mme Géraldine Bannier.

Mme Géraldine Bannier. Au dispositif de signalement et de recours prévu par les plateformes, nous proposons d’ajouter un dispositif de prévention. Il est important que les plateformes diffusent des messages de prévention à l’égard des utilisateurs, informant des conséquences très néfastes que peuvent avoir des discours haineux.

Mme Fabienne Colboc, rapporteure pour avis. Vous avez raison sur la nécessité d’agir en amont et de prévenir la création même de contenus haineux. C’est au moment de cliquer que l’utilisateur doit se demander si ce qu’il s’apprête à diffuser est contraire à la loi ou s’il reste dans les limites de la liberté d’expression, et si cela peut avoir des conséquences néfastes pour autrui. Mais je crois que ces dispositions auraient plutôt leur place à l’article 3 et qu’elles excèdent le champ de notre saisine. Je vous propose donc de retirer votre amendement et de le redéposer devant la commission des Lois.

Lamendement est retiré.

La commission émet ensuite un avis favorable à ladoption de larticle 1er modifié.

Après l’article 1er

La commission est saisie de lamendement AC12 de Mme Brigitte Kuster.

Mme Brigitte Kuster. L’objet de cet amendement est double : faire de l’injure publique un véritable délit de droit commun et ne plus la cantonner aux dispositions de la loi du 29 juillet 1881 sur la liberté de la presse ; durcir le cadre répressif en portant la sanction pécuniaire actuellement encourue de 45 000 à 70 000 euros.

Mme Fabienne Colboc, rapporteure pour avis. La loi sur la presse offre certaines garanties procédurales qui visent à protéger au mieux la liberté d’expression. Il y a notamment une différence en termes de prescription de l’action publique, qui est plus courte dans le cadre de la loi de 1881.

Le choix a été fait par la rapporteure au fond de ne pas toucher à l’équilibre de la loi de 1881, pour se concentrer sur la diffusion des messages haineux, dont c’est la viralité qui crée le plus de dommage.

Il y aurait un écart trop marqué, à mon sens, entre l’injure non publique raciste, punie d’une simple contravention par le code pénal, et l’injure raciste publique, qui ne bénéficierait plus de la procédure prévue par la loi de 1881. Je crois préférable de ne pas toucher à cet équilibre. Avis défavorable.

La commission rejette lamendement.

Après l’article 3

La commission examine lamendement AC11 de Mme Brigitte Kuster.

Mme Brigitte Kuster. L’article 3 impose à dessein aux opérateurs d’informer leurs utilisateurs qui s’estiment victimes de contenus haineux sur les recours, y compris judiciaires, dont ils disposent pour y mettre un terme. Mais le parallélisme des formes semble requis s’agissant de ceux qui publient lesdits contenus.

Le présent amendement propose que les opérateurs communiquent auprès de leurs utilisateurs sur les sanctions qu’ils encourent en cas de manquement à leurs obligations. Une telle disposition pourrait présenter un caractère dissuasif.

Mme Fabienne Colboc, rapporteure pour avis. Je n’ai pas d’objection de fond à l’égard de cet amendement, mais je considère qu’il dépasse le champ de notre saisine qui vise surtout le CSA. Je vous demande donc de le retirer pour le redéposer devant la commission des Lois, à l’article 3, puisque c’était votre intention première.

Lamendement est retiré.

Article 4

La commission est saisie de lamendement AC47 de la rapporteure pour avis.

M. le président Bruno Studer. Cet amendement de la rapporteure fera tomber les amendements suivants jusqu’à l’amendement AC35. Leurs auteurs pourront prendre la parole après l’intervention de la rapporteure.

Mme Fabienne Colboc, rapporteure pour avis. Plutôt que de donner une compétence générale au CSA en matière de haine en ligne, le présent amendement vise à renvoyer de façon précise aux dispositions de la loi, dans l’attente d’une refonte plus large des missions du CSA.

La commission adopte lamendement.

En conséquence, les amendements AC3 de Mme Valérie Bazin-Malgras, AC10 de Mme Brigitte Kuster, AC21 et AC22 de Mme Emmanuelle Anthoine, AC18 de Mme Béatrice Descamps, AC34 de M. Raphaël Gérard et AC26 de Mme Géraldine Bannier tombent.

La commission en vient à lamendement AC35 de M. Raphaël Gérard.

M. Raphaël Gérard. Je ne suis pas complètement sûr de la rédaction de cet amendement, que nous pourrons améliorer d’ici à la séance. Il s’agit de créer un conseil scientifique au sein du CSA. Cette autorité aurait vocation à aider le CSA à définir ce que sont des contenus illicites et ce qui relève de la haine en ligne. Elle pourrait faire appel aux associations de lutte contre les différents types de discriminations, qui ont en général une bonne connaissance de ces propos, de leur nature et de la manière dont ils prolifèrent sur internet.

Mme Fabienne Colboc, rapporteure pour avis. Je ne suis pas contre la création d’un tel conseil, qui pourrait fonctionner comme le comité d’experts « jeune public » qui existe depuis 2005 et regroupe des psychologues, des pédiatres, des associations, etc. On pourrait tout à fait imaginer que le CSA fasse la même chose en ce qui concerne les plateformes. Néanmoins, je ne crois pas nécessaire de l’inscrire dans le texte, sauf à alourdir la loi de 1986 qui est déjà très dense. Qui plus est, votre amendement n’apporte aucune précision sur le rôle que tiendrait exactement ce conseil scientifique. Avis défavorable.

Lamendement est retiré.

La commission examine lamendement AC48 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement vise à établir un lien plus clair entre la transmission d’informations régulière de la part des plateformes au CSA et les recommandations que ce dernier peut prendre dans le domaine de la lutte contre les contenus haineux.

La commission adopte lamendement.

Elle en vient à lamendement AC49 de la rapporteure pour avis, qui fait lobjet du sous-amendement AC57 de M. Raphaël Gérard.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement évoque le rôle des associations dont parlait M. Gérard. Il a pour objet de formaliser la transmission d’informations au CSA de la part des associations œuvrant dans le champ de la lutte contre la haine et les discriminations, afin de leur reconnaître un rôle particulier d’alerte de l’autorité de régulation.

M. Raphaël Gérard. Je souscris totalement à l’idée de faire collaborer les associations à la définition des contenus. Néanmoins, je m’inquiète un peu de ce qui est pourtant un vrai atout de notre pays : la facilité d’y créer une association. Pour que les associations en question soient pertinentes et légitimes, je propose de préciser qu’elles doivent être régulièrement déclarées depuis au moins cinq ans à la date des faits. Il s’agit d’éviter de voir apparaître, pour des motifs politiques ou polémiques, des associations sorties de nulle part et venant brouiller le message.

Mme Fabienne Colboc, rapporteure pour avis. Je suis favorable à cette précision.

La commission adopte le sous-amendement.

Puis elle adopte lamendement ainsi sous-amendé.

Elle examine ensuite lamendement AC50 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement tend à rendre explicitement annuelle la publication du bilan du CSA.

La commission adopte lamendement.

Elle en vient à lamendement AC52 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Dans la même logique que celle du bilan annuel, le présent amendement vise à permettre au CSA de publier tout ou partie des informations que les opérateurs de plateforme seront tenus de lui transmettre mensuellement.

La commission adopte lamendement.

Puis elle se saisit de lamendement AC56 de la rapporteure pour avis.

M. le président Bruno Studer. L’adoption de cet amendement ferait tomber les deux suivants.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement a pour objet de tirer les conséquences de l’avis du Conseil d’État en faisant porter la sanction sur le non‑respect de l’obligation de moyens mise à la charge des plateformes et en rendant impérative la prise en compte de la gravité du manquement et de son caractère persistant après une première mise en demeure.

M. Michel Zumkeller. J’ai cosigné un amendement de Mme Descamps qui va dans ce sens. Votre proposition permet de le satisfaire et nous y souscrivons totalement.

M. Frédéric Reiss. Comme nous avançons vite, et même très vite, je voudrais faire une remarque avant que nous n’achevions nos travaux. Les amendements de la rapporteure ont le mérite d’éclairer des articles qui étaient plutôt mal rédigés et dont la portée était ambiguë. J’y souscris donc totalement.

Je voudrais néanmoins émettre un petit regret : nous n’avons pas pu discuter l’amendement AC43 de Mme Frédérique Dumas, qui n’a pas été défendu lorsque nous avons examiné l’article 1er. Cet amendement tendait à préciser ce que doit être la notification permettant d’exiger des opérateurs de plateformes la suppression d’un contenu sous 24 heures. J’avais moi-même réfléchi à cette question. Nous pourrons peut-être lever l’ambiguïté lors de l’examen du texte en séance.

M. le président Bruno Studer. La discussion pourra avoir lieu au fond en commission des lois, le mercredi 19 juin à 9 heures 30.

La commission adopte lamendement.

En conséquence, lamendement AC28 de Mme Géraldine Bannier et lamendement AC19 de Mme Béatrice Descamps tombent.

La commission émet un avis favorable à ladoption de larticle 4 modifié.

Après l’article 4

La commission est saisie de lamendement AC53 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Afin de renforcer l’efficacité de la lutte contre les contenus haineux en ligne, le présent amendement propose d’imposer aux plateformes qui permettent l’inscription de mineurs de moins de quinze ans de leur délivrer, ainsi qu’à leurs parents, une sensibilisation à l’utilisation civique et responsable de leurs services ainsi qu’une information sur les risques juridiques encourus par le mineur et ses parents en cas de diffusion de contenus haineux.

Mme Michèle Victory. L’idée paraît intéressante mais, à moins de préciser la forme que prendra cette sensibilisation, la rédaction sera trop vague et la mesure peu opérante.

Mme Fabienne Colboc, rapporteure pour avis. Le CSA émettra des recommandations concernant la mise en place de ce dispositif de prévention destiné aux jeunes et à leurs parents. J’ai des propositions – il existe des quizz, des questions – mais je ne pense pas que ce soit mon rôle de décrire ce dispositif.

La commission adopte lamendement.

Puis elle en vient à lamendement AC1 de Mme Valérie Bazin-Malgras.

Mme Valérie Bazin-Malgras. Il est nécessaire de responsabiliser les auteurs de contenus haineux en leur imposant de sortir du confort de l’anonymat. En effet, le recours aux pseudonymes leur permet de diffuser des contenus haineux sans avoir à en assumer la paternité, à la vue de tous.

C’est la raison pour laquelle cet amendement propose de faire obligation aux hébergeurs de vérifier l’identité de leurs utilisateurs.

Mme Fabienne Colboc, rapporteure pour avis. Il ne faut pas confondre anonymat et pseudonyme. Les plateformes ont d’ores et déjà l’obligation de détenir et de conserver les données permettant l’identification de toute personne ayant contribué à la création d’un contenu par l’intermédiaire de leurs services. Leurs utilisateurs ne sont donc théoriquement pas des anonymes, même s’ils peuvent utiliser des pseudonymes.

En cas de problème, l’autorité judiciaire peut ainsi leur demander communication de ces données. Il me semble que cette disposition est suffisante et qu’exiger un contrôle matériel de l’identité des internautes ne ferait que repousser le problème, car les plateformes ne seront pas en mesure de contrôler la véracité des informations transmises, même avec une pièce d’identité, potentiellement fausse, à l’appui.

En définitive, une telle disposition offrirait un faux sentiment de sécurité et de protection. Avis défavorable.

Mme Valérie Bazin-Malgras. Madame la rapporteure, je ne suis pas du tout d’accord avec vous. Je trouve que c’est très contraignant. Si l’identité de l’internaute était déclinée immédiatement, ce serait beaucoup plus simple pour les personnes qui se sentent menacées par ces contenus haineux.

La commission rejette lamendement.

Après l’article 6

La commission examine lamendement AC54 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Si le texte de l’article L. 312-9 du code de l’éducation permet théoriquement de sensibiliser les élèves au respect de la dignité de la personne, il paraît essentiel de préciser que la lutte contre la diffusion de messages haineux en ligne, à la fois en tant qu’émetteur ou simple utilisateur, doit impérativement faire partie du programme scolaire.

La commission adopte lamendement.

Puis elle est saisie de lamendement AC40 de M. Raphaël Gérard.

M. Raphaël Gérard. Il s’agit ici de tenir compte d’un phénomène que l’on constate dans les signalements déjà effectués concernant les différents réseaux sociaux : ils sont à 80 % du « bruit », c’est-à-dire de mauvais signalements qui émanent de gens qui n’aiment pas l’auteur de tel ou tel message et qui veulent faire bloquer le compte.

Dans le même temps, il est essentiel qu’une situation méritant un signalement soit dénoncée le plus rapidement possible. Or beaucoup de jeunes, notamment les préadolescents, ont peu le réflexe de signaler les contenus haineux parce qu’ils pensent que cela ne sert à rien.

L’amendement vise un double objectif : les sensibiliser à la nécessité de signaler les contenus haineux quand ils y sont confrontés ; les sensibiliser aux risques qu’ils courent en cas de signalement abusif. L’idée est en quelque sorte d’éduquer à la pratique du signalement.

Mme Fabienne Colboc, rapporteure pour avis. Votre amendement me paraît trop précis et donc un peu réducteur par rapport au sujet de la haine en ligne. Il est d’ailleurs satisfait par celui que nous venons d’adopter, dont la portée est plus large car il va au-delà du harcèlement scolaire qui est l’objet de l’alinéa que vous voulez modifier.

Lamendement est retiré.

La commission examine lamendement AC55 de la rapporteure pour avis.

Mme Fabienne Colboc, rapporteure pour avis. Le présent amendement a pour objet de renforcer la formation des enseignants en matière de lutte contre les contenus haineux en ligne, qui nécessite l’acquisition d’un savoir spécifique et technique que les enseignants, en formation initiale ou continue, n’ont pas nécessairement.

La commission adopte lamendement.

Elle en vient à lamendement AC41 de M. Raphaël Gérard.

M. Raphaël Gérard. Il s’agit d’ajouter un titre I « De la répression », pour être en phase avec le titre II « De la prévention et de l’éducation ».

Mme Fabienne Colboc, rapporteure pour avis. Je propose de laisser la commission des lois faire ce travail d’architecture sur le texte en fonction de ce qu’elle aura adopté. Avis défavorable.

M. Raphaël Gérard. Je vais le retirer et je le proposerai à la commission des Lois.

Lamendement est retiré.

Titre

La commission examine lamendement AC30 de Mme Géraldine Bannier.

Mme Géraldine Bannier. Je ne suis pas une amatrice des longueurs mais, tout de même, je trouve que l’on pourrait compléter le titre par « et à promouvoir le respect ».

Mme Fabienne Colboc, rapporteure pour avis. Ma réponse sera la même qu’à l’amendement précédent : je vais laisser la commission des Lois modifier ou non le titre, en fonction de ce qu’elle aura adopté. Je vous propose de le retirer pour le proposer à la commission des Lois.

Lamendement est retiré.

*

 

En conséquence, sous réserve des amendements quelle propose, la commission des Affaires culturelles et de lÉducation émet un avis favorable à ladoption des articles 1er et 4 de la proposition de loi visant à lutter contre la haine sur internet (n° 1785).


—  1  —

   annexe : Liste des auditions conduites
par la rapporteur
e pour avis

(par ordre chronologique)

 Conseil supérieur de l’audiovisuelM. Roch-Olivier Maistre, président, et M. Yannick Faure, directeur de cabinet

     Haute autorité pour la diffusion des œuvres et de la protection des droits sur internet (HADOPI)  M. Denis Rapone, président, Mme Pauline Blassel, secrétaire générale, et M. Nicolas Faucouit, responsable des relations institutionnelles

     Société des auteurs et compositeurs dramatiques (SACD) (*)  M. Pascal Rogard, directeur général, et M. Guillaume Prieur, directeur des affaires institutionnelles et européennes

     Ministère de la Culture – Direction générale des médias et des industries culturelles (DGMIC)  M. Jean-Baptiste Gourdin, chef de service et adjoint du directeur général des médias et des industries culturelles

     Google France (*)  M. Thibault Guiroy, responsable des relations institutionnelles, et Mme Clara Sommier, responsable YouTube Europe

     Facebook (*)  Mme Béatrice Oeuvrard, responsable des affaires publiques de Facebook France 

     Fédération française des Télécoms (FFT) (*)  M. Olivier Riffard, directeur des affaires publiques Fédération Française des Télécoms, Mme Carole Gay, responsable des relations institutionnelles chez Orange, Mme Alexandra Laffitte, chargée de mission contenus et usages FFTélécoms, Mme Marie Liane Lekpeli, chargée des affaires réglementaires, et Mme Claire Perset, directrice des relations institutionnelles

     Audition commune de Me Christian Soulié, avocat, et M. Philippe Coen, fondateur et président de l’ONG Respect Zone

     Association Ennocence  M. Gordon Choisel, président, et M. Yannick Cambon, avocat

     Qwant (*)  M. Guillaume Champeau, directeur éthique et affaires juridiques, M. Sébastien Menard, vice-président des affaires publiques,  Mme Eléonor Lasou, directrice du cabinet Rivington.

 

     Ministère de l’Éducation nationale  Mme Marie Dutertre, conseillère parlementaire, M. David Knecht, conseiller budgétaire, M. JeanMarc Merriaux, directeur du numérique pour l’éducation (DNE), Mme Nathalie Herr, cheffe du Département du développement des usages et de la valorisation des pratiques à la DNE, et Mme Judith Klein de la mission « prévention des discriminations et égalité fille-garçon »

     Snapchat – M. Jean Gonié, directeur affaires publiques de Snap Europe

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(*) Ces représentants d’intérêts ont procédé à leur inscription sur le répertoire de la Haute Autorité de transparence pour la vie publique s’engageant ainsi dans une démarche de transparence et de respect du code de conduite établi par le Bureau de l’Assemblée nationale

 


([1]) Netino by Webhelp, Panorama de la haine en ligne 2018, mai 2018.

([2]) Commission nationale consultative des droits de l’homme, Rapport sur la lutte contre le racisme, l’antisémitisme et la xénophobie 2018, avril 2019.

([3]) Commission nationale consultative des droits de l’homme, Rapport sur la lutte contre le racisme, l’antisémitisme et la xénophobie 2018. Les Essentiels, avril 2019, p. 17.

([4]) Cf. encadré infra.

([5]) Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur.

([6]) Délibération du 20 décembre 2011 relative à la protection du jeune public, à la déontologie et à l’accessibilité des programmes sur les services de médias audiovisuels à la demande.

([7]) Conseil d'État, 5e et 6e chambres réunies, 17/12/2018, n° 416311.

([8]) Directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels.

([9]) Directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»), compte tenu de l'évolution des réalités du marché.

([10]) Id., considérant n° 4.

([11]) Voir supra.

([12]) Avis délibéré par l’assemblée générale du Conseil d’État lors de sa séance du 16 mai 2019 sur la proposition de loi visant à lutter contre la haine sur internet, p. 7.

([13]) Article 15 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

([14]) Avis délibéré par l’assemblée générale du Conseil d’État lors de sa séance du 16 mai 2019 sur la proposition de loi visant à lutter contre la haine sur internet, p. 9.

([15]) Lien vidéo : http://videos.assemblee-nationale.fr/video.7752601_5cf76d510f4cf.commission-des-affaires-culturelles--lutte-contre-la-haine-sur-internet-5-juin-2019