Logo2003modif

N° 1989

______

 

ASSEMBLÉE   NATIONALE

 

CONSTITUTION DU 4 OCTOBRE 1958

QUINZIÈME LÉGISLATURE

 

Enregistré à la Présidence de l’Assemblée nationale le 5 juin 2019.

 

 

 

AVIS

 

 

 

PRÉSENTÉ

 

 

 

AU NOM DE LA COMMISSION DES AFFAIRES CULTURELLES ET DE LÉDUCATION SUR LA PROPOSITION DE LOI, visant à lutter contre la haine sur internet,

 

 

TOME I

 

 

Par Mme Fabienne COLBOC,

 

Députée.

 

——

 

 

 

 

 

Voir le numéro :

Assemblée nationale : 1785.


 


–  1  –

 

SOMMAIRE

___

Pages

avant-propos

Principales propositions de la commission

I. conseil supÉrieur de laudiovisuel : lextension du domaine de la lutte

A. De nouvelles compétences confiées au Conseil supérieur de laudiovisuel en cohérence avec les évolutions législatives récentes

1. Un pouvoir de sanction nouveau à lencontre des plateformes de partage de contenus en ligne dans le domaine des contenus haineux

2. Une évolution cohérente avec les missions actuelles du CSA comme avec les évolutions récentes du cadre normatif national et européen

B. faire du CSA le garant de la mise en œuvre de procédures efficaces de lutte contre les contenus haineux sur internet

II. des actions spécifiques à mener à l’égard des plus jeunes et de leurs parents

annexe : Liste des auditions conduites par la rapporteure pour avis


–  1  –

   avant-propos

Une étude conduite en 2018 par la société de modération Netino sur la haine en ligne estimait, à partir de l’étude d’un échantillon de commentaires publiés sur vingt-quatre pages Facebook de grands médias français, que 10,4 % de ces commentaires comportaient des propos haineux ou agressifs ([1]). Un an après, le dernier Panorama de la haine en ligne recense 14,3 % des commentaires haineux ou agressifs sur les mêmes médias. Bien sûr, ces propos ne sont pas tous répréhensibles, au plan pénal, par les infractions d’injure ou de provocation à la haine ou à la violence. Mais ils témoignent d’une évolution inquiétante que le législateur doit prendre à sa juste mesure.

C’est du reste l’objet de la proposition de loi présentée par notre collègue Laetitia Avia, qui fait suite au rapport qu’elle a publié en septembre 2018 avec Karim Amellal et Gil Taieb visant à renforcer la lutte contre le racisme et l’antisémitisme sur le web. Partant du constat d’une exacerbation des discours de haine sur internet, permise par la viralité des réseaux sociaux, la proposition de loi tend à pallier l’impunité quasi-totale dans laquelle évoluent aujourd’hui les auteurs de tels propos, tant vis-à-vis des plateformes – dont le zèle à combattre les contenus haineux est pour l’heure limité à ce que la loi française rend obligatoire – que de la justice.

Se retranchant systématiquement derrière leur statut d’hébergeur et le possible engagement de leur responsabilité juridique par des tiers, ceux que la loi regroupe sous le vocable d’ « opérateurs de plateforme en ligne » – les moteurs de recherche, les réseaux sociaux, les plateformes de partage de contenus mis en ligne par leurs utilisateurs, etc. – doivent aujourd’hui combattre de façon plus volontaire l’hydre numérique qu’ils ont contribué à créer. Car c’est bien leur modèle économique, fondé sur l’exploitation algorithmique des données personnelles, qui nourrit l’enfermement intellectuel et, partant, l’intolérance croissante aux opinions contraires. Et c’est l’impunité totale des auteurs anonymes de propos haineux sur internet qui favorise leur expression exponentielle mais également leur banalisation dans la vie réelle.

Il n’y a qu’à, pour s’en convaincre, se référer au dernier rapport sur la lutte contre le racisme de la Commission nationale consultative des droits de l’homme ([2]) : bien que le contentieux lié aux injures, provocations et diffamations racistes soit en baisse, le nombre d’actes racistes recensés est, lui, tendanciellement en hausse, laissant entrevoir un phénomène massif de sous‑déclaration du racisme lié à une « forme de banalisation et d’accoutumance des victimes à ces expressions du racisme ordinaire » ([3]). Il est donc plus que temps d’intervenir pour briser le cercle vicieux de la normalisation du rapport à la haine.

C’est la raison pour laquelle la proposition de loi prévoit plusieurs mesures tendant à renforcer substantiellement les obligations à la charge des opérateurs de plateforme. Ceux-ci auront notamment l’obligation de retirer sous vingt-quatre heures les contenus qui contreviennent manifestement aux infractions d’injure et de provocation discriminatoires prévues par la loi de 1881 sur la liberté de la presse. Ils répondront, pour ce faire, à une véritable obligation de résultat, et devront par ailleurs désigner un représentant légal sur le territoire français pour faciliter l’application de la loi.

Ils auront également à répondre au Conseil supérieur de l’audiovisuel (CSA), dont les missions sont complétées pour lui permettre d’exercer un contrôle fin de l’action des plateformes dans ce domaine. Un pouvoir de sanction, nouveau et dissuasif, pourrait lui être conféré à l’égard des opérateurs de plateforme en ligne qui ne se conformeraient pas pleinement à la loi et persisteraient à s’abriter, pour échapper à leurs responsabilités, derrière des normes dont tous s’accordent à penser qu’elles sont aujourd’hui obsolètes.

C’est à ce titre que la commission des Affaires culturelles et de l’Éducation a souhaité se saisir pour avis. En effet, les missions du CSA ont récemment été modifiées, notamment par la loi n° 2018-1202 du 22 décembre 2018 relative à la manipulation de l’information, et sont appelées à évoluer à la faveur du futur projet de loi sur la régulation audiovisuelle. Il s’agit donc de veiller à la cohérence de l’ensemble normatif existant et futur, afin de donner à la loi sa pleine efficacité.

Au-delà, c’est bien sûr la compétence de la Commission en matière d’éducation et de jeunesse qui justifie sa saisine. Bien qu’aucune disposition de la proposition de loi ne concerne pour l’heure ce public en particulier, la rapporteure estime nécessaire de faire le bilan des outils existants, notamment au sein de l’Éducation nationale, pour permettre la prévention adéquate de ces comportements chez les mineurs et assurer leur protection vis-à-vis des contenus haineux auxquels ils sont involontairement, mais de plus en plus fréquemment, exposés.

 

 

 

 

 

   Principales propositions de la commission

 

Lors de l’examen de la présente proposition de loi, le mercredi 5 juin 2019, la commission des Affaires culturelles et de l’Éducation a émis un avis favorable à l’adoption de ses articles 1er et 4, sous réserve des amendements qu’elle propose, ainsi que de plusieurs articles additionnels.

À l’article 1er, la commission a adopté un amendement de la rapporteure supprimant la sanction administrative prévue en cas de non-respect de l’obligation de retrait en 24 heures de contenus manifestement haineux. Elle a également adopté plusieurs amendements incluant l’identité de genre parmi les motifs discriminatoires permettant l’application des dispositions de la loi.

À l’article 4, la commission a adopté plusieurs amendements de la rapporteure tendant à préciser les pouvoirs du Conseil supérieur de l’audiovisuel en matière de recommandations et de transmission d’informations de la part des plateformes et des associations, et à prévoir une sanction administrative en cas de non-respect de l’obligation de moyens faite aux plateformes en matière de traitement des signalements.

Elle a également adopté plusieurs amendements de la rapporteure créant de nouveaux articles au sein de la proposition de loi en matière de prévention et d’éducation. Notamment, la commission a adopté un amendement tendant à imposer aux plateformes qui permettent l'inscription de mineurs de moins de quinze ans de leur délivrer, ainsi qu'à leurs parents, une sensibilisation à l'utilisation civique et responsable de leurs services ainsi qu'une information sur les risques juridiques encourus par le mineur et ses parents en cas de diffusion de contenus haineux. Elle a également adopté deux amendements modifiant le code de l’éducation afin de renforcer la formation des enseignants et de préciser les contours de la formation à l’utilisation responsable des outils et des ressources numériques.

 


– 1 –

I.   conseil supÉrieur de l’audiovisuel : l’extension du domaine de la lutte

La proposition de loi visant à lutter contre la haine sur internet étend, par ses articles 1er et 4, la compétence du Conseil supérieur de l’audiovisuel à la lutte contre la diffusion des contenus haineux par les plateformes en ligne. Une telle évolution apparaît tout à fait cohérente avec, d’une part, les missions actuelles du Conseil et, d’autre part, l’évolution récente et à venir de ses compétences en direction des acteurs numériques.

A.   De nouvelles compétences confiées au Conseil supérieur de l’audiovisuel en cohérence avec les évolutions législatives récentes

1.   Un pouvoir de sanction nouveau à l’encontre des plateformes de partage de contenus en ligne dans le domaine des contenus haineux

Larticle 1er de la proposition de loi fait du CSA le garant de la mise en œuvre dune nouvelle obligation à la charge des plateformes les plus importantes.

Au-delà des obligations qui peuvent peser sur ces acteurs en application de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique, notamment de son article 6 ([4]), la proposition de loi imposerait aux opérateurs de plateforme en ligne tendant à la mise en relation de plusieurs parties à des fins de partage de contenus, et dont l’activité dépasse un seuil de connexions sur le territoire français déterminé par décret, l’obligation de retirer ou de rendre inaccessibles, sous 24 heures, les contenus tombant manifestement sous le coup des infractions, prévues par les articles 24 et 33 de la loi du 29 juillet 1881 sur la liberté de la presse, de provocation à la haine, à la violence ou à la discrimination et dinjure à l’encontre d’une personne ou d’un groupe de personnes à raison de leur origine ou de leur appartenance ou nonappartenance à une ethnie, une nation, une race ou une religion, de leur sexe, de leur orientation sexuelle ou de leur handicap.

Les obligations à la charge des hébergeurs prévues par la loi n° 2004‑575 du 21 juin 2004 pour la confiance dans l’économie numérique

L’article 6 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique organise la responsabilité civile et pénale des hébergeurs, définis comme les « personnes physiques ou morales qui assurent, même à titre gratuit, pour mise à disposition du public par des services de communication au public en ligne, le stockage de signaux, décrits, dimages, de sons ou de messages de toute nature fournis par des destinataires de ces services ».

La responsabilité civile et pénale d’un hébergeur peut être engagée à raison des contenus fournis par ses utilisateurs lorsque, ayant eu connaissance du caractère illicite d’un contenu, l’hébergeur n’a pas agi promptement pour le retirer ou le rendre inaccessible. La connaissance des faits litigieux est présumée acquise dès lors qu’un contenu leur est notifié par une personne physique ou morale, cette dernière devant, au préalable, tenter d’obtenir le retrait du contenu par son auteur ou son éditeur.

L’article 6 rappelle également les règles issues de la directive du 8 juin 2000 sur le commerce électronique ([5]) : à ce titre, il n’est pas possible de soumettre les hébergeurs à une obligation générale de surveiller les informations qu’ils stockent, ni à une obligation générale de rechercher des faits ou des circonstances révélant des activités illicites.

Les hébergeurs sont toutefois soumis à des obligations particulières en ce qui concerne certaines infractions, notamment celles ayant trait au terrorisme, à la pédopornographie, à l’incitation à la haine ou à la violence raciale ou à raison du sexe, de l’orientation ou de l’identité sexuelle ou du handicap. En effet, dans ce domaine, les hébergeurs doivent contribuer à lutter contre la diffusion de tels contenus, notamment en mettant en place un dispositif de signalement, en informant promptement les autorités de telles activités et en rendant publics les moyens qu’ils mettent en œuvre pour lutter contre ces dernières.

En ce qui concerne les infractions relatives au terrorisme et à la pédopornographie, l’article 6-1 de la loi précitée prévoit des obligations renforcées : lorsque l’autorité administrative enjoint à un hébergeur de retirer un contenu de cette nature et qu’il n’y défère pas dans un délai de 24 heures, cette dernière peut enjoindre aux fournisseurs d’accès à internet et aux moteurs de recherche, sous le contrôle d’une personnalité qualifiée issue de la Commission nationale de l’informatique et des libertés, de bloquer ou déréférencer les sites sur lesquels ce contenu apparaît.

Le fait de contrevenir à ces obligations particulières est puni d’un an d’emprisonnement et de 75 000 euros d’amende, le quantum de cette dernière étant automatiquement quintuplé s’agissant d’une personne morale.

Cette disposition, qui tend à compléter et préciser le régime prévu par la loi du 21 juin 2004, serait susceptible d’entraîner une sanction de nature administrative en cas de manquement. Ainsi, en application du II de l’article 1er, le CSA pourrait infliger à ces plateformes une sanction pécuniaire allant jusqu’à 4 % de leur chiffre d’affaires annuel mondial, y compris lorsqu’elles opèrent depuis l’étranger. Il pourrait, pour établir le quantum de la sanction, tenir compte de la gravité des manquements commis et de leur caractère réitéré. Le CSA, saisi par un tiers dont le signalement n’aurait pas été traité, dans le sens désiré, par la plateforme, aurait ainsi la tâche de vérifier que le contenu litigieux était, ou non, manifestement contraire aux infractions précitées de la loi de 1881.

Au-delà de cette obligation de résultat incombant aux plateformes et dont le CSA serait, d’après une interprétation littérale de la proposition de loi, le garant, l’article 4 de la proposition de loi modifie la loi n° 86‑1067 du 30 septembre 1986 relative à la liberté de communication afin de lui confier explicitement la mission de contribuer à la lutte contre la diffusion des contenus haineux sur internet.

Ainsi, sur le modèle de la rédaction retenue dans le cadre de la loi n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information, le CSA pourrait, en cas de besoin, adresser aux opérateurs de plateforme des recommandations visant à améliorer la lutte contre lesdits contenus. Il s’assurerait également du suivi des obligations mises à la charge des plateformes par la proposition de loi, y compris celle prévoyant la mise en place, par ces mêmes opérateurs, d’un dispositif de contestation du maintien ou du retrait d’un contenu.

Enfin, il publierait périodiquement un bilan de lapplication de ces obligations et fixerait la liste des informations que les opérateurs de plateforme seraient tenus de rendre publiques afin de rendre compte de leurs actions de lutte contre la diffusion des contenus haineux. Si la nature de ces informations n’est pas, à ce stade, déterminée par le texte, on peut imaginer que la divulgation de statistiques sur le nombre de signalement, les suites qui leur sont données et les délais d’intervention moyens des plateformes pourraient en faire partie.

2.   Une évolution cohérente avec les missions actuelles du CSA comme avec les évolutions récentes du cadre normatif national et européen

Confier au CSA une mission de lutte contre la diffusion des contenus haineux sur internet apparaît tout à fait cohérent avec, d’une part, ses missions actuelles et, d’autre part, les évolutions récentes du cadre législatif national et européen.

En effet, le CSA dispose dores et déjà de compétences en matière de lutte contre les contenus haineux dans le domaine audiovisuel. Le CSA est chargé, en application de l’article 15 de la loi du 30 septembre 1986 précitée, de veiller à ce que « les programmes mis à disposition du public par un service de communication audiovisuelle ne contiennent aucune incitation à la haine ou à la violence pour des raisons de race, de sexe, de mœurs, de religion ou de nationalité ». La protection des mineurs, le respect de la dignité humaine comme la sauvegarde de l’ordre public justifient, en effet, que des limites puissent être posées à la liberté d’expression, comme le prévoit l’article 1er de la loi de 1986 précitée.

La lutte contre les contenus haineux fait ainsi partie des obligations figurant dans les conventions que les chaînes privées concluent avec le CSA. L’éditeur, responsable de sa programmation et de la maîtrise de son antenne, est notamment tenu de ne pas inciter à des pratiques ou comportements dangereux, délinquants ou inciviques et de ne pas encourager de comportements discriminatoires en raison de la race, du sexe, de l’orientation sexuelle, de la religion ou de la nationalité.

Cette obligation s’applique également aux services de médias audiovisuels à la demande. Ainsi, « les programmes mis à la disposition du public sur les services de médias audiovisuels à la demande ne doivent comporter aucune incitation à la haine ou à la violence à légard dune personne ou dun groupe de personnes en raison de leur origine, de leur appartenance ou de leur nonappartenance à une ethnie, une nation, une race ou une religion déterminée ou en raison de leur sexe, de leur orientation sexuelle ou de leur handicap, conformément aux dispositions légales relatives à la liberté de la presse. » ([6])

Le CSA est intervenu à plusieurs reprises pour sanctionner lincitation à la haine ou à la violence, quelle émane dun présentateur ou dun spectateur. Il a récemment condamné une radio à 25 000 euros d’amende, soit près de 3 % de son chiffre d’affaires, pour des propos de nature à encourager des comportements discriminatoires à l’égard des personnes en raison de leur appartenance à une ethnie, une nation, une race ou une religion tenus en mars 2016, sans réaction à l’antenne pour les modérer ou y apposer un regard critique. Cette sanction a été confirmée par le Conseil d’État ([7]), estimant son quantum proportionné à la gravité des faits.

Dès lors, il n’existe pas d’obstacle à l’extension aux plateformes de partage de contenus d’un contrôle que le CSA opère sur les télévisions, les radios et les services de médias audiovisuels à la demande. De surcroît, le législateur a récemment étendu les compétences du CSA vis-à-vis des plateformes et des réseaux sociaux dans le domaine de la manipulation de l’information (cf. supra), prélude à une régulation plus globale des plateformes qui pourrait intervenir dans le cadre de la future loi audiovisuelle. Cette future loi assurera également la transposition, en droit interne, des dispositions de la nouvelle directive relative aux services de médias audiovisuels, qui prévoit, dans son article 28 ter, des dispositions ambitieuses à l’égard des plateformes et dont la mise en œuvre sera confiée aux régulateurs audiovisuels des pays membres (cf. infra).

Les dispositions de la nouvelle directive dite « Services de médias audiovisuels » à l’égard des plateformes et des réseaux sociaux

La directive du 10 mars 2010 relative aux services de médias audiovisuels ([8]) , modifiée par la directive du 14 novembre 2018 ([9]), prévoit des dispositions spécifiques aux services de plateformes de partage de vidéos.

Dans la mesure où ils « fournissent un contenu audiovisuel qui est de plus en plus consulté par le grand public, en particulier les jeunes (…) et qu’ils se disputent les mêmes publics et les mêmes recettes que les services de médias audiovisuels, ces services de médias sociaux doivent être inclus dans le champ d’application de la directive 2010/13/UE. En outre, ils ont également un impact considérable en ce qu’ils permettent plus facilement aux utilisateurs de façonner et d’influencer l’opinion d’autres utilisateurs. Par conséquent, afin de protéger les mineurs des contenus préjudiciables et de mettre l’ensemble des citoyens à l’abri des contenus incitant à la haine, à la violence et au terrorisme, ces services devraient relever de la directive 2010/13/UE dans la mesure où ils répondent à la définition d’un service de plateformes de partage de vidéos. » ([10]) La directive de 2018 précise que les réseaux sociaux entrent dans le champ de la directive dès lors que la fourniture de programmes ou de vidéos créés par l’utilisateur en constitue une fonctionnalité essentielle.

Ainsi, l’article 28 ter de la directive modifiée contraint les États membres à veiller à ce que les plateformes établies sur leur territoire prennent les mesures appropriées pour protéger les mineurs, mais aussi le grand public, des vidéos créées par l’utilisateur qui comporteraient une incitation à la violence ou à la haine fondée sur le sexe, la race, la couleur, l’origine ethnique ou sociale, les caractéristiques génétiques, la langue, la religion, les convictions, les opinions politiques ou toute autre opinion, l’appartenance à une minorité nationale, la fortune, la naissance, un handicap, l’âge ou l’orientation sexuelle.

Ces mesures, qui doivent être réalisables et proportionnées à la taille et à la nature du service, peuvent notamment inclure la mise en place de dispositifs de signalement, de systèmes permettant d’expliquer aux utilisateurs quelles ont été les suites données à leurs éventuels signalements, de procédures de traitement des réclamations des utilisateurs ou encore d’outils d’éducation aux médias. Les États membres peuvent toutefois imposer aux plateformes des mesures plus strictes, dès lors qu’elles respectent les dispositions de la directive de 2000 sur le commerce électronique ([11]). Les États membres doivent encourager la co-régulation et l’autorégulation des plateformes au moyen des codes de conduite adoptés au niveau national et confient l’évaluation des mesures prises par les plateformes à leurs régulateurs nationaux.

B.   faire du CSA le garant de la mise en œuvre de procédures efficaces de lutte contre les contenus haineux sur internet

Comme l’a souligné le Conseil d’État dans son avis du 16 mai 2019, si « une lecture littérale de la proposition de loi laisserait entendre qu’elle envisage de faire sanctionner par le Conseil supérieur de l’audiovisuel le refus, opposé au cas par cas, de retirer des contenus odieux manifestement illicites », « une telle hypothèse se heurte à un obstacle constitutionnel » : « la suppression d’un contenu odieux sur Internet es un acte radical au regard de la protection dont jouit la liberté d’expression (…) Le retrait de contenu ne peut donc généralement être opéré que par le juge judiciaire ou à tout le moins sous son contrôle » ([12]).

Par ailleurs, si le CSA « veille enfin à ce que les programmes mis à disposition du public par un service de communication audiovisuelle ne contiennent aucune incitation à la haine ou à la violence pour des raisons de race, de sexe, de mœurs, de religion ou de nationalité » ([13]), le contrôle qu’il opère aujourd’hui sur les contenus audiovisuels diffusés par les chaînes de radio et de télévision s’exerce au regard des principes définis par la loi du 30 septembre 1986, et non sur le fondement des infractions à la loi de 1881 visées par la proposition de loi. L’application littérale de l’article 1er de la proposition reviendrait indirectement à conférer au CSA un pouvoir d’appréciation semblable à celui du juge judiciaire, qu’il ne possède nullement aujourd’hui.

Au-delà de ces considérations juridiques, la question des moyens humains – et partant, financiers – à déployer pour faire face à un contentieux nécessairement massif se pose également. En outre, une telle évolution constituerait un changement fondamental du rôle du CSA, qui appellerait nécessairement une modification profonde de sa composition et de son fonctionnement.

Dès lors, la rapporteure ne peut que s’associer à l’avis du Conseil d’État, qui suggère la création d’une infraction autonome, réprimée par le juge judiciaire, à l’encontre des plateformes qui ne retireraient pas les contenus manifestement odieux dans le délai imparti par la loi et l’application d’une sanction administrative par le CSA en cas d’ « attitude systémique non coopérative de l’opérateur, après prise en compte des moyens qu’il met en œuvre pour prévenir la diffusion des contenus odieux manifestement illicites et la faire cesser » ([14]). En d’autres termes, il s’agirait de sanctionner par ce biais l’obligation de moyens mise à la charge des opérateurs par le III de l’article 2, le juge pénal sanctionnant, pour sa part, l’obligation de résultat imposée par la loi. La rapporteure proposera ainsi une modification de la rédaction de l’article 4 en ce sens.

II.   des actions spécifiques à mener à l’égard des plus jeunes et de leurs parents

Si le problème soulevé par la diffusion massive et virale des contenus odieux sur internet est indéniablement le fait du développement des plateformes en ligne, il paraît tout aussi évident qu’une action ambitieuse doit être entreprise à l’égard des personnes qui émettent de tels contenus. Dans ce domaine, les institutions en charge de la jeunesse et le monde associatif ont un rôle pédagogique et préventif à jouer.

En effet, les mineurs doivent faire l’objet d’une protection particulière à l’égard de tels contenus. L’espace numérique constitue, pour eux, un continuum avec la réalité : ils jouent en ligne, communiquent avec leurs pairs, s’informent, apprennent via des tutoriels, se mettent en scène au travers de photos et de vidéos, etc. Plus que la plupart des adultes, les mineurs sont aujourd’hui hyper-connectés, si bien que les attitudes qu’ils peuvent adopter en ligne déteignent sans frontière sur leurs comportements dans la vie réelle.

L’école, premier espace de socialisation, constitue le lieu privilégié d’une intervention visant à assurer le respect, en ligne, des règles élémentaires de civisme. L’Éducation nationale mène, à ce titre, des actions nombreuses mais éparses. L’adjonction récente du respect d’autrui aux savoirs fondamentaux que sont la lecture, l’écriture et le calcul dénote ainsi d’une prise en compte réelle, au sein des politiques publiques, des enjeux de la lutte contre la prolifération de contenus haineux sur internet.

La formation à l’utilisation responsable des outils et des ressources numériques, prévue à l’article L. 312-9 du code de l’éducation, comporte ainsi « une éducation aux droits et aux devoirs liés à l’usage de l’internet et des réseaux, dont la protection de la vie privée et le respect de la propriété intellectuelle, de la liberté d’opinion et de la dignité de la personne humaine, ainsi qu’aux règles applicables aux traitements de données à caractère personnel » et « contribue au développement de l’esprit critique et à l’apprentissage de la citoyenneté numérique ». Depuis l’entrée en vigueur de la loi n° 2018-703 du 3 août 2018 renforçant la lutte contre les violences sexuelles et sexistes, cette formation comprend également une sensibilisation relative à « l’interdiction du harcèlement commis dans l'espace numérique, la manière de s'en protéger et les sanctions encourues en la matière. »

Le respect d’autrui est également au cœur de l’enseignement moral et civique, dispensé à l’école et au collège, dont le but réside dans l’acquisition des valeurs de la République et la construction d’une culture civique. Son programme prévoit ainsi, dès le cycle 2, un premier enseignement sur les atteintes à la personne que représentent le racisme, l’antisémitisme, le sexisme, la xénophobie, l’homophobie, les discriminations liées au handicap et le harcèlement. Au cycle 3, les enjeux civiques de l’usage du numérique et des réseaux sociaux sont explorés, tandis que le respect des différences et de l’intégrité de la personne est approfondi. Au cycle 4, la notion d’identité numérique, et la responsabilité légale qui y est associée, sont abordées.

L’éducation aux médias et à l’information contribue de la même façon, dès l’école, à responsabiliser les élèves vis-à-vis des contenus qu’ils diffusent, le respect de la loi étant intégré à l’enseignement relatif aux publications dont ils peuvent être les auteurs. De nombreuses ressources sont, dans ce cadre, accessibles aux élèves et aux enseignants, notamment via la plateforme « Internet responsable ». Des fiches relatives à la liberté d’expression et à ses limites, comme à la responsabilité des acteurs de l’internet, rappellent ainsi le cadre juridique dans lequel tout utilisateur évolue en ligne.

La réforme du brevet informatique et internet, auquel se substitue une certification par le biais de la plateforme publique PIX pour l’évaluation des compétences numériques des collégiens et lycéens, est également porteuse de progrès dans le domaine du civisme en ligne. En effet, parmi les compétences testées figurent la communication et la collaboration, notamment la maîtrise des enjeux de la présence en ligne et de la « netiquette ».

La formation des enseignants est également capitale, dans ce domaine, pour assurer la transmission aux élèves des règles fondamentales du vivre ensemble numérique. Les écoles supérieures du professorat et de l’éducation ont ainsi l’obligation, en application de l’article L. 721-2 du code de l’éducation, de former les futurs enseignants « à l’usage pédagogique des outils et ressources numériques » et d’organiser des formations de sensibilisation « à l’égalité entre les femmes et les hommes, à la lutte contre les discriminations, à la manipulation de l’information, à la scolarisation des élèves en situation de handicap ainsi que des formations à la prévention et à la résolution non violente des conflits ».

Au-delà, la formation continue des enseignants permise par la plateforme M@gistère, à laquelle recourent chaque année quelque 250 000 enseignants, permet également de prendre en compte les enjeux numériques dans leur dimension civique. En outre, la création, en 2020, d’un certificat d’aptitude au professorat de l’enseignement du second degré (CAPES) dédié à l’enseignement des sciences numériques et informatiques devra être le lieu d’un apprentissage approfondi des pratiques et règles à enseigner aux élèves des collèges et lycées.

Enfin, l’action à destination des parents d’élèves apparaît indispensable à la prévention de la diffusion des contenus haineux en ligne. En effet, bien souvent, les parents n’ont qu’une conscience très limitée des risques que leurs enfants encourent dans l’environnement numérique. Leurs propres pratiques étant très différentes de celles de leurs enfants, ils peinent à imaginer que ces derniers puissent adopter des comportements préjudiciables en ligne. La prise de conscience des risques encourus par les enfants – et, partant, par leurs parents, s’agissant de leur responsabilité juridique – ainsi que la connaissance des moyens de prévenir des pratiques potentiellement illicites ou, à tout le moins, inciviques, est donc impérative.

L’Éducation nationale, par le biais de la mallette des parents, dispose d’un outil extrêmement efficace d’information des parents. Une fiche à destination du personnel d’encadrement y explique ainsi la nécessité d’une réunion pédagogique avec les parents sur le thème de l’usage des écrans et du numérique. Si les phénomènes de cyber-harcèlement et de cyber-violences sont également traités, notamment par le biais d’une fiche à destination des parents indiquant les moyens de signaler les contenus dont son enfant est victime en ligne par le biais du portail gouvernemental ou du site pointdecontact.net, il serait souhaitable qu’une fiche soit directement proposée aux parents sur l’utilisation sécurisée d’internet et des réseaux sociaux, en lien avec les enseignements dispensés sur ce sujet par l’école. Un lien vers le guide « La Famille Tout-Écran », édité par le Centre de liaison de l’enseignement et des médias d’information (CLEMI), qui dispense de nombreux conseils aux familles en matière d’éducation aux médias et à l’information, pourrait par exemple être créé.

Ainsi, si le droit existant n’appelle que quelques modifications d’ordre législatif, des progrès peuvent encore être accomplis dans le sens d’une information plus systématique des enseignants, des élèves et de leurs parents. Si de nombreux outils sont proposés à la communauté éducative et aux familles, ils mériteraient probablement une forme de rationalisation pour toucher de façon effective leurs publics.

Par ailleurs, il conviendra également, dans le cadre du futur projet de loi sur le service national universel, d’être particulièrement attentif à l’intégration d’une formation ou d’une sensibilisation au civisme numérique et, plus largement, à la lutte contre les discriminations et les discours de haine, aux modules collectifs qui seront proposés dans ce cadre. On peut ainsi imaginer que, de la même façon qu’une initiation au code de la route et une formation aux premiers secours seront dispensées par ce biais, le service national universel sera l’occasion de délivrer à tous les jeunes les bases d’un réel civisme numérique.

Le secrétaire d’État auprès du ministre de l’Éducation nationale et de la jeunesse, M. Gabriel Attal, a récemment exprimé, devant notre commission, sa volonté d’intégrer ces enjeux au service national universel par le biais d’un module de cyber-éducation. Celui-ci comprendra une formation aux risques liés à l’usage d’internet en matière de discriminations et de discours de haine. Les associations spécialisées sur le sujet seront associées à la conception de ce module. 

Enfin, la rapporteure estime nécessaire d’amener les plateformes à mener des actions de plus grande ampleur dans le domaine du civisme numérique, notamment à l’égard de leurs utilisateurs mineurs, et proposera à la Commission d’adopter des dispositions en ce sens.


—  1  —

   annexe : Liste des auditions conduites
par la rapporteur
e pour avis

(par ordre chronologique)

 Conseil supérieur de l’audiovisuelM. Roch-Olivier Maistre, président, et M. Yannick Faure, directeur de cabinet

       Haute autorité pour la diffusion des œuvres et de la protection des droits sur internet (HADOPI)  M. Denis Rapone, président, Mme Pauline Blassel, secrétaire générale, et M. Nicolas Faucouit, responsable des relations institutionnelles

       Société des auteurs et compositeurs dramatiques (SACD) (*)  M. Pascal Rogard, directeur général, et M. Guillaume Prieur, directeur des affaires institutionnelles et européennes

       Ministère de la Culture – Direction générale des médias et des industries culturelles (DGMIC)  M. Jean-Baptiste Gourdin, chef de service et adjoint du directeur général des médias et des industries culturelles

       Google France (*)  M. Thibault Guiroy, responsable des relations institutionnelles, et Mme Clara Sommier, responsable YouTube Europe

       Facebook (*)  Mme Béatrice Oeuvrard, responsable des affaires publiques de Facebook France 

       Fédération française des Télécoms (FFT) (*)  M. Olivier Riffard, directeur des affaires publiques Fédération Française des Télécoms, Mme Carole Gay, responsable des relations institutionnelles chez Orange, Mme Alexandra Laffitte, chargée de mission contenus et usages FFTélécoms, Mme Marie Liane Lekpeli, chargée des affaires réglementaires, et Mme Claire Perset, directrice des relations institutionnelles

       Audition commune de Me Christian Soulié, avocat, et M. Philippe Coen, fondateur et président de l’ONG Respect Zone

       Association Ennocence  M. Gordon Choisel, président, et M. Yannick Cambon, avocat

       Qwant (*)  M. Guillaume Champeau, directeur éthique et affaires juridiques, M. Sébastien Menard, vice-président des affaires publiques,  Mme Eléonor Lasou, directrice du cabinet Rivington.


—  1  —

 

       Ministère de l’Éducation nationale  Mme Marie Dutertre, conseillère parlementaire, M. David Knecht, conseiller budgétaire, M. JeanMarc Merriaux, directeur du numérique pour l’éducation (DNE), Mme Nathalie Herr, cheffe du Département du développement des usages et de la valorisation des pratiques à la DNE, et Mme Judith Klein de la mission « prévention des discriminations et égalité fille-garçon »

       Snapchat – M. Jean Gonié, directeur affaires publiques de Snap Europe

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(*) Ces représentants d’intérêts ont procédé à leur inscription sur le répertoire de la Haute Autorité de transparence pour la vie publique s’engageant ainsi dans une démarche de transparence et de respect du code de conduite établi par le Bureau de l’Assemblée nationale

 


([1]) Netino by Webhelp, Panorama de la haine en ligne 2018, mai 2018.

([2]) Commission nationale consultative des droits de l’homme, Rapport sur la lutte contre le racisme, l’antisémitisme et la xénophobie 2018, avril 2019.

([3]) Commission nationale consultative des droits de l’homme, Rapport sur la lutte contre le racisme, l’antisémitisme et la xénophobie 2018. Les Essentiels, avril 2019, p. 17.

([4]) Cf. encadré infra.

([5]) Directive 2000/31/CE du Parlement européen et du Conseil du 8 juin 2000 relative à certains aspects juridiques des services de la société de l'information, et notamment du commerce électronique, dans le marché intérieur.

([6]) Délibération du 20 décembre 2011 relative à la protection du jeune public, à la déontologie et à l’accessibilité des programmes sur les services de médias audiovisuels à la demande.

([7]) Conseil d'État, 5e et 6e chambres réunies, 17/12/2018, n° 416311.

([8]) Directive 2010/13/UE du Parlement européen et du Conseil du 10 mars 2010 visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels.

([9]) Directive (UE) 2018/1808 du Parlement européen et du Conseil du 14 novembre 2018 modifiant la directive 2010/13/UE visant à la coordination de certaines dispositions législatives, réglementaires et administratives des États membres relatives à la fourniture de services de médias audiovisuels (directive «Services de médias audiovisuels»), compte tenu de l'évolution des réalités du marché.

([10]) Id., considérant n° 4.

([11]) Voir supra.

([12]) Avis délibéré par l’assemblée générale du Conseil d’État lors de sa séance du 16 mai 2019 sur la proposition de loi visant à lutter contre la haine sur internet, p. 7.

([13]) Article 15 de la loi n° 86-1067 du 30 septembre 1986 relative à la liberté de communication.

([14]) Avis délibéré par l’assemblée générale du Conseil d’État lors de sa séance du 16 mai 2019 sur la proposition de loi visant à lutter contre la haine sur internet, p. 9.