N° 1436 

______

ASSEMBLÉE NATIONALE

CONSTITUTION DU 4 OCTOBRE 1958

SEIZIÈME LÉGISLATURE

Enregistré à la Présidence de l'Assemblée nationale le 21 juin 2023

RAPPORT

 

FAIT

AU NOM DE LA COMMISSION DES AFFAIRES EUROPÉENNES
SUR LA PROPOSITION DE RÉSOLUTION EUROPÉENNE (N° 1395),
DE MME PERRINE GOULET,

relative à la proposition de règlement établissant des règles en vue
de prévenir et de combattre les abus sexuels sur les enfants,

 

PAR Mme Perrine GOULET

Députée

______

 

 

 

 

(1) La composition de la commission figure au verso de la présente page.


 

La Commission des affaires européennes est composée de : M. Pieyre-Alexandre ANGLADE, président ; M. Pierre-Henri DUMONT, Mme Marietta KARAMANLI, MM. Frédéric PETIT, Charles SITZENSTUHL, vice‑présidents ; M. Henri ALFANDARI, Mmes Louise MOREL, Nathalie OZIOL, Sandra REGOL secrétaires ; MM. Gabriel AMARD, Rodrigo ARENAS, Pierrick BERTELOOT, Mme Anne-Laure BLIN, M. Manuel BOMPARD, Mme Pascale BOYER, MM. Stéphane BUCHOU, André CHASSAIGNE, Mmes Sophia CHIKIROU, Annick COUSIN, Laurence CRISTOL, MM. Thibaut FRANÇOIS, Guillaume GAROT, Mmes Félicie GÉRARD, Perrine GOULET, MM. Benjamin HADDAD, Michel HERBILLON, Alexandre HOLROYD, Philippe JUVIN, Mmes Brigitte KLINKERT, Julie LAERNOES, Constance LE GRIP, Nicole LE PEIH, M. Denis MASSÉGLIA, Mmes Joëlle MÉLIN, Yaël MENACHE, M. Thomas MÉNAGÉ, Mmes Lysiane MÉTAYER, Danièle OBONO, Anna PIC, M. Christophe PLASSARD, Mme Barbara POMPILI, MM. Jean-Pierre PONT, Alexandre SABATOU, Nicolas SANSU, Vincent SEITLINGER, Mmes Liliana TANGUY, Sabine THILLAYE, Estelle YOUSSOUFFA.

 


—  1  —

SOMMAIRE

___

 Pages

Introduction

PREMIÈRE PARTIE : La proposition de règlement repond aux insuffisances de regulation d’un phÉnomÈne en inquietante augmentation

I. La diffusion de contenus relatifs à des abus sexuels sur enfants en ligne : un phénomène multiforme connaissant une augmentation inquiÉtante

A. L’essor du numérique a créé de nouvelles menaces pour les mineurs

B. Un phénomène en constante augmentation

II. Un Défaut de rÈglementation À l’Échelle européenne

A. Une rÉgulation européenne minimale en matière de diffusion de contenus pédopornograhiques

B. un vide juridique européen engendrant une fragmentation des législations nationales

DEUXIÈME PARTIE : La proposition de règlement s’inscrit dans une législation européenne ambitieuse pour securiser l’environnement numérique dont les contours doivent toutefois encore etre précisés

I. La proposition de règlement fixe des obligations ambitieuses pour lutter contre la diffusion de contenus pédopornograhpiques en ligne

A. La proposition de règlement s’inscrit dans une architecture juridique européenne complexe et récemment enrichie

B. La proposition de règlement prévoit des obligations ambitieuses et inédites pour lutter contre les abus sexuels sur les enfants en ligne

II. certaines dispositions du règlement doivent encore être précisées et être accompagnées d’une politique globale de prévention pour sécuriser les pratiques des mineurs en ligne

A. Certains éléments du règlement, actuellement en discussion, doivent encore être précisés

B. La lutte contre les contenus pédopornagrahpiques en ligne doit s’inscrire dans une politique globale de prevention et de securisation de l’espace numérique

Conclusion

TRAVAUX DE LA COMMISSION

Proposition de résolution européenne

 


—  1  —

   Introduction

 

Mesdames, Messieurs,

En janvier 2022, le commissaire européen Thierry Breton soulignait la nécessité de mettre fin au « Far West numérique » en instaurant une véritable régulation des acteurs du numérique afin que ce qui est illégal hors ligne le soit également en ligne.

Le cadre juridique européen s’est ainsi considérablement étoffé ces dernières années, à travers l’adoption de plusieurs textes législatifs, à l’image du règlement européen sur les services numériques dit « DSA » pour améliorer la lutte contre la diffusion de contenus illicites. Toutefois, la diffusion en ligne de contenus pédopornographiques demeure une préoccupation aiguë et un point faible de la législation européenne.

En effet, la diffusion de contenus pédopornographiques en ligne a augmenté de manière exponentielle ces dernières années encouragée par le développement continu de l’usage des outils numériques et accélérée par les périodes de confinement liées à la crise de Covid-19. En 2022, ce sont 32 millions de signalements de contenus pédopornographiques qui ont été effectués par les fournisseurs de services en ligne auprès du Centre national américain pour les enfants disparus et exploités. Au sein de l’Union européenne, alors que les signalements s’élevaient à 23 000 en 2010, ils atteignaient plus d’un million en 2020.

Face à l’ampleur de ce phénomène, qui heurte les valeurs essentielles de l’Union européenne et porte atteinte aux droits fondamentaux des enfants, la législation européenne apparaît insuffisante. Elle n’impose à ce jour, aux fournisseurs de services, aucune obligation de détection de ces contenus, ces détections étant réalisées sur une base volontaire tandis que les procédures imposant leur retrait demeurent minimales et peu contraignantes.

C’est pourquoi, le 11 mai 2022, la Commission européenne a présenté une proposition de règlement établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants. Cette proposition de règlement a pour objet de lutter contre la diffusion dans l’espace numérique de contenus à caractère pédopornographique en établissant des règles contraignantes et uniformes à l’égard des fournisseurs de services d’hébergement, de services de communications interpersonnelles et d’autres services opérant dans l’Union. Elle permettra d’imposer des obligations de détection, de signalement et de retraits des contenus relatifs à des abus sexuels sur les enfants.

La proposition de règlement s’inscrit ainsi dans une stratégie de sécurisation de l’espace numérique, tout particulièrement pour les mineurs, faisant écho aux réflexions menées à l’échelle nationale à travers plusieurs projets et propositions de lois relatifs au renforcement du contrôle parental, de la majorité numérique ou d’un droit à l’image des mineurs.

Cette initiative européenne mérite ainsi d’être saluée tout en restant attentif à ses conditions d’application afin d’assurer son efficacité pour lutter contre les abus sexuels sur les enfants et son articulation avec les normes européennes et nationales existantes.

 


—  1  —

 PREMIÈRE PARTIE : La proposition de règlement repond aux insuffisances de regulation d’un phÉnomÈne en inquietante augmentation

I.   La diffusion de contenus relatifs à des abus sexuels sur enfants en ligne : un phénomène multiforme connaissant une augmentation inquiÉtante

A.   L’essor du numérique a créé de nouvelles menaces pour les mineurs

Le philosophe Bernard Stiegler désigne le numérique comme un « pharmakon », du terme grec désignant un élément constituant à la fois un poison et un remède. L’usage des outils numériques pour les enfants constitue en effet une réalité à double tranchant. D’une part, les disparités d’accès aux technologies de communication et d’information sont à l’origine d’inégalités sociales, symbolisées par la « fracture numérique » susceptibles d’influencer l’apprentissage et les parcours sociaux. D’autre part, l’espace numérique est facteur de risques et expose les mineurs à de nouvelles menaces.

Parmi ces risques, l’exposition des enfants à certaines formes d’abus et d’exploitation sexuels figure comme l’une des principales inquiétudes.

Selon la définition issue des lignes directrices de l’Organisation mondiale de la santé (OMS) les violences sexuelles sur enfant désignent « la participation d’un enfant à une activité sexuelle qu’il n’est pas pleinement en mesure de comprendre, à laquelle il ne peut consentir en connaissance de cause ou pour laquelle il n’est pas préparé du point de vue de son développement, ou encore qui viole les lois ou les tabous sociaux de la société » ([1]) .

Le Conseil de l’Europe estime qu’en Europe, un enfant sur cinq est victime d’une forme ou l’autre de violence sexuelle ([2]). Les outils numériques créent de nouveaux canaux qui peuvent faciliter ou aggraver la commission de ces violences alors même qu’à l’âge de 12 ans, 50 % des enfants ont un compte sur un réseau social ([3]).

La directive 2011/92/UE ([4]) définit quatre catégories d’infraction que les États membres doivent pénaliser dans leur législation nationale : les abus sexuels, l’exploitation sexuelle des enfants, la pédopornographie et la sollicitation d’enfants à des fins sexuelles.

Lorsqu’elles sont effectuées par le biais de services numériques, ces infractions regroupent des pratiques comme la production de contenu d’abus sexuels sur enfants, la consultation, le stockage et le partage de ces contenus ainsi que la diffusion en direct d’actes d’exploitation et d’abus sexuels.

Ainsi, dans certains cas, les outils numériques redoublent la violence des agressions sexuelles qui se produisent « dans la vie réelle » par leur diffusion, ce qui créent un second préjudice et traumatisme à la victime. Dans d’autres cas, les outils numériques sont eux-mêmes à l’origine d’agressions qui n’auraient pas eu lieu dans la vie réelle.

Parmi les infractions relatives à des abus sexuels sur enfants, deux phénomènes ont connu une émergence rapide liée à l’accroissement de l’utilisation des technologies numériques.

Le premier concerne la sollicitation d’enfants en ligne à des fins d’abus sexuels aussi connu sous le nom de « pédopiégeage » ou « grooming ». En 2020, le Centre national américain pour les enfants disparus et exploités (NCMEC) a relevé une augmentation de 97,5 % des signalements reçus concernant la sollicitation d’enfants en ligne. Entre 2020 et 2022, le nombre de signalements reçu a encore doublé, passant de 37 800 à 80 500 ([5]). Les outils numériques ont donné une nouvelle ampleur à ce phénomène, en facilitant l’accès à des enfants notamment sur les réseaux sociaux et en offrant aux agresseurs la possibilité de multiplier les sollicitations.

Un autre phénomène engendré par les nouveaux usages des outils numériques par les mineurs concerne la diffusion de contenus dits « autoproduits ». C’est-à-dire, des images produites par les victimes elles-mêmes. Ce contenu peut être de trois sortes :

-         le matériel qui n’a pas de connotation pornographique mais qui est détourné et utilisé en relation avec l’exploitation et les abus sexuels envers les enfants. L’exposé des motifs de la proposition de loi n° 758 visant à garantir le respect du droit à l’image des enfants déposée en janvier 2023 indiquait que 50 % des photographies qui s’échangent sur les forums pédopornographiques avaient initialement été publiées par les parents sur leurs réseaux sociaux ;

-         le matériel volontairement « autoproduit » dans le but d’être partagé entre adolescents mais qui peut être repartagé contre la volonté de la victime ;

-         l’autoproduction sous la contrainte, c’est-à-dire la sollicitation d’enfants pour leur faire créer des images pornographiques, fréquemment dans le cadre d’une situation d’exploitation.

Ainsi, l’Internet Watch Foundation (IWF) avait reçu 68 000 signalements de contenu à caractère sexuel « autoproduit » en 2020, soit une augmentation de 77 % par rapport à 2019 ([6]) .

B.    Un phénomène en constante augmentation

Les contenus relatifs à des abus sexuels sur enfants en ligne connaissent une augmentation exponentielle.

Au sein de l’Union européenne, la stratégie de l'UE en faveur d'une lutte plus efficace contre les abus sexuels commis contre des enfants présentée en 2020 faisait état d’un passage de 23 000 signalements en 2010 à 725 000 en 2019 ([7]). De plus, le rapport annuel de l’Internet Watch Foundation indiquait que plus des deux tiers des signalements concernaient des contenus hébergés dans l’Union européenne ([8]).

Les données disponibles à l’échelle mondiale font état d’une augmentation similaire. Un million de signalements ont été effectués en 2010 à 32 millions en 2022 auprès du NCMEC ([9]) .

En France, en 2022, la plateforme PHAROS du ministère a procédé à près de 74 000 demandes de retraits de contenus pédopornographiques ([10]).

De surcroît, le phénomène a connu une nette accélération lors de la pandémie de Covid-19. Les confinements instaurés dans de nombreux États pendant l’année 2020 ont créé des conditions favorables au développement d’abus sexuels sur mineurs en ligne.

En effet, l’utilisation des outils numériques pendant les confinements a reporté au sein de l’espace virtuel les risques présents dans le monde extérieur. Les confinements ont augmenté les vulnérabilités des mineurs en augmentant le temps passé en ligne et en empêchant les garde-fous habituels de jouer leur rôle (réseaux de soutien, amis, école). De plus, un nombre important d’agressions sexuelles sur enfants ayant lieu au sein même de la cellule familiale, les confinements ont également pu augmenter la proximité des enfants avec leurs agresseurs.

Au sein de l’Union européenne, l’agence Europol a étudié l’évolution de différents indicateurs pour mesurer l’intensité des activités illégales liées aux abus sexuels sur enfants pendant la crise du Covid-19. Ces indicateurs comprennent des éléments tels que le volume de publication sur des forums dédiés à la question des abus sexuels, l’activité sur le dark web et les signalements effectués par des autorités. Tous les indicateurs ont connu un phénomène marqué d’augmentation dès l’instauration des premiers confinements.

À cet égard, le nombre de signalements transmis à Europol par le NCMEC à propos de contenus pédopornographiques dans l’Union a connu un pic inédit au mois de mars 2020, coïncidant avec l’instauration de confinements dans des nombreux États membres avant de connaître un « retour à la normale » au mois de mai lors de la levée des restrictions.

Source : EXPLOITING ISOLATION : Offenders and victims of online child sexual abuse during the COVID-19 pandemic, Europol (2020)

 

De plus, l’ampleur du phénomène demeure difficile à mesurer et est probablement sous-estimée. Les signalements proviennent en effet d’un nombre réduit de fournisseurs de services, ce qui laisse à penser que de nombreux fournisseurs n’effectuent pas de travail de détection ou de signalement. À titre d’illustration, en 2022, 5 fournisseurs comptaient pour 90 % des signalements effectués au NCMEC ([11]).


—  1  —

 

II.   Un Défaut de rÈglementation À l’Échelle européenne

A.   Une rÉgulation européenne minimale en matière de diffusion de contenus pédopornograhiques

Le droit pénal matériel relevant de la compétence des États membres, l’action de l’Union européenne dans la lutte contre les abus sexuels sur les enfants en ligne est demeurée limitée. La réglementation sectorielle en la matière repose à ce jour essentiellement sur une directive et un règlement provisoire.

Il s’agit, d’une part, de la directive 2011/92/UE évoquée précédemment, laquelle définit les infractions liées aux abus sexuels sur mineurs et impose aux États membres de mettre en place des dispositifs permettant le retrait rapide des contenus pédopornographiques hébergés sur leur territoire.

Le cadre juridique européen en matière de lutte contre la diffusion de contenu en ligne repose, d’autre part, sur le règlement 2021/1232 permettant aux fournisseurs de services de communications interpersonnelles non fondées sur la numérotation, c’est-à-dire les services de courrier électronique, de messagerie instantanée, ou de téléphonie par internet, de déroger aux dispositions de la directive « vie privée et communications électroniques » dite « e-privacy » ([12]).

Ce règlement permet ainsi aux fournisseurs de poursuivre leur activité de détection volontaire des contenus diffusés sur leur service via différentes technologies (« hachage » pour les images et les vidéos, classificateurs ou encore l’intelligence artificielle pour l’analyse de textes ou de données relatives au trafic) nécessitant le traitement de données personnelles des utilisateurs du service, technologies qui auraient pu entrer en contradiction avec les obligations relatives au respect de la vie privée et à la confidentialité des communications imposées par la directive « e-privacy ».

Toutefois, l’application du règlement provisoire prendra fin le 3 août 2024, nécessitant l’adoption d’une nouvelle base juridique afin de permettre la poursuite de politiques proactives de détection des contenus pédopornographiques.

En revanche, à ce jour, le droit de l’Union européenne n’impose pas aux fournisseurs de services d’hébergement et de communications interpersonnelles une obligation de détection des contenus relatifs à des abus sexuels sur des enfants diffusés sur leur plateforme.

B.   un vide juridique européen engendrant une fragmentation des législations nationales

L’absence de cadre européen contraignant en matière de détection et de retrait des contenus pédopornographiques conduit à l’adoption de législations très diverses entre États membres.

En France, l'article 6-1 de la loi n° 2004-575 pour la confiance dans l'économie numérique (LCEN) permet à l'autorité administrative de demander aux hébergeurs et éditeurs de retirer, dans un délai de vingt-quatre heures, d’une part, les contenus provoquant à des actes terroristes ou en faisant l'apologie et d’autre part, ceux à caractère pédopornographique.

S’agissant des contenus à caractère pédopornographique, le non-respect de cette demande dans les vingt-quatre heures ne fait toutefois l'objet d'aucune sanction. Il entraîne seulement la possibilité pour l'autorité administrative de demander aux fournisseurs d'accès à internet de procéder au blocage administratif ou au déréférencement du site mettant à la disposition du public ces contenus illicites.

Ce dispositif n'est donc pas contraignant, contrairement à celui mis spécifiquement en place s’agissant des contenus à caractère terroriste par le règlement (UE) 2021/784 relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne (dit « TCO »).

Ce dispositif a été introduit aux articles 6-1-1 et suivants de la LCEN par la loi n° 2022-1159 du 16 août 2022. Il permet à l’autorité administrative compétente de délivrer une injonction de retrait, dans un délai d'une heure, de certains contenus à caractère terroriste à l'encontre des fournisseurs de services d'hébergement au public en ligne. Sa violation par un hébergeur est pénalement sanctionnée par un an d'emprisonnement et 250 000 euros d'amende.

L’absence de législation uniforme engendre une fragmentation du marché unique du numérique alors même que les services concernés sont de nature transfrontalière. De plus, l’absence d’uniformisation peut conduire à l’existence de vide juridique dans certains États.

L’organisation International Center for Missing and Exploited Children procède à l’évaluation des législations relatives aux agressions sexuelles dans les 196 pays membres d’Interpol. Son rapport de 2018 révélait que seuls 32 États exigeaient des prestataires de services d’internet qu’ils signalent les infractions relatives aux contenus pédopornographiques ([13]).

 

   DEUXIÈME PARTIE : La proposition de règlement s’inscrit dans une législation européenne ambitieuse pour securiser l’environnement numérique dont les contours doivent toutefois encore etre précisés

I.   La proposition de règlement fixe des obligations ambitieuses pour lutter contre la diffusion de contenus pédopornograhpiques en ligne

A.   La proposition de règlement s’inscrit dans une architecture juridique européenne complexe et récemment enrichie

La proposition de règlement présentée par la Commission européenne le 11 mai 2022, s’inscrit dans une ambition globale de régulation de l’espace numérique articulée autour de la responsabilisation des acteurs privés y opérant et de la protection des utilisateurs de ces services. Elle s’insère ainsi dans un cadre juridique en forte évolution depuis plusieurs années.

En premier lieu, elle s’insère dans l’économie générale instaurée par le règlement général sur la protection des données dit « RGPD » du 27 avril 2016 ([14]). Le RGPD en affirmant le droit à la protection des données à caractère personnel, également inscrit à l’article 8 de la Charte des droits fondamentaux de l’Union, encadre le traitement de ces données personnelles.

Plus particulièrement, le RGPD définit les conditions dans lesquelles le recours à des technologies de traitement des données personnelles est conforme aux exigences de respect de la vie privée. Son article 6 paragraphe c) mentionne comme motif « le respect d'une obligation légale à laquelle le responsable du traitement est soumis ». La proposition de règlement permettrait ainsi d’établir une base légale au sens de cet article du RGPD pour sécuriser juridiquement les activités de détection de contenus pédopornographiques impliquant le traitement de données à caractère personnel.

De plus, la proposition s’applique notamment aux fournisseurs de services de communications électroniques interpersonnelles, qui sont également soumis à la directive vie privée et communications électroniques. Cette directive, actuellement en cours de révision, garantie la confidentialité des communications effectuées au moyen d'un réseau public de communications et de services de communications électroniques accessibles au public, ainsi que la confidentialité des données relatives au trafic y afférentes.

La directive e-privacy interdit à toute autre personne que les utilisateurs d'écouter, d'intercepter, de stocker les communications et les données relatives au trafic y afférentes. Elle interdit également de les soumettre à tout autre moyen d'interception ou de surveillance, sans le consentement des utilisateurs concernés. Son article 6 dispose également que les données relatives au trafic concernant les abonnés et les utilisateurs traitées et stockées par le fournisseur d'un réseau public de communications ou d'un service de communications électroniques accessibles au public doivent en principe être effacées ou rendues anonymes lorsqu'elles ne sont plus nécessaires à la transmission d'une communication.

Toutefois, l'article 15 de la même directive prévoit que les États membres peuvent adopter des mesures législatives visant à limiter la portée des droits et des obligations « lorsqu'une telle limitation constitue une mesure nécessaire, appropriée et proportionnée, au sein d'une société démocratique, pour sauvegarder la sécurité nationale - c'est-à-dire la sûreté de l'État - la défense et la sécurité publique, ou assurer la prévention, la recherche, la détection et la poursuite d'infractions pénales ou d'utilisations non autorisées du système de communications électroniques ».

La proposition de règlement du 11 mai 2022 mettrait fin à l’application du règlement provisoire qui instaurait une dérogation à certaines dispositions de la directive e-privacy. Dès lors, elle prévoit que les obligations de détection introduites par la proposition s’effectueraient dans le cadre l’article 15, paragraphe 1, de la directive e-privacy.

De plus, la proposition de règlement établissant des règles pour lutter contre les abus sexuels sur les enfants s’inscrit dans le mouvement de responsabilisation progressive des acteurs numériques s’agissant de la diffusion de contenus illégaux.

Le cadre juridique en la matière a été récemment consolidé par le règlement relatif à un marché intérieur des services numériques dit « DSA » adopté le 19 octobre 2022. Ce règlement renforce les obligations des fournisseurs de services intermédiaires (services de simple transport, services de cache, services d’hébergement) en ce qui concerne la diffusion de contenus illégaux.

Il prévoit ainsi que les fournisseurs d’hébergement établissent des mécanismes permettant à tout individu de leur signaler la présence au sein de leur service de contenus illicites. Les hébergeurs traitent ces notifications dans les meilleurs délais et prennent une décision de retrait. Dans l’hypothèse où un contenu illicite qui lui aurait été signalé ne serait pas retiré promptement, l’hébergeur peut voir sa responsabilité engagée.

L’ensemble des prestataires de services intermédiaires doit ainsi établir un point de contact unique et remplir un devoir de transparence, au travers d’un rapport annuel indiquant notamment le nombre d’injonctions de retrait reçues des autorités des États membres.

Conformément à l’approche asymétrique et différenciée selon la catégorie et la taille des acteurs visés, les « très grandes plateformes » sont soumises à des obligations supplémentaires leur imposant d’évaluer spécifiquement les risques systémiques liés à l’utilisation de leurs services en matière de diffusion de contenus illégaux.

En revanche le règlement DSA ne revient pas sur la responsabilité limitée des hébergeurs prévue par la directive e-commerce. Elle dispose que le fournisseur de services en ligne ne peut pas être tenu responsable d’un contenu illicite qu’il transmet, stocke ou héberge, dans la mesure où il n’a aucune influence sur ce contenu. L’article 8 du DSA indique de surcroît que les fournisseurs de services intermédiaires ne sont soumis à aucune obligation générale de surveiller les informations qu’ils transmettent ou stockent ou de rechercher activement des faits ou des circonstances révélant des activités illégales.

B.   La proposition de règlement prévoit des obligations ambitieuses et inédites pour lutter contre les abus sexuels sur les enfants en ligne

La proposition de règlement concrétise les engagements pris dans la stratégie de l’UE en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants. Elle instaure des obligations ambitieuses à la charge de tous les fournisseurs de services d’hébergement ou de communications interpersonnelles. Le dispositif reproduit très largement celui mis en place concernant les contenus à caractère terroriste par le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne (dit « TCO »).

La proposition prend toutefois comme base légale l’article 114 TFUE relatif au marché intérieur. Il vise en effet à harmoniser les exigences imposées aux fournisseurs de services en ligne dans le marché unique numérique et à éliminer les divergences existantes qui entraîneraient une charge pour les fournisseurs, et créerait des conditions inégales pour les fournisseurs dans l’UE, ainsi que de potentiels vides juridiques.

La proposition de règlement est divisée en deux grandes parties. Premièrement, elle impose aux fournisseurs des obligations renforcées en matière de lutte contre les contenus relatifs aux abus sexuels sur enfants. Deuxièmement, elle prévoit la création d’un centre de l’Union européenne chargé de prévenir et de combattre les abus sexuels sur enfants.

S’agissant des obligations imposées aux fournisseurs, celles-ci sont des plusieurs types.

En matière de prévention de la diffusion de contenus à caractère pédopornographiques, le règlement prévoit :

● une obligation d’évaluation et d’atténuation des risques d’utilisation à mauvais escient de leurs services aux fins de la diffusion de matériel connu ou nouveau relatif à des abus sexuels sur enfants ou de la sollicitation d’enfants ;

● une obligation de détection des contenus : si le risque qu’un service soit utilisé à mauvais escient à des fins d’abus sexuels sur enfants en ligne est avéré, les autorités compétentes peuvent émettre une injonction obligeant le fournisseur concerné à détecter le type d’abus sexuels sur enfants en ligne en cause sur le service concerné.

Lorsqu’un contenu à caractère pédopornographique est identifié :

● une obligation de signalement des contenus identifiés par les fournisseurs de services auprès du nouveau Centre de l’Union chargé de prévenir et de combattre les abus sexuels sur enfants. Ce dernier procédera au traitement de ce signalement et le cas échéant le transmettra à Europol et aux autorités répressives compétentes de l'État membre concerné. En outre, le centre tiendrait à jour une base de données de ces signalements ;

● une obligation de retrait des contenus : lorsqu’un fournisseur ne retire pas du contenu relatif à des abus sexuels sur enfants de son propre chef, les autorités de coordination peuvent l’obliger à le faire en émettant une injonction à cet effet. Le fournisseur exécute l’injonction de retrait dès que possible et, en tout état de cause, dans les 24 heures suivant sa réception ;

● une obligation de blocage lorsque les contenus ne peuvent pas être raisonnablement retirés à la source.

En second lieu, le règlement prévoit la création du Centre de l’Union européenne chargé de prévenir et de combattre les abus sexuels sur enfants. Le Centre aurait le statut d’agence décentralisée de l’Union doté de la personnalité juridique. Son siège serait situé à La Haye aux Pays-Bas afin de favoriser la coopération avec l'agence Europol.

Le Centre occupe une place importante dans l’architecture du règlement.

Il jouera le rôle d’intermédiaire entre les fournisseurs de services et les autorités répressives des États membres. Il sera ainsi chargé de la réception et du traitement des signalements et aura un rôle de filtre avant transmission aux services répressifs compétents.

Il sera également consulté à propos des injonctions de détection et établira une liste de technologies pouvant être utilisées par les fournisseurs pour détecter les contenus illégaux.

 Enfin, il tiendra à jour une base de données contenant des indicateurs relatifs au matériel pédopornographique connu, au nouveau matériel et à la manipulation psychologique d’enfants qu’il mettra à disposition des fournisseurs et des autorités compétentes.

 

II.   certaines dispositions du règlement doivent encore être précisées et être accompagnées d’une politique globale de prévention pour sécuriser les pratiques des mineurs en ligne

A.   Certains éléments du règlement, actuellement en discussion, doivent encore être précisés

Depuis sa présentation par la Commission européenne le 11 mai 2022, la proposition de règlement fait l’objet d’intenses discussions au sein des institutions de l’Union européenne. Ni le Parlement européen, ni le Conseil n’ont pour le moment arrêté leur position et plusieurs points du règlement pourraient fortement évoluer par rapport à la proposition initiale de la Commission.

En premier lieu, l’articulation du règlement avec le respect du droit à la vie privée doit encore être précisée. En effet, les dispositions relatives aux obligations de détection, dans la mesure où elles nécessiteraient de traiter les données d’un grand nombre d’utilisateurs, sont constitutives d’une forte ingérence dans le droit à la vie privée et à la confidentialité des communications consacrés aux articles 7 et 8 de la Charte des droits fondamentaux de l’Union européenne et 8 de la Convention européenne des droits de l’homme.

Toutefois, ces droits ne sont pas absolus et peuvent faire l’objet de limitations conformément à l’article 52 de la Charte des droits fondamentaux. Ces limitations doivent être prévues par la loi et respecter le contenu essentiel desdits droits et libertés. Dans le respect du principe de proportionnalité, des limitations ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d'intérêt général reconnus par l'Union ou au besoin de protection des droits et libertés d'autrui ([15]).

Le service juridique du Conseil de l’Union européenne, tout comme le Contrôleur européen à la protection des données (CEPD), ont émis des réserves quant à la conformité du dispositif au regard du droit à la vie privée. Ils estiment que les injonctions de détection des abus sexuels sur mineurs ne sont pas proportionnées dans la mesure où elles nécessitent de traiter les données personnelles de l’ensemble des utilisateurs d’un service sans ciblage particulier des utilisateurs à risque. Le CEPD estime également que les messages audio devraient rester en dehors du champ du dispositif et que les injonctions de détection devraient être restreintes afin de ne pas porter atteinte aux dispositifs de chiffrement de bout en bout de certaines communications.

Les discussions en cours doivent ainsi permettre de préciser les garde-fous pour assurer le droit à la vie privée tout garantissant l’intérêt supérieur de l’enfant.

Par conséquent, les principaux points en discussion concernent le champ d’application du règlement, notamment le type d’acteurs concernés ainsi que l’inclusion ou non des contenus chiffrés de bout en bout. Les points faisant également l’objet de dissensions portent sur l’inclusion dans les injonctions de détection des nouveaux contenus et du pédopiegeage, dans la mesure où la détection de ces contenus nécessite des techniques plus intrusives et moins fiables que pour la détection de contenus déjà identifiés.

Dans le cadre des discussions en cours, la présidence suédoise a présenté le 8 juin dernier, un nouveau de texte de compromis soumis à la discussion des organes du Conseil.

Celui-ci prévoit notamment d’exclure du champ du règlement les contenus chiffrés de bout en bout. Il propose d’imposer la détection de pédopiégeage dans les messages audio, mais écarte les communications audio « en temps réel ».

Enfin, le projet confie de nouvelles responsabilités au Centre de l’Union européenne chargé de la prévention et de la lutte contre les abus sexuels sur mineurs telles que la promotion de la prévention des abus sexuels sur les enfants en établissant une base de données recensant toutes les initiatives pertinentes menées à l’échelle européenne et dans les États membres. Le Centre comprendra également un comité technologique qui agira en tant que groupe consultatif et dont les experts seront nommés par les États membres.

Bien que de nombreux points du règlement demeurent ainsi en discussion, la présidence suédoise souhaite obtenir un accord avant mars 2024. Dix États, dont l’Espagne et la Belgique, qui assureront les deux prochaines présidences du Conseil de l’UE, ont également adopté une position le 27 avril dernier appelant à l’adoption d’un accord en 2023.

B.   La lutte contre les contenus pédopornagrahpiques en ligne doit s’inscrire dans une politique globale de prevention et de securisation de l’espace numérique

Au-delà d’une approche exclusivement répressive, la diffusion et l’évolution des outils numériques nécessitent un accompagnement des mineurs dans l’usage de ces technologies et de véritables politiques de prévention et d’éducation.

En effet, les menaces qui pèsent sur les enfants (matériel pédopornographique « autoproduit », « pédopiégeage ») démontrent qu’une partie des abus pourrait être évitée si les mineurs étaient davantage sensibilisés aux risques qu’ils encourent sur Internet. De plus, les dispositifs de contrôle peuvent également se révéler contreproductifs en freinant la responsabilisation et l’autonomisation des jeunes dans leurs usages des outils numériques. En France, en 2021, 63 % des moins de 13 ans étaient inscrits sur au moins un réseau social ([16]). Ces usages de l’Internet, qui se développent de plus en plus jeune, doivent être accompagnés.

Les dispositifs prévus dans la loi doivent faire leurs preuves à l’usage une fois qu’ils seront promulgués et ou appliqués tels que la majorité numérique fixée à 15 ans pour l’inscription sur les réseaux sociaux ou les dispositifs de contrôle parental ([17]).

La CNIL recommande notamment de mettre en place des dispositifs de contrôle parental plus efficaces qui soient également respectueux de la vie privée de l’enfant afin de ne pas altérer la relation de confiance entre les parents et le mineur.

Les associations de défense des enfants contre les abus sexuels en ligne recommandent également d’intégrer dans les programmes scolaires les enjeux de sécurité sur internet en lien avec des cours d’éducation sexuelle et à la vie affective ([18]).

Enfin, il importe également d’associer les acteurs numériques aux politiques de prévention et de responsabiliser davantage ces derniers. Les très grandes plateformes en ligne pourraient à cet égard être tenues de mettre en œuvre sur leurs services, à leurs frais, des campagnes de communication visant à rappeler la règlementation applicable en matière de contenus pédopornographiques ([19]).

 

 


—  1  —

   Conclusion

Les abus sexuels sur les enfants constituent des infractions particulièrement graves qui, en touchant les plus vulnérables, constituent des violations intolérables des droits fondamentaux et portent atteinte aux valeurs essentielles de l’Union européenne. La législation proposée par la Commission européenne apparaît indispensable pour doter l’Union européenne et les États membres des outils adéquats afin de combattre l’inquiétante expansion des abus sur les enfants en ligne. Si certains points du règlement doivent encore être précisés, notamment son articulation avec le respect des principes du droit à la vie privée, votre rapporteur tient à exprimer son plein soutien aux ambitions portées par ce texte.

 


—  1  —

 

   TRAVAUX DE LA COMMISSION

La Commission s’est réunie le 21 juin 2023, sous la présidence de M. Frédéric Petit, Vice-président, pour examiner le présent rapport.

M. le Président Frédéric Petit. Nous nous retrouvons aujourd’hui pour l’examen d’une proposition de résolution européenne relative à la proposition de règlement établissant des règles en vue de prévenir et de combattre les abus sexuels sur les enfants. Je suis heureux d’accueillir dans notre commission pour cette occasion Perrine Goulet, présidente de la délégation aux droits des enfants et rapporteur de cette proposition de résolution européenne.

Il est tout particulièrement pertinent que notre commission puisse se prononcer sur ce texte européen important. Le mois dernier, en effet, le Gouvernement a présenté son projet de loi visant à sécuriser et réguler l'espace numérique lequel anticipe et reprend certaines dispositions de cette proposition de règlement européen. L’Union européenne se doit de protéger les enfants sur internet.

Mme Perrine Goulet, rapporteure. J’ai souhaité porter cette proposition de résolution européenne sur un texte présenté en mai 2022 par la Commission européenne, visant à prévenir et à combattre les abus sexuels sur les enfants. La nécessité de lutter contre violences sexuelles, dans la lignée du mouvement MeToo, a fait l’objet d’une prise de conscience croissante au sein de la société. Toutefois, les abus sexuels commis sur les enfants demeurent encore trop sous-estimés. Selon le Conseil de l’Europe, un enfant sur cinq est victime de violences sexuelles en Europe.

Il signifie également que nous connaissons tous, dans nos entourages, des adultes qui ont été victimes de telles violences dans leur enfance. Dans la majorité des cas, ces actes sont commis par une personne proche de l’enfant, souvent dans son cercle de confiance voire sa famille. Ils provoquent des dommages à vie sur la santé physique et mentale de l’enfant. Malheureusement, dans 90 % des cas, ils ne sont pas signalés à la police.

Les abus sexuels sur les enfants ne sont bien entendu pas apparus avec l’émergence d’Internet. Toutefois, le développement des outils numériques a décuplé les risques pour les mineurs et créé de nouvelles formes de menaces et d’abus sexuels. Alors que 63 % des enfants de moins de 13 ans sont inscrits sur un réseau social, celui-ci est désormais l’outil privilégié des agresseurs pour entrer en contact avec leurs jeunes victimes et les piéger.

De plus, la viralité qui caractérise la diffusion de contenus dans l’espace numérique redouble la violence des abus sexuels. Les victimes, en plus de subir des abus sexuels dans la vie réelle, sont souvent victimes une seconde fois, en subissant la diffusion, le partage et le repartage entre pédocriminels de leur agression sur Internet. En 2021, le démantèlement d’un réseau pédocriminel sur le dark web appelé « boystown » a relevé l’existence d’un site rassemblant plus de 400 000 membres à travers le monde, où s’échangeaient des millions d’images d’abus sexuels sur des enfants.

Le numérique donne également lieu au développement de nouvelles pratiques particulièrement abjectes, comme celles des viols en ligne où des internautes achètent des vidéos diffusées en directs de viols de jeunes enfants souvent originaires de pays pauvres d’Asie du sud-est. Nous ne pourrions tolérer que de tels agissements se développent « hors ligne ». Comment, dès lors, expliquer que nous tolérions que chaque année la quantité de contenus à caractère pédopornographique identifiés sur internet augmente ? En 2022, 32 millions de signalements de contenus pédopornographiques ont été effectués par les fournisseurs de services en ligne auprès du Centre national américain pour les enfants disparus et exploités. 60 % de ces contenus étaient hébergés dans l’Union européenne.

Face à ce constat accablant, qui heurte les valeurs essentielles de l’Union et porte atteinte aux droits fondamentaux des enfants, la législation européenne est insuffisante. Elle n’impose, à ce jour, aux fournisseurs de services, aucune obligation de détection de ces contenus, celle-ci étant réalisée sur une base volontaire.

La proposition de règlement présentée par la Commission européenne entend remédier à cette situation en établissant des règles contraignantes et uniformes à l’égard des fournisseurs de services en ligne opérant dans l’Union. Une fois ce texte adopté, les entreprises du numérique auront obligation de signaler les contenus à caractère pédopornographique identifiés sur leur service. Elles devraient également mettre en place des politiques d’évaluation des risques. Dans l’hypothèse où des risques particuliers seraient identifiés, elles seraient tenues de mettre en place des politiques de détection des contenus incriminés. La proposition de règlement prévoit également des procédures contraignantes et rapides de retrait et de blocage des contenus. Enfin, elle propose la création d’un Centre de l’Union européenne chargé de prévenir et de combattre les abus sexuels sur les enfants. Cette nouvelle agence de l’Union travaillerait en étroite collaboration avec l’agence Europol pour s’assurer du traitement des signalements reçus et de leur transmission aux autorités répressives compétentes. Elle participera également à la tenue de la base de données pour faciliter le travail de prévention des États membres.

Ce règlement viendra ainsi combler un vide juridique important. Cela est d’autant plus nécessaire et urgent que l’application du règlement provisoire permettant aux fournisseurs de services en ligne de réaliser aujourd’hui des détections sur une base volontaire prendra fin le 3 août 2024. Sans engagement du législateur européen, l’Union européenne risquerait de devenir aveugle face aux réseaux agissant sur Internet. C’est pourquoi la proposition de résolution européenne soutient l’adoption de ce règlement en faveur de la protection des enfants. Les discussions sur le texte se poursuivent au sein du Conseil de l’Union et du Parlement européen. Plusieurs points doivent encore être précisés sur le champ d’application du règlement ou le type de contenus concernés ainsi que sur les équilibres à sauvegarder au regard du droit à la vie privée.

L’intérêt supérieur de l’enfant doit rester pour nous la boussole dans les négociations à venir et la voix de la France doit compter dans les négociations européennes.

M. Stéphane Buchou (RE). Le groupe Renaissance salue votre initiative. En effet, les enfants sont encore trop exposés à des dangers et leurs droits doivent évoluer afin de les protéger davantage. Ils doivent d’autant plus l’être dans l’espace numérique. C’est pourquoi dès le début de ce quinquennat, la majorité présidentielle s’est engagée en faveur des droits des enfants, avec notamment la proposition de loi visant à garantir le respect de leur droit à l’image. Du fait du développement constant d’Internet la diffusion du contenu de pédopornographie n’a cessé d’augmenter et cette tendance a été accentuée durant le confinement lié à la crise de la Covid-19. Vous l’avez rappelé dans votre exposé des motifs : en 2022, ce sont 32 millions de signalements de contenus pédopornographiques qui ont été effectués sur internet. Nous devons collectivement poursuivre nos travaux dans l’objectif de renforcer l’arsenal de protection autour d’un sujet qu’il faut rendre plus visible. Il incombe aux États membres de l’Union européenne de prendre leurs responsabilités et d’avancer.

Ainsi, la proposition de règlement de la Commission européenne en date du 11 mai 2022, prévoit que les plateformes en ligne devront supprimer rapidement les contenus illégaux et signaler tous les contenus pédopornographiques détectés. Bien que pleinement d’accord sur l’objectif de suppression de ces contenus, plusieurs instances, comme le Contrôleur européen et le Comité européen de la protection des données, ont exprimé de vives inquiétudes. Elles portent sur les moyens pour y parvenir, à l’instar de la disposition du règlement qui prévoit d’imposer une analyse de tous les messages, y compris chiffrés, pour déceler les contenus pédopornographiques. Cela serait un risque pour la vie privée.

Vous prônez un équilibre entre la lutte contre les abus sexuels et la protection du droit à la vie privée, à travers un contrôle renforcé des techniques utilisées pour détecter des contenus. Ce point du règlement est actuellement encore en discussion au niveau de l’Union européenne. Aussi, pouvez-vous nous apporter les précisions quant aux discussions en cours à ce sujet ?

Mme Perrine Goulet, rapporteure. Des discussions sont actuellement en cours. C’est pourquoi il est d’autant plus important de faire connaître la position du Parlement français sur ce sujet aux députés européens. Je plaide, effectivement, pour une détection la plus large possible de ces contenus pédopornographiques. Il existe un droit à la vie privée mais les enfants ont également le droit d’être protégés.

Ce sujet qui est en discussion à l’heure actuelle au niveau de l’Union européenne, est l’un des points d’achoppement sur cette proposition de règlement. Je vous propose de porter une position française, comme cela a été fait au Sénat il y a quelques mois. Il est important d’affirmer que le droit à la vie privée est important mais qu’il n’est pas supérieur au droit de protéger nos enfants.

M. Rodrigo Arenas (LFI-NUPES). L’entrée dans l’univers virtuel s’accompagne d’une suspension des règles, comme vous l’avez rappelé. On peut y voler, y renaitre, être doté de superpouvoirs, y interagir avec des avatars créés par des programmes d’intelligence artificielle, y changer d’apparence et de personnalité et rencontrer une multitude de gens différents, du bout du monde, ou du bout de la rue. C’est une formidable et magnifique stimulation de la créativité. Toutefois, comme le monde réel, cet univers regorge de prédateurs et de mauvaises informations qui cachent un réel danger pour nos enfants. Cela peut avoir un impact, en particulier, sur la santé mentale ou la sécurité physique des utilisateurs.

Cet univers parallèle a besoin de règles, tout particulièrement en ce qui concerne les plus vulnérables d’entre nous. Dans la continuité des législations précédentes que nous allons, d’ailleurs, transposer dans le droit national, ce projet de règlement permet de commencer à mettre en place une protection des mineurs. Votre proposition de résolution le reconnaît et soutient l’initiative européenne. Je m’y associe volontiers.

Le cadre proposé prend en compte l’indispensable respect des libertés publiques dont nous ne devrions jamais minimiser le respect. Nous n’avons pas seulement besoin de règles, mais surtout d’éducation et de prévention. Pour les nouvelles générations qui naissent et qui grandissent dans un monde où elles passent du réel au virtuel sans parfois en mesurer la distinction et les impacts mutuels, une partie de l’éducation reste à faire. En tant que parents et en tant responsables politiques, l’apprentissage et la régulation du monde numérique sont notre grande tâche d’éducateurs.

Cette législation européenne n’est qu’un petit pas supplémentaire. Le chemin est encore long et je souhaite que nous poursuivions ensemble, au-delà des considérations partisanes, cette tâche urgente et essentielle pour nos enfants et pour la France de façon générale.

Mme Perrine Goulet, rapporteure. Vous avez tout à fait raison d’insister sur le travail de prévention. La délégation aux droits des enfants a lancé une mission d’information sur l’éducation des enfants au numérique. Plusieurs mesures ont déjà été prises sur le contrôle parental, mais il faut aller plus loin. Dans la vie réelle, si quelqu’un violait un enfant, on aurait l’obligation de le dénoncer. Or, sur Internet, on pense qu’il vaut mieux protéger les données. Il faut mettre fin à cette situation et mettre Internet en conformité avec nos lois.

Mme Yaël Menache (RN). Dans un contexte de relativisation déplorable de la condition de l’enfant, il faut être d’une absolue rigueur vis-à-vis de la prolifération des contenus à caractère pédopornographique sur Internet. Cette proposition de résolution va dans le bon sens. Toutefois, il faut nous attaquer à l’une des causes de ce phénomène : la sexualisation de l’enfant dans l’espace public, notamment dans le domaine artistique. Il y a aussi un scandaleux faux-débat sur le trouble dans l’identité de genre. Il est regrettable de constater autant d’ambiguïtés sur ce sujet. La puissance publique doit être implacable sur Internet, mais nous devons aller au bout de ce processus. Le Rassemblement national sera toujours présent dans ce combat.

Mme Perrine Goulet, rapporteure. Nous aller continuer à essayer de bouger les lignes sur ce sujet, y compris dans la délégation aux droits des enfants. La sexualisation des enfants est également un long combat initié dans les années 1970, que nous devons poursuivre. Le but de cette proposition de résolution est de soutenir nos collègues au Parlement européen, pour obtenir un compromis ambitieux et dans l’intérêt de l’enfant.

Mme Sabine Thillaye (Dem). Nous soutenons votre résolution, mais je souhaite attirer votre attention sur un point particulier. Cette législation demande en effet de surveiller le contenu chiffré : il ne faut pas créer de porte dérobée pour les hackers. Comme toujours, il s’agit de trouver un équilibre.

Mme Perrine Goulet, rapporteure. Ce point est effectivement en cours de discussion au niveau européen. La proposition de résolution que nous vous soumettons aujourd’hui ne contient rien sur ce point. À l’heure actuelle, des technologies sont en cours de développement pour pouvoir détecter une trace numérique, sans avoir directement accès aux données. Les choses peuvent encore évoluer techniquement.

Mme Anna Pic (SOC). Nous souscrivons à cette proposition de résolution, d’autant plus que vous avez ce point de vigilance concernant l’équilibre entre protection des données personnelles et sauvegarde de l’intérêt de l’enfant. Le point 9 de votre proposition de résolution souligne la nécessité de renforcer les politiques de prévention. À cet égard, je ne peux que regretter que dans le débat d’aujourd’hui, certains commissaires aient assimilé la pédopornographie et l’éducation aux questions de genre. L’éducation à la sexualité et à la vie affective, ne peut être rangée du côté d’une incitation à la pédopornographie. Je tiens à rappeler que l’éducation nationale consacre trois heures par an à l’éducation sexuelle : cette obligation est rarement remplie. Il faut renforcer cet aspect d’éducation à la sexualité, pour ne pas faire de confusion douloureuse sur ces sujets.

Mme Perrine Goulet, rapporteure. Au-delà de l’éducation à la sexualité, je pense qu’il faut une éducation au corps dès la maternelle. Il faut dire aux enfants quels actes sont proscrits, tels que les viols. Il faut leur inculquer la conscience de leur corps. Il faut donc élargir cet enseignement, pour apprendre aux enfants ce que les adultes peuvent leur faire subir ou non.

L’article unique de la proposition de résolution européenne est adopté à l’unanimité.

La proposition de résolution européenne est par conséquent adoptée.


1

   Proposition de résolution européenne

Article unique

L’Assemblée nationale,

Vu l’article 88-4 de la Constitution,

Vu l’article 151-5 du Règlement de l’Assemblée nationale,

Vu le Traité sur l’Union européenne et notamment ses articles 2, 3 et 6,

Vu le Traité sur le fonctionnement de l’Union européenne et notamment ses articles 2, 4,16, 88 et 114,

Vu les articles 3, 7, 8,24 et 52 de la Charte des droits fondamentaux de l’Union européenne,

Vu la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales,

Vu la convention du Conseil de l’Europe sur la protection des enfants contre l’exploitation et les abus sexuels du 25 octobre 2007 dite « convention de Lanzarote »,

Vu la convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel du 28 janvier 1981 et son protocole additionnel du 8 novembre 2001 dite « Convention 108 + », notamment son article 6,

Vu la Convention internationale des droits de l’enfant,

Vu la directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques,

Vu la directive 2011/92/UE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants, ainsi que la pédopornographie et remplaçant la décision­ cadre 2004/68/JAI du Conseil,

Vu la directive 2012/29/UE du Parlement européen et du Conseil du 25 octobre 2012 établissant des normes minimales concernant les droits, le soutien et la protection des victimes de la criminalité́ et remplaçant la décision‑cadre 2001/220/JAI du Conseil,

Vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation des données, abrogeant la directive 95/46/CE, dit règlement général sur la protection des données – RGPD,

Vu la directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, et à la libre circulation de ces données, et abrogeant la décision cadre 2008/977/JAI du Conseil,

Vu la proposition de règlement du Parlement européen et du Conseil du 10 janvier 2017 concernant le respect de la vie privée et la protection des données à caractère personnel dans les communications électroniques et abrogeant la directive 2002/58/CE (règlement « vie privée et communications électroniques »),

Vu la stratégie de l’Union européenne en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants (communication COM(2020)607 final) du 24 juillet 2020,

Vu le règlement (UE) 2021/1232 du Parlement européen et du Conseil du 14 juillet 2021 relatif à une dérogation temporaire à certaines dispositions de la directive 2002/58/CE en ce qui concerne l’utilisation de technologies par les fournisseurs de services de communications interpersonnelles non fondés sur la numérotation pour le traitement de données à caractère personnel et d’autres données aux fins de la lutte contre les abus sexuels commis contre des enfants en ligne,

Vu la nouvelle stratégie européenne pour un internet mieux adapté aux enfants (communication COM(2022) 212 final) du 11 mai 2022,

Vu la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, COM(2022) 209 final,

Vu l’avis conjoint n° 04/2022 du Comité européen de la protection des données et du Contrôleur européen de la protection des données, en date du 28 juillet 2022,

Vu la résolution européenne n°77 adoptée par le Sénat le 20 mars 2023 sur la proposition de règlement du Parlement européen et du Conseil établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants,


Considérant qu’aux termes de l’article 24 de la Charte des droits fondamentaux de l’Union européenne et de l’article 3, paragraphe 1, de la Convention des Nations unies relative aux droits de l’enfant de 1989, les enfants ont droit à la protection et aux soins nécessaires à leur bien-être, que dans tous les actes relatifs aux enfants, qu’ils soient accomplis par des autorités publiques ou des institutions privées, l’intérêt supérieur de l’enfant doit être une considération primordiale ;

Considérant que ces droits doivent être respectés de la même manière « en ligne » et « hors ligne » comme le relevait l’Observation générale n° 25 sur les droits de l’enfant en relation avec l’environnement numérique du Comité des droits de l’enfant des Nations Unies ;

Considérant que les technologies numériques occupent une place de plus en plus importante dans la vie des enfants, tout particulièrement en temps de crise, comme l’a montré l’usage des instruments numériques lors de la crise liée à la Covid-19, que le numérique constitue à la fois un espace d’opportunité et offre de nouvelles possibilités pour la réalisation des droits de l’enfant, mais accroît aussi les risques de violations de ces droits ;

Considérant qu’en 2022, 32 millions de signalements de contenus pédopornographiques ont été effectués par les fournisseurs de services en ligne américain au titre de leur obligation de signalement auprès de la plateforme du Centre national américain pour les enfants disparus et exploités ;

Considérant que les signalements ont augmenté de manière exponentielle au niveau mondial mais aussi au sein de l’Union européenne passant de 23 000 en 2010 à plus d’un million en 2020 ;

Considérant qu’en 2022, 99 % des signalements ont été effectués par des fournisseurs de services électroniques et que deux tiers des contenus signalés étaient hébergés sur des serveurs basés dans l’Union européenne ;

Considérant que les abus sexuels commis contre des enfants constituent des infractions pénales graves et des violations des droits de l’homme et des droits fondamentaux en contradiction avec les valeurs de l’Union européenne ;

Considérant que la directive 2011/92/UE établit des règles minimales au sein de l’Union relatives à la définition des infractions pénales et des sanctions dans le domaine des abus sexuels et de l’exploitation sexuelle des enfants, de la pédopornographie et de la sollicitation d’enfants à des fins sexuelles, notamment dans l’espace numérique ;

Considérant que le règlement général sur la protection des données prévoit à son article 17 un droit à l’oubli permettant l’effacement des données à caractère personnel, que ce droit à l’oubli a été renforcé pour les mineurs par la loi du 7 octobre 2016 pour une République numérique ;

Considérant que le cadre juridique actuel de détection du matériel pédopornographique en ligne repose sur le règlement UE 2021/1232 permettant une dérogation temporaire à certaines dispositions de la directive 2002/58/CE autorisant les fournisseurs de services de communications interpersonnelles non fondées sur la numérotation à utiliser des technologies pour le traitement des données à caractère personnel et d’autres données aux fins de la lutte contre les abus sexuels commis contre des enfants en ligne ;

Considérant, toutefois, que le régime provisoire établi par ce règlement dérogatoire prendra fin le 3 août 2024 ;

Considérant, de surcroit, qu’à ce jour le droit de l’Union européenne n’impose aux fournisseurs aucune obligation de détection du matériel pédopornographique sur leur service, et que cette obligation de signalement s’effectue sur une base volontaire ;

Considérant que la proposition de règlement présentée par la Commission européenne le 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants permettra d’imposer des obligations qualifiées aux fournisseurs de services d’hébergement, de services de communications interpersonnelles et d’autres services en matière de détection, de signalement, de retrait et de blocage du matériel en ligne connu et nouveau relatif à des abus sexuels sur enfants, ainsi que de la sollicitation d’enfants ;

Considérant que ces obligations consisteront notamment à imposer aux fournisseurs d’évaluer le risque que leurs services soient utilisés à des fins d’abus sexuels sur les enfants en ligne et, si un tel risque est identifié́, qu’ils prennent des mesures d’atténuation de ce risque ;

Considérant que la proposition de règlement habilite les autorités de coordination, ayant eu connaissance de preuves démontrant qu’un service court un risque important d’être utilisé à mauvais escient à des fins d’abus sexuels sur enfants en ligne, à demander à l’autorité judiciaire ou à l’autorité administrative indépendante compétente d’émettre une injonction obligeant le fournisseur concerné à détecter le type d’abus sexuels sur enfants en ligne en cause sur le service concerné ;

Considérant que la proposition de règlement prévoit également la création d’un centre de l’Union européenne chargé de prévenir et de combattre les abus sexuels sur les enfants qui centralisera les signalements effectués par les fournisseurs ;


Considérant, que la proposition de règlement oblige les fournisseurs ayant eu connaissance d’un cas potentiel d’abus sexuel sur enfants en ligne sur les services qu’ils fournissent à l’intérieur de l’Union, à signaler immédiatement ce cas au centre de l’Union et habilite les autorités de coordination à demander à l’autorité judiciaire ou à l’autorité administrative indépendante compétente d’émettre une injonction obligeant un fournisseur de services d’hébergement à retirer du matériel relatif à des abus sexuels sur enfants sur ses services ou à rendre ce matériel inaccessible dans tous les États membres ;

1. Salue l’initiative de la proposition de règlement qui permettra d’instaurer un cadre juridique uniforme et contraignant pour prévenir la diffusion de matériel relatif à des abus sexuels sur les enfants en ligne ;

2. Appelle à assurer l’équilibre entre la lutte contre les abus sexuels sur mineurs et la protection du droit à la vie privée en assurant un contrôle renforcé par le Contrôleur européen de la protection des données des techniques utilisées par les fournisseurs afin de détecter des contenus pédopornographiques ;

3. Soutient la création d'un nouveau centre de l’Union européenne de prévention et de répression des abus sexuels commis contre des enfants, qui fera l’intermédiaire entre les fournisseurs et les services de répression, afin de contribuer au traitement des signalements et à la prévention des abus sexuels sur mineurs ;

4. Appelle à garantir au centre des moyens suffisants tant financiers, que techniques et humains afin qu’il puisse assurer sa mission ;

5. Invite à clarifier la manière dont les organisations issues de la société civile pourront contribuer au travail du centre de l’Union européenne en matière de prévention et de détection des abus sexuels sur mineurs ;

6. Souhaite que soit garanti le rôle de la plateforme d’harmonisation, d’analyse, de recoupement et d’orientation des signalements dans le dispositif de la réforme envisagée en tant qu'autorité nationale compétente, lui permettant de contribuer au traitement des signalements ainsi qu'au retrait et au blocage des contenus pédopornographiques en ligne ;

7. Demande des précisions sur la manière dont les différentes autorités peuvent coopérer tout en protégeant la vie privée et les données personnelles des utilisateurs ;


8. Soutient l’instauration de sanctions pouvant atteindre 6 % de leur chiffre d’affaire mondial à l’encontre des fournisseurs de services en ligne qui ne se conformeraient pas aux exigences du règlement ;

9. Souligne la nécessité de renforcer les politiques de prévention et d’éducation des jeunes à l’utilisation des outils numériques ;

10. Souhaite que les très grandes plateformes en ligne, au sens du Digital Services Act, soient tenues, dans le cadre de leurs obligations d’atténuation des risques, de mettre en œuvre sur leurs services, à leurs frais, des campagnes de communication visant à rappeler la règlementation applicable en matière de contenus pédopornographiques.

 

    


([1]) OMS et International Society for Prevention of Child Abuse and Neglect, Guide sur la prévention de la maltraitance des enfants: intervenir et produire des données, 2006, p. 10.

([2])  Conseil de l’Europe, Campagne UN sur CINQ.

([3])  Kids & Tech : Evolution of Today’s Digital Natives (Influence Central, 2017).

([4])  Directive 2011/92/CE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l'exploitation sexuelle des enfants ainsi que la pédopornographie et remplaçant la décision-cadre 2004/68/JAI du Conseil.

([5])  NCMEC, CyberTipline 2022 Report.

 

([6])  IWF Annual Report : Self-generated child sexual abuse (IWF, 2021).

([7])  Communication de la Commission européenne COM(2020) 607 final du 24 juillet 2020 valant « Stratégie de l'Union européenne en faveur d'une lutte plus efficace contre les abus sexuels commis contre des enfants».

([8]) Internet Watch Foundation, rapports annuels de 2016 à 2019.

([9])  NCMEC, CyberTipline 2022 Report.

([10]) Étude d’impact du projet de loi visant à sécuriser et réguler l'espace numérique.

([11])  NCMEC, CyberTipline 2022 Report.

([12])  Directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques.

([13])  Child sexual abuse material : Model legislation and global review (ICMEC, 2021).

([14])  Règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l'égard du traitement des données à caractère personnel et à la libre circulation de ces données, et abrogeant la directive 95/46/CE.

([15]) article 52, Charte des droits fondamentaux de l’Union européenne.

([16])  Les pratiques numériques des jeunes de 11 à 18 ans , (Génération numérique, mars 2021).

([17])  Rapport d’information n° 911, de Mme Christine LOIR, au nom de la délégation aux droits des enfants de l’Assemblée nationale, sur la mission flash portant sur les jeunes et le numérique à l’aune des propositions de loi n° 739 visant à instaurer une majorité́ numérique et à lutter contre la haine en ligne, n° 758 visant à garantir le respect du droit à l’image des enfants et n° 757 relative à la prévention de l’exposition excessive des enfants aux écrans, mars 2021.

([18]) WeProtect Global Alliance, Évaluation mondiale de la menace 2021.

([19])  Résolution européenne n° 77 adoptée par le Sénat le 20 mars 2023 sur la proposition de règlement du Parlement européen et du Conseil établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants.