______
ASSEMBLÉE NATIONALE
CONSTITUTION DU 4 OCTOBRE 1958
DIX-SEPTIÈME LÉGISLATURE
Enregistré à la Présidence de l’Assemblée nationale le 15 octobre 2025.
RAPPORT
FAIT
AU NOM DE LA COMMISSION DES AFFAIRES EUROPÉENNES (1)
SUR LA PROPOSITION DE RÉSOLUTION EUROPÉENNE (N° 1775),
DE Mme COLETTE CAPDEVIELLE ET PLUSIEURS DE SES COLLÈGUES,
relative à la coopération européenne dans la lutte contre la cyberpédocriminalité
pour la défense des droits des enfants à l’ère numérique,
PAR Mme Colette CAPDEVIELLE,
Députée
La Commission des affaires européennes est composée de : M. Pieyre-Alexandre ANGLADE, président ; Mme Manon BOUQUIN, M. Laurent MAZAURY, Mme Nathalie OZIOL, M. Thierry SOTHER, vice-présidents ; MM. Henri ALFANDARI, Benoît BITEAU, Maxime MICHELET, Mme Liliana TANGUY secrétaires ; MM. Gabriel AMARD, Philippe BALLARD, Karim BENBRAHIM, Guillaume BIGOT, Mmes Céline CALVEZ, Colette CAPDEVIELLE, M. François-Xavier CECCOLI, Mmes Sophia CHIKIROU, Nathalie COLIN-OESTERLÉ, MM. Arthur DELAPORTE, Jocelyn DESSIGNY, Julien DIVE, Nicolas DRAGON, Peio DUFAU, Mme Ayda HADIZADEH, M. Michel HERBILLON, Mme Mathilde HIGNET, M. Sébastien HUYGHE, Mme Sylvie JOSSERAND, M. Bastien LACHAUD, Mme Constance LE GRIP, MM. Pascal LECAMP, Matthieu MARCHIO, Patrice MARTIN, Emmanuel MAUREL, Mmes Yaël MENACHÉ, Danièle OBONO, MM. Frédéric PETIT, Pierre PRIBETICH, Stéphane RAMBAUD, Mme Isabelle RAUCH, M. François RUFIN, Alexandre SABATOU, Charles SITZENSTUHL, Mmes Michèle TABAROT, Sophie TAILLÉ-POLIAN, Liliana TANGUY, Sabine THILLAYE, Estelle YOUSSOUFFA.
SOMMAIRE
___
Pages
1. Un usage croissant du numérique par le public mineur
2. Définir le spectre de la pédocriminalité
3. Les modalités de signalement et la hausse des contenus pédocriminels
1. Le cadre juridique français relatif à la cyberpédocriminalité
a. Le cadre normatif français relatif à la pédocriminalité
2. Le changement de paradigme européen : le règlement 2021/1232
A. un cadre juridique europeen en pleine mutation du fait des evolutions numeriques
2. Le règlement sur les services numériques
a. L’économie générale du texte
b. Les dispositions spécifiques pour la protection des enfants
1. Un texte ambitieux contenant des dispositions efficaces contre la pédocriminalité en ligne
a. Les points du texte en débat : l’ampleur de la détection
c. Les points de divergences au sein du Conseil
C. la prise en compte indispensable de l’intelligence artificielle
PROPOSITION DE RÉSOLUTION EUROPÉENNE INITIALE
AMENDEMENTS EXAMINÉS PAR LA COMMISSION
PROPOSITION DE RÉSOLUTION ADOPTÉE PAR LA COMMISSION
LISTE DES PERSONNES AUDITIONNÉES PAR LA RAPPORTEURE
MESDAMES, MESSIEURS,
La pédocriminalité n’est, hélas, pas un fléau récent et les historiens nous ont bien renseigné sur l’ancienneté de la pratique. Il suffit de songer à l’ouvrage de Didier Lett intitulé « Viols d’enfants au Moyen-âge – Genre et pédocriminalité à Bologne – XIVème-XVème siècle » même si l’époque médiévale faisait prévaloir d’autres questionnements que la protection de l’enfant.
La diffusion d’internet avec les nouvelles technologies a permis
le déploiement de nouveaux espaces pour la pédocriminalité avec le sentiment pour les auteurs d’échapper au contrôle de la société et à la répression pénale.
Face à l’ampleur du phénomène et plus particulièrement lors de la pandémie de Covid-19, il paraît essentiel d’agir afin de saisir les différentes dimensions de la pédocriminalité en ligne et d’identifier les modalités de détection de celle-ci.
La France dispose d’un arsenal législatif qui permet de judiciariser la question tout en reposant également sur l’expertise des forces de l’ordre et de leurs différentes structures d’analyse et de coordination dans la lutte.
Le cadre européen initialement restreint s’est construit progressivement permettant, d’une part, de définir les infractions de façon harmonisée entre les États membres et, d’autre part, de responsabiliser les fournisseurs de services sur les contenus qu’ils hébergent. L’Union doit trouver un équilibre qui s’apparente à une ligne de crête entre protection des droits des enfants et respect de la vie privée.
La proposition de résolution européenne qui vous est présentée vient renforcer ce mouvement de protection des plus vulnérables : les enfants. Consciente des enjeux en question et de l’urgence d’adapter un mécanisme de lutte pérenne, votre rapporteure souhaite que l’action européenne se fasse décisive sur ce sujet.
Pour appuyer le dispositif législatif envisagé par la proposition de règlement, un Centre européen de prévention et de lutte contre les abus sexuels sur mineurs sera indispensable afin d’harmoniser les bonnes pratiques. Par ailleurs, nous ne ferons pas l’économie de l’innovation afin de mettre en concordance la loi et la technologie et d’aider les entreprises qui développent des solutions précieuses dans ce combat. Enfin, l’intelligence artificielle déjà régulée au niveau européen doit continuer d’être surveillée dans ses usages afin d’en éviter les pratiques les plus nocives.
PREMIÈRE PARTIE : la place croissante des ecrans favorise le developpement de la cyberpedocriminalitÉ en depit d’un arsenal legisatif national et europeen existant
A. la place croissante des ecrans auprÈs des mineurs constitue une porte d’entree pour la pedocriminalité
1. Un usage croissant du numérique par le public mineur
Le 3 avril 2025, l’Autorité de régulation de la communication visuelle et numérique (ARCOM) a publié une étude ([1]) sur le nombre d’équipements audiovisuels par foyer français. Ainsi, en moyenne chaque foyer dispose de 7.3 appareils dont 5.9 écrans. Les smartphones représentent atteignent un taux de possession de 95 %, devant l’écran de télévision (93 %) et les ordinateurs fixes ou portables (91 %).
Cette omniprésence des écrans n’est pas sans conséquence sur l’accès aux écrans pour les enfants. Santé Publique France (SPF) fait ainsi état en date du 25 septembre 2025 d’un temps d’écran en 2022 de près de 1 h 22 par jour chez les 3 ans, 1 h 53 par jour chez les enfants de 6-8 ans et 2 h 33 pour les enfants de 9-11 ans.
Cette étude dresse un autre constat plus inquiétant puisque 7 % des enfants de 3-5 ans, 14 % des enfants de 6-8 ans et 29 % des enfants de 9-11 ans disposent d’un écran dans leur chambre. De plus, 27 % des enfants de 10 ans et 46 % des enfants de 11 ans ont leur propre smartphone.
L’étude de SPF souligne enfin qu’à la connaissance des parents, 7 % des enfants de 6-8 ans et 25 % des enfants de 9-11 ans ont un accès aux réseaux sociaux. Ce chiffre est très certainement sous-évalué ce qui donne à voir l’ampleur du problème. Le Conseil supérieur de l’audiovisuel (CSA) indiquait en 2020 que chez les 11-12 ans l’usage des réseaux sociaux concernait 87 % d’entre eux. La question est d’autant plus problématique que les réseaux sociaux ne sont censément accessibles qu’à partir de 13 ans.
Si la diffusion des écrans au sein de la société française n’est pas nouvelle, la pandémie de Covid-19 a considérablement accéléré le mouvement avec la mise en place d’un confinement strict pendant près de trois mois à partir de mars 2020. L’ensemble de la population française n’avait alors plus accès à l’extérieur qu’à travers le numérique et les écrans.
Les enfants et les adolescents ont été les plus touchés par cet éloignement social qui les a contraints à cultiver des relations sociales à distance. Les analyses qui ont été réalisées suite à la pandémie ont fait état de nombreuses pathologies en recrudescence chez le public mineur avec de la détresse sociale, de la violence et des taux de suicide très fortement en hausse.
Dès lors, les écrans et réseaux sociaux ont pu apparaître à ce public comme une porte ouverte vers le monde. Un phénomène de dépendance aux écrans a été mis en lumière, voire même une addiction. 53 % faisaient état d’un usage accru des écrans d’après une étude IPSOS commandée par l’Union nationale des associations familiales (UNAF).
2. Définir le spectre de la pédocriminalité
Le numérique constitue désormais une des voies privilégiées par les pédocriminels pour accéder aux mineurs. La production massive d’images et de vidéos ainsi qu’un sentiment d’impunité a constitué pour les pédocriminels une opportunité.
Pour identifier le phénomène, il convient de rappeler les lignes directrices de l’Organisation mondiale de la santé (OMS) définissant les violences sexuelles commises sur les enfants : « la participation d’un enfant à une activité sexuelle qu’il n’est pas pleinement en mesure de comprendre, à laquelle il ne peut consentir en connaissance de cause ou pour laquelle il n’est pas préparé du point de vue de son développement, ou encore qui viole les lois ou les tabous sociaux de la société. » ([2])
La Commission européenne a publié le 27 mars 2010 une proposition
de directive avec comme objectif la lutte contre l’exploitation et les abus sexuels des enfants et la pédopornographie. Le texte adopté en 2011 est venu remplacer une précédente décision-cadre et a permis d’établir des règles minimales pour définir les infractions dans le domaine de la pédocriminalité.
Cette directive 2011/92/UE définit ainsi quatre catégories d’infraction que les États membres doivent pénaliser dans leur législation nationale : les abus sexuels, l’exploitation sexuelle des enfants, la pédopornographie et la sollicitation d’enfants à des fins sexuelles.
Lorsque ces infractions sont commises par le biais de services numériques, elles rassemblent un ensemble de pratiques telles que la production de contenu d’abus sexuels sur mineurs, la consultation, le stockage et le partage de ces contenus.
La pénalisation de la pédocriminalité en ligne vient répondre
à l’existence du continuum de violences. En effet, la Commission indépendance sur l’inceste et les violences sexuelles faites aux enfants (CIIVISE) – installée en 2021 – a mis en exergue le fait qu’un cyberpédocriminel sur 8 possédait un historique d’infractions sexuelles sur un mineur hors-ligne ([3]). De plus, 52 % des consommateurs de contenus pédocriminels pensent que leur usage de contenus numériques pourrait aboutir à une agression sur un enfant (44 % des consommateurs ont pensé à contacter des enfants et 37 % ont contacté des enfants au moins une fois) ([4]).
Parmi les infractions relatives aux abus sexuels sur les enfants, il a été constaté que deux d’entre elles ont cru considérablement en raison de l’usage
des technologies numériques.
La première infraction a trait à la sollicitation d’enfants en ligne à des fins d’abus sexuels également nommée « pédopiégegage » (en anglais « grooming »). Le Centre national américain pour les enfants disparus et exploités (National Center for Missing and Exploited Children) a ainsi constaté une augmentation de 97.5 % de signalements reçus concernant cette sollicitation. De plus, entre 2020 et 2022, le nombre de signalement reçu a encore doublé passant de 37 800 à 80 500 ([5]). Ces chiffres sont à mettre en rapport avec le nombre total de signalement de contenus pédocriminels au NCMEC qui atteint 35.9 millions en 2023.
Une autre infraction en lien avec les outils numériques concerne la diffusion de contenus dits « autogénérés », c’est-à-dire des images produites par les victimes elles-mêmes. Ce contenu peut revêtir différentes formes :
- Images ou vidéos sans contenu pornographique mais détournées et utilisées en relation avec l’exploitation et les abus sexuels sur les enfants.
Pour rappel, une étude ([6]) publiée en février 2023 par l’Observatoire de la Parentalité et de l’Éducation numérique soulignait que 53 % des parents avaient déjà partagé du contenu sur leurs enfants sur les réseaux sociaux ([7]). Sur ce sujet, Mme Marietta Karamanli avait présenté l’an passé une proposition de résolution européenne concernant les addictions numériques chez les enfants. Adopté à l’unanimité, ce texte faisait le constat d’une emprise numérique croissante dont les effets sont particulièrement préjudiciables pour la population des plus jeunes.
- Matériel autoproduit dans le but d’être échange entre pairs mais qui peut être repartagé contre la volonté de la victime.
Phénomène ayant donné lieu à des comptes « Fisha » - « affiche » en verlan – dont l’objectif avoué est de partager des photos intimes envoyées afin d’humilier la personne. Les plateformes Tik Tok et Snapchat en sont les principaux vecteurs.
- Autoproduction sous la contrainte, c’est-à-dire sollicitation d’enfants pour leur faire créer des contenus pornographiques qui seront ensuite utilisés pour manipuler la victime en menaçant de diffuser le contenu.
Il s’agit ici de « sextorsion » à savoir une contraction de deux mots désignant un chantage sur la base de contenus pornographiques de la victime pour en obtenir des faveurs (sexuelles, financières ou autre).
Sur les 291 273 signalements effectués auprès de l’Internet Watch Foundation (IWF) en 2024 en lien avec des contenus criminels à caractère sexuel ou d’abus sexuels sur mineurs, 91 % des rapports considérés comme criminels étaient autogénérés. De plus, le NCMEC a fait état en 2023 d’une hausse de près de 300 % de cas de sextorsion qui lui ont été signalés ([8]).
- Contenus générés ? par l’intelligence artificielle (IA)
L’IA désigne des technologies obéissant à des cas d’usage et autoapprenantes. Cette technologie existe depuis les années 1950 mais a effectué un bond qualitatif considérable à partir des années 2020 avec l’utilisation de données diffusées sur Internet à partir desquelles elle s’est entraînée pour générer de nouveaux contenus. Cette IA dite générative a depuis donné lieu à une nouvelle forme de cyberpédocriminalité.
3. Les modalités de signalement et la hausse des contenus pédocriminels
Le NCMEC précédemment évoqué constitue une organisation à but non lucratif créée aux États-Unis en 1984. Une très large partie des signalements effectués auprès de l’Union européenne proviennent de cette structure. En raison de la législation américaine applicable, ce sont les fournisseurs de services numériques qui se voient notifiés et non les autorités compétentes. L’Union ne dispose d’ailleurs pas d’une structure similaire.
Cette situation est d’autant plus problématique que 59 % des contenus représentant des violences sexuelles faites aux enfants étaient hébergés dans l’Union européenne en 2022. Le graphique publié ci-après illustre la place prédominante de l’Union dans les contenus criminels en recensant l’origine géographique des URL signalés comme publiant du contenu pédopornographique.
La France se distingue tristement en étant le 5ème pays européen hébergeur de contenu pédocriminel et le 9ème pays au niveau international. Tant qu’aux Pays Bas, ils rassemblent à eux seuls près d’un tiers de tous les contenus pédocriminels en ligne.
Au-delà des signalements transmis au NCMEC, il existe deux structures dont les compétences recouvrent les abus sexuels sur mineurs : il s’agit d’Interpol et d’Europol. Organisation internationale de police criminelle, Interpol rassemble 196 pays et permet la transmission d’informations sur les infractions commises et les criminels.
Interpol joue un rôle majeur dans la lutte contre la cyberpédocriminalité puisqu’il a mis en place une base de données internationale sur l’exploitation sexuelle des enfants (ICSE, en anglais). D’après les données issues du rapport de la Fondation pour l’enfance précédemment cité, 4 300 000 images et vidéos constituent la base de données identifiant victimes, agresseurs et lieux. Cette base est utilisée par soixante-huit pays à ce jour. Quatorze victimes sont identifiées chaque jour en moyenne grâce à la base de données d’Interpol[9].
Europol n’est pas exactement la version européenne d’Interpol mais plutôt un centre de renseignement et d’analyse placé au service des forces de l’ordre des États membres de l’Union.
Enfin, une structure communautaire agit sur le plan pénal : Eurojust. Agence de l’Union européenne pour la coopération judiciaire en matière pénale, est une plateforme unique basée à La Haye, aux Pays Bas, au sein de laquelle les autorités judiciaires nationales collaborent étroitement pour lutter contre la grande criminalité transfrontière organisée.
Le rôle d’Eurojust est de contribuer à faire de l’Europe un territoire plus sûr en coordonnant les travaux des autorités nationales - des États membres de l’UE comme des pays tiers - concernant les enquêtes et poursuites à l’encontre de la criminalité transnationale. La pédocriminalité ayant des ramifications très large et transfrontières, Eurojust permet de judiciariser efficacement la lutte contre les réseaux pédocriminels.
L’Union a mis en place une stratégie[10] afin de lutter contre les abus sexuels commis sur les enfants dont elle a publié le contenu le contenu le 24 juillet 2020. Le document fait état d’un nombre de signalements de l’ordre de 23 000 en 2010 contre 725 000 en 2019.
La hausse du nombre de contenus pédocriminels ne permet cependant pas de prendre la pleine mesure d’un phénomène reposant sur la volonté d’acteurs effectuant les signalements. Le NCMEC observait ainsi que 90 % des signalements reçus provenaient de cinq fournisseurs de services numériques (Facebook, Instagram, Google, WhatsApp et Omegle)[11]. Un autre rapport souligne que 70 % des signalements sont issus des plateformes en ligne[12].
Par ailleurs, cette augmentation de contenus pédocriminels peut s’apprécier à travers les 871 signalements de contenus pédocriminels reçus par l’Office des mineurs (OFMIN) soit une hausse de 12 000 % en dix ans.
Les propositions sexuelles à un mineur, essentiellement commises via les réseaux numériques, ont augmenté de 27 % (450 faits enregistrés en 2023, contre 354 en 2022).
D’après la publication Interstats Info Rapide n° 33 de mars 2024 (« Les violences sexuelles hors cadre familial enregistrées par les services de sécurité en 2023 »), un peu plus de la moitié (55 %) des victimes de violences sexuelles hors cadre familial sont mineures au moment des faits. Certains types d'infractions concernent presque exclusivement des mineurs, en particulier les atteintes sexuelles, le recours à la prostitution et la pédopornographie.
Plusieurs données sont également disponibles dans la publication Interstats Analyse n° 67 d'avril 2024 (« Les infractions liées au numérique enregistrées par la police et la gendarmerie de 2016 à 2023 »). Cette publication fait par exemple apparaître que les atteintes « numériques » à l'encontre des mineurs (qui regroupent les infractions de cyber-pédopornographie, d'envoi de supports pornographiques à des mineurs, etc.) étaient 2,3 fois plus nombreuses en 2023 (9 710 faits) qu'en 2016 (4 220 faits).
Enfin, la pédocriminalité du fait d’utilisation de l’IA connaît une hausse exponentielle. En 2023, le NCMEC faisait état de 4 700 contenus pédocriminels signalés impliquant l’IA générative. L’année suivante, ce chiffre est monté à 67 000 (une hausse de 1 425 %) et pour la première moitié de l’année 2025 ce chiffre atteint d’ores et déjà 485 000 (une hausse de 723 % sur six mois seulement) ([13]). Cette évolution concerne également les contenus vidéos comme l’ONG Internet Watch Foundation l’indique. Au nombre de 2 en 2024, l’ONG a en déjà repéré près de 1 286 depuis le début de l’année 2025 (une hausse de 64 300 %). La dangerosité de l’IA en matière de contenu pédocriminel apparaît clairement d’autant plus que sa part globale dans les contenus criminels connaît une ascension fulgurante.
B. La réglementation nationale et les dispositions européennes ont dû evoluer pour faire face aux mutations de la menace pedocriminelle
1. Le cadre juridique français relatif à la cyberpédocriminalité
a. Le cadre normatif français relatif à la pédocriminalité
Le Code pénal français prévoit plusieurs dispositions relations relatives à la répression des abus sexuels sur mineurs. Plus précisément, il s’agit des articles 227-22 à 227-28-3. Plusieurs de ces articles répriment les actes pédocriminels dans lesquels les communications électroniques sont impliquées. De par cet arsenal législatif, la France est en mesure de réprimer la diffusion des contenus pédocriminels par le biais d’internet.
Au-delà de ces dispositions inscrites dans le Code pénal, l’article 6-1 de la loi n° 2004-575 pour la confiance dans l’économie numérique (LCEN) permet à l’autorité administrative de demander aux hébergeurs et éditeurs de contenus de retirer, dans un délai de vingt-quatre heures, d’une part les contenus provoquant à des actes terroristes ou en faisant l’apologie et, d’autre part, ceux à caractère, pédopornographique.
Cependant, l’absence de respect du retrait du contenu à caractère pédopornographique ne fait l’objet d’aucune sanction ce qui en réduit considérablement la portée. Il entraîne uniquement la possibilité pour l’autorité administrative de demander aux fournisseurs d’accès à internet de procéder au blocage administratif ou au déréférencement du site mettant à la disposition du public ces contenus illégaux.
Contrairement au contenu pédopornographique, il existe un dispositif contraignant mis en place au niveau européen permettant le retrait de contenus terroristes en vertu du règlement (UE) 2021/784 dit TCO. Le texte européen a été introduit aux articles 6-1-1 et suivants de la LCEN par la loi n° 2022-1159 du 16 août 2022. Il permet à l’autorité administrative compétente de délivrer une injonction de retrait, dans un délai d’une heure, de certains contenus à caractère terroristes à l’encontre des fournisseurs de services d’hébergement au public en ligne. La violation de l’injonction est pénalement sanctionnée par un an d’emprisonnement et 250 000 euros d’amende.
80 731 demandes de retraits de contenus pédopornographiques ont été transmises sur le fondement de l'article 6-1 de la LCEN, et 592 sites ont vu leur accès empêché au titre de la mesure de blocage.
L’absence de législation uniforme au sein de l’espace européen entraîne non seulement une fragmentation du marché unique du numérique mais aussi la possibilité d’un vide juridique au sein de certains États en matière de répression des infractions sexuelles à l’encontre des mineurs. L’organisation International Center for Missing and Exploited Children soulignait d’ailleurs dans une évaluation de 2021 que seuls 32 États exigeaient des prestataires de service d’internet qu’ils signalent les infractions relatives aux contenus pédopornographiques ([14]).
b. Des organismes de lutte contre la cyberpédocriminalité : des moyens très largement insuffisants pour endiguer le fléau
Le ministère de l’intérieur français s’est doté de plusieurs structures en charge d’analyser et de réprimer la cybercriminalité, et plus particulièrement son volet pédocriminel. En effet, la lutte contre les violences commises à l'encontre des mineurs constitue de longue date un domaine d'action prioritaire pour les forces de sécurité intérieure, au premier rang desquelles la direction nationale de la police judiciaire et ses services territoriaux de la filière judiciaire.
Ainsi, l’Office anti-cybercriminalité (OFAC) a été créé le 23 novembre 2023 et vient remplacer la sous-direction de la lutte contre la cybercriminalité (SDLC) et l’Office central de lutte contre la criminalité liée aux technologies de l’information et de la communication. Placé sous la tutelle de la police judiciaire, l’OFAC est chargé de l’animation et de la coordination de la lutte contre la criminalité ayant recours aux technologies de la communication et de l’information.
La lutte contre les violences faites aux mineurs implique, naturellement, un engagement actif dans l'espace numérique. À cet égard, la plate-forme PHAROS (plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements) de la DNPJ, rattachée à l'office anti-cybercriminalité (OFAC) - composé de policiers et de gendarmes -, administre le portail
www.internet-signalement.gouv.fr. Ce portail permet depuis 2009 aux particuliers, aux associations, aux administrations et aux professionnels de l'internet de signaler les contenus illicites, notamment de nature pédocriminelle (images, vidéos pédocriminelles, propositions sexuelles faites à un mineur, etc.).
Le traitement de ces signalements permet à PHAROS d'agir en parallèle sur les plans judiciaire et administratif : sur le plan judiciaire, une unité est chargée d'initier des investigations pour identifier et/ou localiser les auteurs de contenus illicites (en l'occurrence, pédocriminels) aux fins de transmission au service territorialement compétent ; sur le plan administratif, une cellule spécialisée est chargée de mettre en œuvre les prérogatives administratives de la plate-forme, qui visent, notamment en matière de contenus pédocriminels, à bloquer et déréférencer ces derniers lorsqu'ils n'ont pas été retirés à sa demande.
Cette dernière cellule agit à la fois sur le fondement des contenus signalés, mais également sur tous les contenus détectés de manière proactive, dans le cadre d'une veille permanente. Il peut être noté qu'en parallèle de l'activité de PHAROS, l'OFAC et son réseau territorial (11 antennes et 8 détachements actuellement, mais à terme 45 détachements) interviennent également en assistance des services d'enquête, à l'instar de l'Office Mineurs, afin de les aider sur le plan technique. Il assure également une mission de lutte contre les cyberservices criminels dans ses aspects darknet et darkphone, vecteurs de partage notamment de contenus pédocriminels.
S'agissant de la plate-forme PHAROS de l'OFAC, elle a traité 25 759 signalements de contenus pédocriminels en 2024. 68 enquêtes judiciaires pour des contenus pédopornographiques ou relatives à des faits de corruption de mineurs ou de proposition sexuelle sur mineur par voie de télécommunications ont été initiées. À l’évidence, les moyens sont insuffisants pour faire face à l’ampleur de la pédocriminalité comme l’illustre la disproportion entre le nombre de signalements et le nombre d’enquêtes judiciaires effectives.
La France peut également compter sur un autre office spécifiquement dédié à la population des mineurs qui joue un rôle majeur pour réprimer la cyberpédocriminalité avec l’Office Mineurs (OFMIN). La création de cet office en août 2023 spécifiquement chargé de la lutte contre les violences graves faites aux mineurs vise à renforcer les moyens d'action et à améliorer l'efficacité du traitement judiciaire de ces violences. Composé de policiers et de gendarmes, formés et spécialisés dans les techniques d'investigation et les techniques spéciales d'enquête (analyse d'images aux fins d'identification des victimes, enquête sous pseudonyme, etc.)
Tout comme l’OFAC, l’OFMIN est un service rattaché à la police judiciaire mais dont la mission est entièrement consacrée à la lutte contre les violences faites aux mineurs. Il joue dès lors un rôle majeur dans la lutte contre l’exploitation sexuelle en ligne. Il représente par ailleurs la France au sein d’instances internationales visant à définir les modalités de lutte contre la violence touchant
les mineurs. L'OFMIN est le point de contact central pour la France
des organismes de police Europol et Interpol, de l'ensemble des services étrangers dédiés à la lutte contre l'exploitation sexuelle des mineurs, mais également de ses partenaires français et étrangers du milieu associatif et du secteur privé.
L'OFMIN a développé une grande expertise dans le traitement
des phénomènes pédocriminels tels que le « livestreaming » (commande, achat
et visionnage en ligne de sessions en direct ou enregistrées de viols et agressions sexuelles sur mineurs), pour lequel il exerce une compétence exclusive,
de « sextorsion » (chantage en ligne à l'obtention de contenus pédocriminels et/ou d'argent auprès d'un mineur), de pédopiégeage (mise en confiance et sollicitation
en ligne d'un mineur à des fins sexuelles), de pédocriminalité itinérante (Français ou résidents français se déplaçant dans un autre pays dans le but d'avoir des relations sexuelles avec un mineur).
Enfin, l'OFMIN a développé une importante activité de veille et d'enquête sous pseudonyme sur les réseaux, sur l'internet classique mais aussi le « darknet », amenant à l'identification de dizaines de membres de communautés pédocriminelles se livrant à du partage de contenus pédocriminels, voire de producteurs de contenus et donc d'agresseurs physiques.
L'OFMIN a ouvert 270 enquêtes judiciaires en 2024, permettant l'identification en procédure de 99 pédocriminels au profil particulièrement dangereux. 233 autres profils d'individus détenteurs et diffuseurs d'images pédocriminelles ont été transmis à des services territorialement compétents pour une judiciarisation locale. Ce travail représente un total de 332 individus suspectés d'infractions en lien avec la pédocriminalité.
Les données recueillies par les offices centraux OFMIN et OFAC apportent également un éclairage sur le phénomène pédocriminel. Pour détecter les victimes de pédocriminalité et identifier leurs auteurs, outre le dépôt de plainte, l'OFMIN dispose de plusieurs moyens. Peuvent être, par exemple, cités les signalements de contenus pédocriminels échangés par internet sur le territoire national adressés par la fondation américaine National Center for Missing and Exploited Children (NCMEC).
En 2024, l'OFMIN a réceptionné 164 516 signalements et priorisé
2 200 de ces signalements, permettant d'identifier 199 individus suspects dans des rapports adressés aux services territoriaux de police/gendarmerie ou aux tribunaux judiciaires. Peuvent également être cités les contenus pédocriminels téléchargés et partagés en ligne entre plusieurs personnes identifiées grâce aux outils de veille spécifiques. En 2024, 25 000 adresses IP étaient signalées à l'OFMIN comme ayant échangé des contenus pédocriminels. En 2024, 270 procédures ont été établies par cet office central, à la suite d'un travail d'analyse et de recoupement pour prioriser les cibles les plus actives ou les plus dangereuses au regard de leur profil. Comme pour l’OFAC, l’ampleur des affaires à traiter nécessite une priorisation qui se fait au détriment de la lutte globale contre la cyberpédocriminalité. Pour rappel, ce sont près de vingt-sept agents qui réalisent ces missions quand le ministère s’est engagé à monter le nombre d’agents à 85.
2. Le changement de paradigme européen : le règlement 2021/1232
L’Union européenne a entamé un changement d’attitude en faveur d’une démarche beaucoup plus volontariste vis-à-vis de la cyberpédocriminalité. La directive 2011/92/UE, précédemment évoquée, définissant les infractions pénales dans le domaine de l’exploitation et abus sexuels sur mineurs a permis de définir un cadre minimal pour les États membres en matière de politique pénale.
En matière de pédocriminalité en ligne, le texte prévoyait que les États membres prennent des mesures pour supprimer les pages internet contenant ou diffusant de la pédopornographie qui sont hébergées sur son territoire et bloquent l’accès à ces pages notamment si elles sont hébergées hors de son territoire.
Cependant, ce cadre demeurait très largement imparfait et a connu un tournant avec l’adoption du règlement 2021/121 du 14 juillet 2021 permettant de contraindre les prestataires de services numériques à collaborer dans la lutte contre la cyber pédocriminalité.
La spécificité du règlement est de déroger à certaines dispositions de la directive 2002/58/CE dite « e-privacy ». Cette directive exige des États membres qu’ils garantissent la confidentialité des communications électroniques et l’interdiction à toute personne, autre que l’utilisateur de la communication électronique concernée, d’écouter, d’intercepter, de collecter, de stocker ou, plus généralement, de traiter ces données personnelles sans le consentement des utilisateurs concernés.
Avec le règlement adopté en 2021, les fournisseurs de services de courrier électronique et de messagerie peuvent utiliser, sur une base volontaire, des technologies spécifiques de traitement de données à caractère personnel dans la mesure strictement nécessaire pour détecter les abus sexuels commis contre des enfants en ligne sur leurs services, pour les signaler et pour retirer le matériel relatif à ces abus.
Les fournisseurs de services doivent user des technologies les moins intrusives et ne peuvent en aucune façon procéder au filtrage et à l’examen systématique du texte dans les communications, sauf s’ils détectent des schémas indiquant des éventuels motifs concrets de soupçons d’abus sexuels.
Le volontariat de la détection permet aux fournisseurs de services numériques de poursuivre la diffusion de contenus nécessitant le traitement de données personnelles des utilisateurs du service (hashing des données, par exemple, désignant un chiffrement des données à l’aide d’un algorithme permettant d’en assurer la sécurité et la confidentialité ([15])).
Initialement prévu pour s’appliquer jusqu’au 3 août 2024, le règlement a été prolongé jusqu’au 3 avril 2026 pour permettre aux co-législateurs européens de s’accorder et d’adopter un texte pérenne.
Deuxième partie : renforcer le cadre normatif européen est indispensable POUR ENRAYER la cyberpedocriminalité
A. un cadre juridique europeen en pleine mutation du fait des evolutions numeriques
1. La protection des données personnelles prévues par le règlement général sur la protection des données personnelles et la directive e-privacy
L’ambition européenne de régulation de l’espace numérique s’inscrit dans un mouvement entamé par l’Union européenne depuis plusieurs années. Il vise principalement à responsabiliser les acteurs privés y opérant et à protéger les droits des utilisateurs de ces services.
Le règlement général sur la protection des données personnelles, dit « RGPD », du 27 avril 2016 en constitue un des éléments principaux. Il affirme ainsi le droit à la protection des données à caractère personnel, également inscrit à l’article 8 de la Charte des droits fondamentaux de l’Union.
Plus particulièrement, le RGPD définit les conditions dans lesquelles le recours à des technologies de traitement des données personnelles est conforme aux exigences de respect de la vie privée. Son article 6 paragraphe c) mentionne comme motif « le respect d'une obligation légale à laquelle le responsable du traitement est soumis ».
Il importe dès lors d’établir une base légale pour sécuriser juridiquement les activités de détection de contenus pédopornographiques impliquant le traitement de données à caractère personnel dans le prolongement du texte provisoire prorogé jusqu’en 2026.
Toute proposition législative s’appliquant aux fournisseurs de services de communications électroniques interpersonnelles sera donc également sous l’empire de la directive dite « e-privacy ».
Par ailleurs, la directive e-privacy interdit à toute autre personne que les utilisateurs d'écouter, d'intercepter, de stocker les communications et les données relatives au trafic y afférentes. Elle interdit également de les soumettre à tout autre moyen d'interception ou de surveillance, sans le consentement des utilisateurs concernés.
Son article 6 dispose également que les données relatives au trafic concernant les abonnés et les utilisateurs traitées et stockées par le fournisseur d'un réseau public de communications ou d'un service de communications électroniques accessibles au public doivent en principe être effacées ou rendues anonymes lorsqu'elles ne sont plus nécessaires à la transmission d'une communication.
Cependant, l'article 15 de la même directive prévoit que les États membres peuvent adopter des mesures législatives visant à limiter la portée des droits et des obligations « lorsqu'une telle limitation constitue une mesure nécessaire, appropriée et proportionnée, au sein d'une société démocratique, pour sauvegarder la sécurité nationale - c'est-à-dire la sûreté de l'État - la défense et la sécurité publique, ou assurer la prévention, la recherche, la détection et la poursuite d'infractions pénales ou d'utilisations non autorisées du système de communications électroniques ».
2. Le règlement sur les services numériques
a. L’économie générale du texte
Adopté le 19 octobre 2022, le règlement sur les services numériques – Digital Services Act (DSA), en anglais – a consolidé le cadre de protection des droits des utilisateurs des services numériques. Ce règlement renforce les obligations des fournisseurs de services intermédiaires et plus particulièrement s’agissant des contenus illicites.
Les fournisseurs d’hébergement de services sont ainsi tenus d’établir des mécanismes permettant aux utilisateurs de signaler la présence de contenus illicites sur leurs services. Les hébergeurs traitent ces notifications dans les meilleurs délais et décident du retrait éventuel du contenu. Dans le cas où le fournisseur a été notifié du contenu illicite mais n’a pas procédé à son retrait, sa responsabilité est engagée.
L’ensemble des prestataires de services intermédiaires doit établir un point de contact, être transparent et réaliser un rapport annuel dans lequel figure le nombre d’injonction de retrait reçues de la part des autorités des États membres.
Le règlement dit DSA ne revient néanmoins pas sur le principe de responsabilité partielle des hébergeurs issu de la directive dite « e-commerce » en vertu duquel le fournisseur de services en ligne ne peut être tenu responsable d’un contenu illicite transmis, stocké ou hébergé dès lors qu’il n’a pas d’influence sur ce contenu.
En outre, l’article 8 du règlement prévoit que les fournisseurs de services intermédiaires ne sont pas soumis à une obligation générale de surveillance des informations transmises ou stockées et qu’ils ne font pas l’objet d’obligation de rechercher activement des faits ou des circonstances témoignant d’activités illégales.
b. Les dispositions spécifiques pour la protection des enfants
Le DSA contient plusieurs dispositions visant spécifiquement la protection des enfants :
- l'article 14 oblige les plateformes à rédiger leurs conditions générales d'utilisation de façon compréhensible pour les mineurs ;
- l'article 22 leur impose un traitement prioritaire, et dans des délais rapides, des contenus signalés par des « signaleurs de confiance », dont font partie les associations de défense des enfants ;
- l'article 28 prévoit l'obligation pour les plateformes accessibles aux mineurs de prendre toutes mesures utiles pour garantir le plus haut niveau de protection de la sécurité et de la sûreté des mineurs ainsi que de la vie privée. Ce même article 28 prévoit l'interdiction de présenter aux mineurs de la publicité ciblée, utilisant leurs données personnelles ;
- l'article 27 renforce l'obligation de transparence sur le fonctionnement des systèmes de recommandation ;
- l'article 25 prévoit une interdiction pour les plateformes de recourir à des interfaces trompeuses et manipulatrices ;
- les articles 34 et 35 prévoient l'obligation pour les plateformes d'analyser chaque année les « risques systémiques » induits par la conception et le fonctionnement de leurs services et d'adopter en conséquence les mesures de remédiation des conséquences négatives graves engendrées sur le bien-être physique et mental des mineurs, parmi lesquelles des dispositifs de vérification d'âge ;
- l'article 28 prévoit l'obligation pour les très grandes plateformes d'offrir une option pour un « système de recommandation neutre », qui ne soit pas fondé sur le profilage.
B. la proposition de RÈGLEMENT PUBLIEE en 2022 cherche a etablir un mecanisme perenne et protecteur pour les enfants victimes des abus sexuels
1. Un texte ambitieux contenant des dispositions efficaces contre la pédocriminalité en ligne
La proposition de règlement concrétise les engagements pris dans la stratégie de l’Union en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants. Elle instaure des obligations majeures auprès de tous les fournisseurs de services d’hébergement ou de communications interpersonnelles. Le dispositif reproduit très largement celui mis en place concernant les contenus à caractère terroriste par le règlement relatif à la lutte contre la diffusion des contenus à caractère terroriste en ligne (dit « TCO »).
La proposition de texte s’appuie sur l’article 114 du traité sur le fonctionnement de l’Union européenne (TFUE) relatif au marché intérieur. Il vise en effet à harmoniser les exigences imposées aux fournisseurs de services en ligne dans le marché unique numérique et à éliminer les divergences existantes qui entraîneraient une charge pour les fournisseurs, et créerait des conditions inégales pour les fournisseurs au sein de l’espace de l’Union, ainsi que de potentiels vides juridiques.
La proposition de règlement s’articule autour de deux grandes parties. Tout d’abord, elle impose aux fournisseurs des obligations renforcées en matière de lutte contre les contenus relatifs aux abus sexuels sur enfants. Deuxièmement, elle prévoit la création d’un centre de l’Union européenne chargé de prévenir et de combattre les abus sexuels sur enfants.
Concernant les obligations imposées aux fournisseurs, elles sont de divers ordres.
Ainsi, en matière de prévention de la diffusion de contenus à caractère pédopornographiques, le texte prévoit :
● une obligation d’évaluation et d’atténuation des risques d’utilisation à mauvais escient de leurs services aux fins de la diffusion de matériel connu ou nouveau relatif à des abus sexuels sur enfants ou de la sollicitation d’enfants ;
● une obligation de détection des contenus : si le risque qu’un service soit utilisé à mauvais escient à des fins d’abus sexuels sur enfants en ligne est avéré, les autorités compétentes peuvent émettre une injonction obligeant le fournisseur concerné à détecter le type d’abus sexuels sur enfants en ligne en cause sur le service concerné.
Lorsqu’un contenu à caractère pédopornographique est identifié, le texte pose :
● une obligation de signalement des contenus identifiés par les fournisseurs de services auprès du nouveau Centre de l’Union chargé de prévenir et de combattre les abus sexuels sur enfants. Ce dernier procédera au traitement de ce signalement et le cas échéant le transmettra à Europol et aux autorités répressives compétentes de l'État membre concerné. En outre, le centre tiendrait à jour une base de données de ces signalements ;
● une obligation de retrait des contenus : lorsqu’un fournisseur ne retire pas du contenu relatif à des abus sexuels sur enfants de son propre chef, les autorités de coordination peuvent l’obliger à le faire en émettant une injonction à cet effet. Le fournisseur exécute l’injonction de retrait dès que possible et, en tout état de cause, dans les 24 heures suivant sa réception ;
● une obligation de blocage lorsque les contenus ne peuvent pas être raisonnablement retirés à la source.
En second lieu, le règlement prévoit la création du Centre de l’Union européenne chargé de prévenir et de combattre les abus sexuels sur enfants. Le Centre aurait le statut d’agence décentralisée de l’Union doté de la personnalité juridique. Son siège serait situé à La Haye aux Pays Bas afin de favoriser la coopération avec l'agence Europol.
Le Centre occupe une place importante dans l’architecture du règlement.
Il jouera le rôle d’intermédiaire entre les fournisseurs de services et les autorités répressives des États membres. Il sera ainsi chargé de la réception et du traitement des signalements et aura un rôle de filtre avant transmission aux services répressifs compétents.
Il sera également consulté à propos des injonctions de détection et établira une liste de technologies pouvant être utilisées par les fournisseurs pour détecter les contenus illégaux.
Enfin, il tiendra à jour une base de données contenant des indicateurs relatifs au matériel pédopornographique connu, au nouveau matériel et à la manipulation psychologique d’enfants qu’il mettra à disposition des fournisseurs et des autorités compétentes.
2. L’enjeu de la négociation européenne est de concilier la protection des enfants des abus sexuels avec le respect de la vie privée
a. Les points du texte en débat : l’ampleur de la détection
Depuis la publication de la proposition législative en 2022, d’intenses discussions sont intervenues sur le texte. Plusieurs points continuent effectivement de causer des crispations, et plus particulièrement au Conseil.
Le point le plus sensible consiste dans l’articulation projet de règlement avec le respect du droit à la vie privée. Les dispositions relatives aux obligations de détection, dans la mesure où elles nécessiteraient de traiter les données d’un grand nombre d’utilisateurs, sont constitutives d’une forte ingérence dans le droit à la vie privée et à la confidentialité des communications consacrés aux articles 7 et 8 de la Charte des droits fondamentaux de l’Union européenne et 8 de la Convention européenne des droits de l’homme.
Toutefois, ces droits ne sont pas absolus et peuvent faire l’objet de limitations conformément à l’article 52 de la Charte des droits fondamentaux. Ces limitations doivent être prévues par la loi et respecter le contenu essentiel desdits droits et libertés. Dans le respect du principe de proportionnalité, des limitations ne peuvent être apportées que si elles sont nécessaires et répondent effectivement à des objectifs d'intérêt général reconnus par l'Union ou au besoin de protection des droits et libertés d'autrui.
Le service juridique du Conseil de l’Union européenne, tout comme le Contrôleur européen à la protection des données (CEPD) et le Bureau européen de la protection des données ((EDPB), ont émis des réserves quant à la conformité du dispositif au regard du droit à la vie privée. Ils estiment que les injonctions de détection des abus sexuels sur mineurs ne sont pas proportionnées dans la mesure où elles nécessitent de traiter les données personnelles de l’ensemble des utilisateurs d’un service sans ciblage particulier des utilisateurs à risque.
Dans leur avis conjoint publié le 28 juillet 2022, CEPD et EDBP estiment également que les messages audio devraient rester en dehors du champ du dispositif et que les injonctions de détection devraient être restreintes afin de ne pas porter atteinte aux dispositifs de chiffrement de bout en bout de certaines communications.
Les discussions en cours doivent ainsi permettre de préciser les garde-fous pour assurer l’intérêt supérieur de l’enfant tout en garantissant le droit à la vie privée.
Dès lors, les principaux points en discussion concernent le champ d’application du règlement, notamment le type d’acteurs concernés ainsi que l’inclusion ou non des contenus chiffrés de bout en bout. Les points faisant également l’objet de dissensions portent sur l’inclusion dans les injonctions de détection des nouveaux contenus et du pédopiégeage, dans la mesure où la détection de ces contenus nécessite des techniques plus intrusives et moins fiables que pour la détection de contenus déjà identifiés.
Enfin, le projet confie de nouvelles responsabilités au Centre de l’Union européenne chargé de la prévention et de la lutte contre les abus sexuels sur mineurs telles que la promotion de la prévention des abus sexuels sur les enfants en établissant une base de données recensant toutes les initiatives pertinentes menées à l’échelle européenne et dans les États membres. Le Centre comprendra également un comité technologique qui agira en tant que groupe consultatif et dont les experts seront nommés par les États membres.
b. Le compromis dégagé par le Parlement européen en première lecture : un équilibre entre protection des droits des enfants et respect de la vie privée
Le Parlement européen a adopté en première lecture une proposition de texte modifié qui répond à certaines des préoccupations mises en avant dans les discussions sur l’économie du texte.
Ainsi, le champ d’application du texte exclut désormais les communications audio. Les députés ont décidé que les ordonnances de détection devraient couvrir la diffusion de matériel précédemment détecté et confirmé comme constituant du matériel d'abus sexuel d'enfants mais aussi du matériel non précédemment détecté qui est susceptible de constituer du matériel d'abus sexuel d'enfants mais qui n'a pas encore été confirmé comme tel, ainsi que les activités constituant la sollicitation d'enfants (grooming).
Le texte amendé exclut en revanche le cryptage de bout en bout du champ d'application des injonctions de détection afin de garantir la sécurité et la confidentialité des communications de tous les utilisateurs. Les fournisseurs seraient en mesure de choisir les technologies à utiliser, à condition qu'elles respectent les mesures de protection strictes prévues par la loi, et sous réserve d'un audit public indépendant de ces technologies.
Afin de souligner que les ordonnances de détection sont un mécanisme de dernier recours, les députés ont proposé de renforcer la prévention dans le cadre des mesures d'atténuation à prendre par les services de communication de la société concernés. Les mesures d'atténuation peuvent inclure des mesures ciblées pour protéger les droits de l'enfant, y compris une conception de la sûreté et de la sécurité pour les enfants par défaut, des fonctionnalités permettant l'assurance et la notation de l'âge, des outils de contrôle parental adaptés à l'âge, l'autorisation de mécanismes de signalement et/ou de notification, des fonctionnalités d'autodénonciation ou la participation à des codes de conduite pour la protection de l'enfance.
Les ordonnances de détection relèvent uniquement d’une autorité judiciaire et doivent contenir des informations sur le droit de faire appel auprès d'un tribunal conformément à la législation nationale.
S’agissant du mécanisme de signalement, les fournisseurs de services d’hébergement et les fournisseurs de services de communications interpersonnelles devraient mettre en place un mécanisme facile d’accès permettant à tout utilisateur de signaler ou notifier la présence d’éléments considérés comme des abus sexuels sur des enfants.
Le ciblage concerne des personnes ou des groupes de personnes suspectées d’avoir un lien avec une infraction pédocriminelle lors de cette détection.
La rapporteure souhaite prolonger la détection volontaire en l’inscrivant dans le projet de règlement en cours de discussion et l’assortir d’une obligation de mise en place de moyens par les plateformes – sur les plans humains et financiers ‑ des possibilités d’amendes ou de sanctions pénales en l’absence de moyens suffisants.
c. Les points de divergences au sein du Conseil
Le projet de règlement est examiné au Conseil au sein du groupe « Application de la loi » (LEWP-P). Les présidences tchèque (second semestre 2022), suédoise (premier semestre 2023), espagnole (second semestre 2023), belge (premier semestre 2024), hongroise (second semestre 2024) et polonaise (premier semestre 2025) ne sont pas parvenues à trouver un compromis global malgré plusieurs versions proposées.
La présidence polonaise avait proposé de renoncer au principe d’une détection généralisée des contenus pédopornographiques au profit de la détection volontaire. La détection volontaire est en effet autorisée à titre dérogatoire.
La détection volontaire serait encadrée et se ferait de manière proportionnée et limitée. Elle ne pourrait ainsi pas concerner les contenus chiffrés, les communications audio et les contenus échangés via SMS. Une clause de revoyure à un horizon de trois ans permettrait à la Commission à cette date de réévaluer la pertinence de la détection volontaire. Cette proposition particulièrement protectrice de la vie privée et de la cybersécurité des communications n’a cependant pas réussi à dégager une majorité qualifiée des États membres. Ses détracteurs ont souligné qu’elle constituerait un recul majeur vis-à-vis de la version initiale et présenterait une efficacité opérationnelle quasi-nulle puisque la majorité des pédocriminels utilisent des applications chiffrées que le texte ne couvrirait pas.
La présidence danoise envisage deux options pour dépasser le blocage actuel : soit la réintroduction de l’injonction de détection avec un ciblage renforcé ; soit la mise en œuvre d’une obligation de résultat pesant sur les fournisseurs, à l’image du modèle britannique ([16]), et le maintien de la détection sur une base volontaire.
La présidence danoise envisage également de réintroduire les contenus chiffrés dans le champ d’application du règlement avec un système de modération des contenus dit de modération en amont (upload moderation), une méthode permettant la détection des contenus pédopornographiques en amont du chiffrement.
Cependant, une réunion technique intervenue ce 8 octobre 2025 a permis de constater l’absence de compromis entre États membres et la présence de divergences trop importantes pour permettre une orientation. La réunion du Conseil Justice et Affaires Intérieures (JAI) des 13 et 14 octobre prochains n’abordera donc pas le projet de règlement. Le texte est renvoyé aux instances techniques.
Les divisions demeurent importantes puisque la droite allemande (CDU)
a marqué son opposition au texte. La France y demeure favorable et souhaite
la réintégration de la capacité pour les autorités nationales d’imposer des injonctions de détection aux services en ligne ainsi que l’a rappelé la Représentation Permanente de la France à Bruxelles auditionnée par votre rapporteure.
Votre rapporteure soutient la position française : il s’agit d’un équilibre indispensable entre la protection indispensable des enfants et la protection de la vie privée. La solution de compromis mise en avant présente d’importantes garanties tout en veillant à la protection des plus vulnérables de notre société.
Enfin, votre rapporteure formule le vœu que l’absence de respect de la législation européenne en matière de lutte contre la pédocriminalité aboutisse à des sanctions pénales et financières pour les fournisseurs numériques. L’arme financière est connue pour son efficacité et l’Union a pu constater à de multiples reprises son côté dissuasif auprès des géants du numérique à l’instar de Google. Un modèle de sanctions reposant sur un pourcentage du chiffre d’affaires a ainsi été mis sur pied pour les DSA et DMA.
Troisième partie : envisager DES MODALITÉS complémentaires pour LUTTER CONTRE la menace de la cyberpedocriminalité :
A. Un travail de sensibilisation et de coopération à mener au niveau europeen : le role du centre europeen de prevention et de lutte contre les abus SEUXELS SUR mineurs
La proposition de règlement publiée en 2022 envisage la création d’un Centre européen pour la protection de l’enfance. Cette agence de l’Union européenne figure dans la proposition de texte voté en première lecture par le Parlement européen.
Cet organisme de l’union aurait pour objectif de prévenir et combattre les abus pédosexuels. L’ampleur des contenus pédocriminels est telle qu’il n’est désormais plus possible d’imaginer une lutte restreinte au niveau des frontières nationales de chaque État membre. C’est d’ailleurs tout le sens de la proposition de règlement qui vise à harmoniser les modalités de la lutte contre les abus sexuels sur mineurs.
Chargé de recueillir et de partager des informations anonymes, des statistiques distinguant sexe et âge, cet organisme permettrait de disposer d’une vision plus exhaustive de la réalité de la menace. De plus, l’expertise de ce centre, le contenu qu’il produirait ainsi que les bonnes pratiques qu’il recenserait permettrait de diffuser à l’échelle de l’Union un « kit » d’action efficace, coordonné et précis.
La coopération policière dispose des moyens d’Europol, la coopération judiciaire en matière pénale s’appuie sur Eurojust mais il manque une structure de recherche et de coordination. Le nouveau Centre pourrait remplir cette fonction.
En outre, ce centre pourrait constituer une sorte de NCMEC européen. En effet, alors que l’Europe se donne pour mission de construire sa souveraineté numérique il convient qu’elle se dote de son propre organisme même si la bonne volonté de transmission d’informations par le NCMEC n’est pas en cause. Celui-ci entretient une excellente coopération avec Interpol et Europol en l’espèce.
B. Il existe des solutions TECHNOLOGIQUES POUR identifier les contenus pedocriminels : l’exemple de la societe korp media en france
Votre rapporteure a eu l’opportunité d’auditionner la dirigeante de l’entreprise française Korp Media ayant développé une solution technologique identifiant les contenus pédocriminels. Le système baptisé DAPI (détection automatisée d’images pédopornographiques) repose sur un concept e régie vidéo mobile en mesure de détecter dans une pièce la présence d’humains et de déterminer si des actes de nature sexuelle sont réalisés.
Madame Anne-Gaëlle Philbert, dirigeante de KorpMedia, a constaté au cours d’échanges avec les forces de l’ordre qu’il n’existait pas de solution technologique permettant d’identifier les contenus pédocriminels. Elle a donc contacté l’OFMIN dont l’existence était récente pour proposer sa solution.
Cette initiative s’inscrit d’ailleurs dans un contexte où l’identification des violences sexuelles est un sujet d’importance comme l’a illustré le procès des violeurs de Dominique Pélicot victime de soumission chimique par son mari.
Le visionnage de contenus criminels de nature sexuel est chronophage et la constitution du délit doit pouvoir s’appuyer des preuves matérielles. Comme votre rapporteure le souligne précédemment, les effectifs de l’OFMIN ne sont de nature à lui permettre d’identifier la masse des contenus pédocriminels.
Une collaboration s’est engagée entre KorpMedia et les structures du ministère de l’intérieur (DNPJ, d@ata-i ([17])) mais dont l’issue n’est à ce jour pas fructueuse sans que Madame Philbert n’ait été informée des raisons pour lesquelles le projet n’a pu aboutir.
Cette situation dont le média Mediapart s’est fait l’écho ([18]) paraît particulièrement problématique pour votre rapporteure compte tenu des moyens limités que les auditions ont mis en exergue.
Votre rapporteure a eu l’occasion d’assister à une démonstration du logiciel permettant d’en comprendre le fonctionnement et les moyens par lesquels les faux positifs ou faux négatifs étaient traités. La combinaison de filtres qualifiant les contenus et les évaluant (scoring) présente une vraie robustesse. De plus, le logiciel n’intègre pas de reconnaissance faciale ni de bases de données d’identification. Son utilisation est locale, hors-ligne et évite ainsi toute fuite de données particulièrement sensibles. Les algorithmes sont contrôlés et ne possèdent pas de réseaux de neurones, ils sont dits non hallucinatoires. La rigueur du logiciel se complète avec une analyse humaine permettant de s’assurer que le contenu traité est bien illicite.
Ce travail d’analyse minutieux s’effectue sur la base de matériels saisis par les autorités - en raison de soupçons étayés de pédocriminalité - et non pas en amont.
Votre rapporteure souhaite ici souligner que le visionnage de contenus illicites qu’ils s’agissent de terrorisme, de pédocriminalité ou de violence de tous ordres présente un risque important pour la santé mentale des personnes les visionnant. Disposer d’une solution technologique solide permet d’épargner
les personnes en charge du visionnage. C’est un des éléments à prendre compte pour considérer le sujet.
Le logiciel n’a pas pu obtenir de financements européens et cette situation apparaît particulièrement curieuse dès lors qu’il n’existe pas de solution technologique à disposition des différents États membres pour traiter le contenu pédocriminel plus rapidement et plus efficacement. C’est la raison pour laquelle votre rapporteure invite à considérer avec intérêt ce type de projets et à chercher les moyens de les financer pour se doter de moyens à même d’enrayer les contenus pédocriminels. Au-delà de l’existence de ces contenus-ci, cette solution technologique pourrait être étendue à d’autres types de délit et fournir une aide particulièrement précieuse aux forces de l’ordre et à la justice.
C. la prise en compte indispensable de l’intelligence artificielle
L’intelligence artificielle (IA) est une technologie permettant aux ordinateurs et aux machines de simuler l'apprentissage, la compréhension, la résolution de problèmes, la prise de décision, la créativité et l'autonomie de l'être humain.
Technologie apparue dans les années 1950, elle est longtemps restée cantonnée dans le champ scientifique car ses applications n’étaient pas assez développées pour en permettre un usage par le grand public.
Depuis le début des années 2020, l’IA a connu un développement spectaculaire permettant un usage très élargi. La technologie présente des avancées considérables. Elle est aussi porteuse de risques non moins importants sur lesquels le législateur ne peut fermer les yeux.
C’est tout le sens du règlement européen sur l’IA entré en vigueur à l’été 2024 qui vient poser un cadre législatif sur les usages de l’IA. Il permet ainsi de proscrire certaines pratiques à haut risque pour la santé et la sécurité des individus. La technologie évoluant plus rapidement que le cadre juridique il apparaît indispensable d’envisager des évolutions législatives au fur et à mesure.
S’agissant de la pédocriminalité, c’est l’IA générative qui préoccupe
le législateur ainsi que l’ensemble des acteurs de la protection de l’enfance. L’IA générative permet de créer de nouveaux contenus (textes, images, audios et vidéos) n’existant pas. D’ores et déjà, le NCMEC a identifié des vidéos dites de hypertrucages (« deepfakes ») présentant un contenu visuel ou sonore à caractère pédopornographique et générées à partir de données dévoyées de leur usage initial. Un article du journal Le Monde publié en juillet 2025 a illustré les défis que représentait cette nouvelle technologie pour la justice chargée de lutter contre la pédocriminalité en ligne.
L’article en question indique que les prévenus se défendent en arguant de l’inexistence de victimes réelles pour justifier de la consommation de ce type de contenus. Cette défense est inopérante en droit pénal dès lors que le visionnage de contenu pédocriminel est interdit. Cependant, le problème majeur constitue l’analyse de ces contenus et la capacité technologique des forces de l’ordre et de la justice à distinguer des victimes réelles des victimes fictives.
La Fondation pour l’enfance recommande dans un rapport publié en octobre 2024 de mettre en place des campagnes de sensibilisation à destination des parents sur cette nouvelle menace, de favoriser l’innovation pour développer des outils technologiques en mesure de distinguer l’usage de l’IA des contenus réels et enfin d’amender le Code pénal pour réprimer spécifiquement l’usage de l’IA dans le contexte pédocriminel.
Lutter contre la pédocriminalité constitue une mission particulièrement difficile et sa diffusion par les nouvelles technologies du numérique a accru son emprise. Le législateur en est conscient et la France s’est dotée d’un arsenal législatif à même de pourchasser et de punir pénalement les responsables de ces crimes commis sur les êtres les plus vulnérables.
La force des réseaux pédocriminels à l’échelle internationale et notamment en Europe impose d’agir avec détermination et l’Union en a pris conscience ces dernières en légiférant sur le sujet. Il importe désormais de trouver enfin un compromis sur le projet de règlement en cours d’examen pour rendre pérenne les outils législatifs de lutte contre la cyberpédocriminalité.
Les abus sexuels sur mineurs connaissent une explosion sans précédent, amplifiée par la dématérialisation des échanges. Le NCMEC (centre américain de référence) a recensé 32 millions de signalements mondiaux en 2024, tandis qu’en France, l’Office central de lutte contre les violences faites aux mineurs (OFMIN) a reçu 170 000 signalements, soit une hausse de 12 000 % en dix ans. Les victimes comme les auteurs sont de plus en plus jeunes, et les contenus de plus en plus violents. Le développement du chiffrement des communications interpersonnelles (WhatsApp, Signal, Telegram, etc.) a fait chuter le nombre de signalements détectables par les plateformes, créant une zone d’impunité technique.
À l’heure actuelle, l’Union ne dispose pas de texte de compromis qui viendrait prendre le relais du règlement et inscrire de manière pérenne un mécanisme de détection et de signalements des contenus pédopornographiques. Étant donné que les effets du règlement cesseront de s’appliquer le 3 avril 2026, il est absolument essentiel et urgent qu’un texte pérenne soit adopté dans les plus brefs délais afin de poursuivre la détection volontaire des contenus pédopornographiques par les plateformes.
L’enjeu est double : protéger les enfants dans un environnement numérique en pleine mutation, tout en garantissant les droits fondamentaux au respect de la vie privée et à la protection des données.
Afin de maintenir cet équilibre, votre rapporteure plaide pour :
• Mise en place de mesures d’évaluation et d’atténuation des risques (ex : principe de la sécurité dès la conception, contrôle parental, mécanisme de signalement d’internautes, etc.) ;
• En l’absence d’une solution technologique satisfaisante pour garantir le respect du droit à la vie privée de chacun, rendre la dérogation permettant les signalements volontaires permanente, via la proposition de règlement ASM, et l'assortir d'une obligation de mise en place de moyens humains et financiers efficaces par les plateformes (plus de modérateurs, etc.), avec des contrôles, sous peine de lourdes sanctions financières à définir dans le règlement ;
• En dernier recours, possibilité pour les autorités judiciaires d’émettre des injonctions de détection ciblées (individus ou groupes spécifiques pour lesquels des soupçons fondés indiquent un lien indirect avec du matériel d’abus) ;
• Exclusion explicite des messageries à chiffrement de bout en bout ;
• Conservation immédiate et temporaire relative à certaines données de trafic des télécommunications et de localisation (« Quick freeze ») pour les opérateurs ayant reçu une injonction judiciaire
• Appeler à la création d’un centre européen dédié (CEPL) ;
• Appeler au renforcement des moyens humains, technologiques et financiers des offices spécialisés au niveau des États membres pour traiter les signalements.
Le respect de la vie privée ne doit plus servir d’excuse à l’absence d’action publique. Les nouvelles technologies offrent des possibilités d’analyse qui ne méconnaissent pas la protection de la vie privée. Adopter le projet de règlement sur la lutte contre les abus sexuels sur mineurs est un premier pas qui doit ouvrir la voie à d’autres actions. La protection des enfants n’est pas un choix politique parmi d’autres choix possibles. Il s’agit d’une nécessité morale, juridique et sociétale.
La Commission s’est réunie le mercredi 15 octobre 2025, sous la présidence de M. Pieyre-Alexandre Anglade, président, pour examiner la présente proposition de résolution européenne.
Mme Colette Capdevielle, rapporteure. La mission première de toute société est de protéger ses membres les plus vulnérables. C’est dans cet esprit que s’inscrit la proposition de résolution européenne relative à la pédocriminalité en ligne que je vous présente aujourd’hui.
Le phénomène pédocriminel est malheureusement ancien mais il a pris une tournure plus inquiétante encore avec l’arrivée d’internet. Entre darknet, réseaux sociaux, messageries chiffrées et contenus pédocriminels diffusés sur des forums, nous sommes face à une menace considérable visant tous nos enfants. Les pédocriminels s’organisent désormais en véritable communauté, ils mettent à l’épreuve nos enquêteurs en utilisant les outils numériques à leur disposition.
Si nous considérons uniquement les contenus pédocriminels signalés, la France occupe la triste place de 9ème pays mondial à en abriter et la 5ème au niveau européen, d’après l’ONG Internet Watch Foundation pour l’année 2022.
Face à ce fléau le législateur ne peut plus rester absent. Dans un espace sans frontières comme internet, il est temps d’agir et de prendre rapidement des mesures proportionnées et coordonnées.
Il convient tout d’abord d’évoquer le cadre législatif existant aux niveaux français et européen. Ensuite, la question de la proposition de règlement européen relatif à la prévention et à la lutte contre les abus sexuels sur mineurs en cours d’examen nécessite d’être explicitée avec rigueur. Enfin, des propositions complémentaires seront faites afin de traiter l’ensemble du spectre de la pédocriminalité.
L’évolution de la pédocriminalité aggravée par le développement de nouvelles technologies nécessite d’élargir le champ d’application de la loi pour réprimer la détention de contenu pédocriminel mais aussi sa production, son stockage ou encore sa diffusion.
La réalité est glaçante : 40 % des pédocriminels en ligne ont contacté des enfants et d’après les données de la Ciivise, 12,5 % des cyberpédocriminels ont un historique d’infraction sexuelle sur un mineur hors-ligne. L’ampleur de la cyberpédocriminalité rend impérieuse notre capacité à développer des moyens de signalement afin de pouvoir constater les contenus, identifier les auteurs et les poursuivre pénalement.
Historiquement, c’est le centre américain NCMEC (National Center for Missing and Exploited Children) qui occupe un rôle essentiel en transmettant l’ensemble des signalements pédocriminels reçus aux pays dont les plateformes hébergent ce type de contenu. En 2024, 32 millions de signalements mondiaux ont été reçus par cet organisme et 170 000 ont été reçus en France. Cela représente une hausse vertigineuse de 12 000 % en
10 ans. Cette criminalité massive échappe en grande partie aux poursuites pénales. La dimension cyber renforce le caractère transfrontalier de la pédocriminalité et nécessite donc une coordination entre forces de l’ordre et justice à l’échelle internationale.
Le cadre juridique français en matière de pédocriminalité est robuste et recouvre l’ensemble du spectre des actes pédocriminels dont ceux commis en ligne. Néanmoins, ce cadre ne peut fonctionner que s’il est harmonisé entre les États membres sans quoi cette dimension transfrontière rendrait inopérant le système normatif français.
Au-delà de l’arsenal législatif, il convient également de souligner l’importance des structures établies en lien avec le ministère de l’intérieur qui traquent les contenus pédocriminels.
L’Office anti-cybercriminalité (OFAC) et la plateforme d'harmonisation, d'analyse, de recoupement et d'orientation des signalements (PHAROS) permettent à tout utilisateur de signaler des contenus contrevenant à la loi. Créé récemment en 2023 et rattaché à la police judiciaire, l’office des mineurs (OFMIN) joue un rôle capital en matière de lutte contre la pédocriminalité. Sa mission est dédiée à l’identification de ces infractions en lien avec Europol et Interpol. De plus, l’OFMIN représente la France dans les instances internationales traitant de la question pédocriminelle. Malheureusement, cet office est structurellement sous-dimensionné. Seuls 27 agents à ce jour réalisent les missions qui lui sont confiées alors même que l’État s’est engagé, en novembre 2023, à monter ses effectifs à plus de 80. Il est vital de lui donner les moyens humains et financiers pour exercer sa mission.
L’Union européenne a elle aussi pris conscience des insuffisances du cadre juridique au niveau européen et du manque d’harmonisation en matière de lutte contre la cyberpédocriminalité. Fort de ce constat, un règlement temporaire a été adopté le 14 juillet 2021 qui permet de déroger à la directive du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques, dite directive e-privacy, afin de lutter contre les abus sexuels sur mineurs.
J’insiste sur le fait que ce règlement de 2021 ne vient pas piétiner la confidentialité mais permettre la détection et surtout le signalement de contenus de nature pédocriminelle de façon volontaire par les fournisseurs de services numériques. Dans l’attente de l’adoption de la proposition de règlement ASM, une dérogation était initialement prévue pour 3 ans puis a été prorogée de 2 ans en l’absence de compromis obtenu. Ce cadre transitoire arrive à expiration le 3 avril 2026, c’est-à-dire demain !
C’est là tout l’objet de la proposition de résolution européenne que je défends aujourd’hui : soutenir l’adoption d’un cadre légal pérenne sans quoi plus aucune base légale ne pourra autoriser la détection de contenus pédocriminels même sur une base volontaire. Ce cadre se situe sur une ligne de crête entre la nécessaire protection des enfants contre la cybercriminalité dans un environnement numérique en mutation et la garantie des droits fondamentaux, à savoir le respect de la vie privée et la protection des données.
Depuis la version initiale qui a été proposée par la Commission européenne, le projet de règlement ASM a évolué. Le Conseil l’examine actuellement. Une fois la position de chaque institution adoptée, les trilogues pourront enfin débuter.
Cette proposition de résolution salue l’initiative de la Commission européenne mais ne soutient pas la version initiale du texte. Elle plaide pour un texte qui permettrait la détection sur un mode volontaire tout en l’assortissant d’obligations claires pour les plateformes numériques notamment s’agissant de la mise en place de moyens humains et financiers suffisants. Si les plateformes ne respectent pas ce cadre législatif alors elles devront faire face à des amendes et des sanctions pénales lourdes. Dès lors que le cadre proposé garde une certaine souplesse, les plateformes ne peuvent faillir à leurs responsabilités. C’est là le souhait que je formule aujourd’hui.
C’est un débat complexe, politiquement sensible et le blocage persistant au Conseil – la semaine dernière encore – illustre bien notre difficulté actuelle à trouver un équilibre. Il devait examiner le texte hier mais a une nouvelle fois reporté le débat à décembre 2025, 4 mois seulement avant l’expiration du règlement dérogatoire le 3 avril 2026.
À ce jour, personne ne peut imaginer que les trilogues aboutiront à un consensus étant donné les délais restreints. Il est essentiel d’éviter la disparition du cadre légal permettant les signalements. C’est la raison pour laquelle j’ai déposé plusieurs amendements pour apporter les garanties qui me semblaient nécessaires face aux légitimes inquiétudes soulevées.
Au-delà de la répression des contenus pédocriminels, d’autres mesures sont à considérer.
Ainsi, la proposition de règlement envisage la création d’un centre européen de prévention et de lutte contre les abus sexuels sur mineurs. Il ne s’agit pas d’une strate supplémentaire mais bien de consacrer des moyens importants à la lutte contre la cyberpédocriminalité. Nous avons besoin d’une instance qui sensibilise l’ensemble de la société et qui œuvre à la coopération entre les États membres pour diffuser les bonnes pratiques et transmettre les signalements et les alertes.
Je souhaite mentionner le rôle de l’entreprise Korp Media que j’ai rencontrée dans le cadre de mes auditions. Cette société a travaillé en lien avec l’OFMIN et le ministère de l’intérieur sur un logiciel identifiant les contenus pédocriminels une fois le matériel saisi par les autorités. Ce logiciel n’utilise ni la reconnaissance faciale ni des bases de données d’identification des personnes. Il est hors ligne et ne peut donner lieu à des piratages cyber issus d’acteurs malveillants. Il présente de solides garanties et fournit la preuve que la technologie dispose dès à présent de moyens pour identifier les contenus pédocriminels sans attenter aux libertés.
Surtout, n’oublions pas le coût humain du visionnage par tout agent des services compétents. Outre leur ampleur, ils sont porteurs de graves risques psycho-sociaux pour celles et ceux qui doivent les visionner pour faire appliquer la loi. L’OFMIN en a urgemment besoin.
S’agissant de l’intelligence artificielle, n’oublions pas que son usage s’est très largement démocratisé et qu’elle donne lieu d’ores et déjà à des dévoiements notamment en lien avec la cyberpédocriminalité. Je pense aux vidéos d’hypertrucages, appelées en anglais deepfakes. C’est une menace d’ampleur. Le NCMEC a constaté une hausse de son usage à des fins pédocriminels de 1 425 % entre 2023 et 2024 et entre 2024 et mi-2025 nous faisons face à une nouvelle hausse de 723 % !
En conclusion, je voudrais vous rappeler que la protection des enfants est une obligation juridique et humaine. Les plus vulnérables doivent être d’abord protégés.
C’est pourquoi je vous appelle à soutenir cette proposition de résolution européenne - que vous êtes plus de 100 à avoir co-signé – nécessaire pour la mise en place d’un cadre pérenne portant sur la lutte contre les abus sexuels sur mineurs. Aujourd’hui, le vote de cette proposition de résolution serait un premier pas pour répondre collectivement à l’urgence. Nous pouvons montrer l’exemple aujourd’hui.
Mme Constance Le Grip (EPR). La proposition de résolution européenne que vous présentez rappelle une évidence : la protection de nos enfants contre la cyberpédocriminalité doit être une exigence fondamentale au sein de nos sociétés européennes. À l’ère numérique, garantir un environnement en ligne sûr pour chaque enfant n’est pas seulement un impératif moral, c’est une responsabilité individuelle, politique et collective.
Face à une explosion sans précédent des contenus pédopornographiques et alors qu’un enfant sur douze dans le monde est aujourd’hui exposé à une forme d’exploitation ou d’abus sexuels en ligne, le statu quo n’est plus tenable. Les régimes dérogatoires, les dispositifs volontaires et tout ce que l’on a tenté ne suffisent plus. L’Union européenne doit désormais se doter d’un cadre contraignant à la hauteur de l’urgence, de la gravité et de l’ampleur du phénomène.
C’est l’objet de la proposition de règlement établissant des règles en vue de prévenir et combattre les abus sexuels sur enfants, dit CSAM, présenté par la Commission européenne le 11 mai 2022 qui prévoit la détection et le signalement obligatoire des contenus pédocriminels, l’évaluation des risques d’exploitation et la création d’un centre européen chargé de centraliser les signalements.
Notre groupe se félicite que la présidence danoise du Conseil, dans le sillage des positions défendues à de nombreuses reprises par le gouvernement français, ait fait de cette question une priorité en inscrivant à son agenda la sécurité numérique des mineurs, la vérification d’âge interopérable et la refonte du cadre juridique européen contre les abus sexuels en ligne.
La déclaration de Jutland, adopté le 10 octobre dernier, trace la voie d’un espace numérique plus sûr pour nos enfants, fondé sur la conception responsable des plateformes et la protection de la vie privée. Nous soutenons votre proposition de résolution. Nous partageons l’objectif essentiel que vous affichez : faire de la protection de l’enfance un pilier de la souveraineté numérique européenne. Nous resterons attentifs aux prochaines étapes du processus européen afin de concilier libertés individuelles, proportionnalité des moyens techniques et défense de nos enfants.
Mais ne l’oublions jamais : nous parlons de pédophiles.
Nous voterons en faveur de cette proposition de résolution européenne.
Mme Colette Capdevielle, rapporteure. Vous avez eu raison de mentionner la présidence danoise, qui représente un véritable espoir pour nous. Plusieurs visions coexistent actuellement en Europe, et cette présidence devrait permettre de faire progresser le dossier, d’autant que l’échéance d’avril approche et qu’il est désormais nécessaire d’avancer sans délai.
Vous avez raison d’insister sur la responsabilité des plateformes. Elles jouent un rôle important et nous devons tenir un discours unanime sur ce sujet à l’Assemblée nationale.
M. Julien Dive (DR). Ils tirent parti de l’anonymat du chiffrement, de la fragmentation des outils de détection. Il est donc nécessaire de consolider nos dispositifs et de combler les failles juridiques et techniques.
Face à une telle menace, aucun pays ne peut lutter seul. L’Union européenne doit apporter une réponse coordonnée et proportionnée à ce fléau transnational. À ce titre, nous saluons la proposition d’un Centre européen de prévention et de lutte contre les abus sexuels sur les enfants, qui serait chargé de centraliser les signalements, de renforcer la coopération avec Europol et d’harmoniser les procédures de traitement. Une telle structure permettrait de gagner en réactivité et en fiabilité tout en améliorant le partage d’informations. De même, l’extension des compétences du Parquet européen à la cyberpédocriminalité nous paraît pertinente. Les flux financiers liés à ces crimes, la dimension transnationale des plateformes et l’ampleur du phénomène justifient une approche pénale européenne plus intégrée.
La sécurité des enfants et les libertés fondamentales doivent avancer de pair. Le texte insiste, à juste titre, sur l’importance d’une supervision indépendante et transparente des outils de détection que déploieront les plateformes afin de garantir le respect de la vie privée, la proportionnalité des moyens et un contrôle juridictionnel effectif.
Il nous faut garder un temps d’avance sur les menaces émergentes. L’essor de l’intelligence artificielle facilite déjà la production et la diffusion de contenus illicites ; un cadre juridique spécifique s’impose pour prévenir ces abus. La lutte contre la cybercriminalité passe également par la prévention et l’éducation : informons les mineurs, sensibilisons les familles, formons les professionnels afin de déceler plus tôt les situations à risque.
Le groupe de la Droite républicaine votera ce texte sans réserve. Ne laissons plus l’inaction profiter aux criminels et dotons-nous, au niveau européen, de moyens à la hauteur des enjeux.
Mme Colette Capdevielle, rapporteure. Vous évoquez à juste titre les menaces émergentes : il nous faut agir vite car les cyberpédocriminels adaptent très rapidement leurs pratiques.
S’agissant de ma proposition d’étendre les compétences du Parquet européen à la lutte contre la cyberpédocriminalité, j’ai déposé un amendement pour la retirer. Il s’est avéré qu’elle n’était pas envisageable dans le cadre actuel des traités européens. C’est certes regrettable compte tenu de l’ampleur du phénomène et des difficultés à poursuivre les pédocriminels en ligne. Le Centre européen de prévention et de lutte contre les abus sexuels sur enfants n’en apparaît que plus nécessaire.
M. François Ruffin (EcoS). En moyenne, trois enfants par classe sont victimes d’inceste ou de violence sexuelle. Quand ce chiffre est sorti, il y a une dizaine d’années, cela a été un choc pour un moi. J’ai cru que c’en serait un également pour la société, pour les politiques, et que des mesures seraient prises. Mais il n’y a rien eu, ou pas grand-chose. Nous devinons pourtant derrière ce chiffre des vies brisées qu’il faudra des décennies pour réparer, si elles peuvent l’être.
Quand le rapport public de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants (Ciivise), rendu en novembre 2023, a confirmé que 160 000 enfants étaient victimes de violences sexuelles chaque année, j’ai espéré à nouveau que ce soit un choc pour la société et les politiques. Il n’en a rien été. Selon Edouard Durand, coprésident de la Ciivise, le gouvernement n’a apporté aucune réponse aux quatre-vingt-deux recommandations présentées.
Je suis évidemment d’accord sur le fait qu’il faut lutter contre la cyberpédocriminalité. Il faut lutter contre la pédocriminalité tout court. Je suis surpris que l’Éducation nationale n’ait pas mis en place un grand plan sur le sujet – il ne s’agit pas le moins du monde d’incriminer les instituteurs et tous les personnels, qui ont déjà beaucoup à faire. Il faudrait missionner des psychologues, des infirmières et des médecins dans les écoles pour repérer les enfants qui présentent des troubles ou des symptômes, poser un diagnostic et les sortir de cette situation. Mais pour le moment, il n’y a qu’un grand silence. Cela a pourtant un coût pour la société – même si c’est irréductible à une question financière – quand on laisse des vies être durablement endommagées.
La lutte contre la pédocriminalité, notamment en ligne, devrait être rattachée au renforcement de la protection de l’enfance en général. Il est nécessaire d’avoir une véritable aide sociale à l’enfance, quand elle est aujourd’hui laissée à l’abandon, en déshérence, sans perspective.
Mme Colette Capdevielle, rapporteure. L’année 2020 devait être la grande année de la protection de l’enfance. Nous voyons ce que cela a donné : nos enfants ne sont pas protégés, ni à l’école, ni dans leur famille, notamment parce qu’Internet envahit nos vies. Or, comme vous l’avez dit, c’est l’inaction qui coûte cher. Il y a quelques jours encore, une petite fille de neuf ans s’est suicidée. La protection de nos enfants et de leur santé mentale doit être notre priorité et je vous rejoins sur la nécessité d’un grand plan en la matière.
C’est tout le sens de cette proposition de résolution européenne : donner l’alerte pour que nous nous donnions enfin les moyens d’agir. Il nous faut traquer les cyberpédocriminels pour les trouver et les poursuivre avant qu’ils ne passent à l’acte – car leurs agissements ne demeurent pas uniquement virtuels, contrairement à ce que certains prétendent. Nos enfants sont terriblement en danger.
Je vous remercie, Monsieur Ruffin, d’avoir rappelé ces chiffres qui m’avaient moi aussi profondément choquée. Nous partageons tous ici la conviction qu’il faut enfin prendre de véritables mesures. En continuant à ne rien faire, c’est comme si nous laissions les cyberpédocriminels au milieu de la cour de récréation.
M. Erwan Balanant (Dem). Chaque enfant porte en lui l’avenir de notre société : protéger chacun d’eux, c’est la promesse d’un avenir meilleur pour nous tous. Ministre des affaires sociales, de la santé et de la ville, Simone Veil disait que « notre société doit être davantage consciente de l’importance de l’enfance, de la place à lui réserver dans la vie de tous les jours, mais aussi dans les projets à long terme ». Alors que les abus sexuels sur mineurs et la cyberpédocriminalité explosent, alors que la prostitution des très jeunes mineurs s’aggrave également par l’entremise des messageries et de certaines plateformes, alors que plus de deux jeunes sur trois ont subi un préjudice sexuel avant leur majorité, les mots de Simone Veil sont malheureusement criants d’actualité et de vérité.
Il est donc urgent d’agir pour assainir notre écosystème. Le groupe Démocrates vous remercie, Madame la rapporteure, d’avoir été à l’initiative de cette proposition de résolution européenne qui appelle l’Union européenne à adopter un texte contraignant pour prévenir et combattre les abus sexuels sur mineurs en ligne. En toute logique, je pensais qu’elle serait adoptée sans difficulté. Mais la tribune publiée dans Le Monde par La France insoumise m’a conduit à douter que la volonté de protéger nos enfants soit véritablement partagée par tous. S’il est évident que nous avançons sur une ligne de crête entre protection des droits fondamentaux des enfants et protection de la vie privée – je sais que vous avez à cœur de maintenir cet équilibre, Madame la rapporteure –, nous ne pouvons que récuser ces mots : « C’est sous l’étendard de la protection des mineurs que les États membres de l’Union européenne s’apprêtent à faire un pas décisif vers une société de contrôle total. » Je rappelle que nous parlons d’enfants et de cyberpédocriminels.
Le règlement dérogatoire à la directive du 12 juillet 2002 « vie privée et communications électroniques », dite eprivacy, qui autorise les fournisseurs de services numériques à procéder volontairement à la détection de contenus pédopornographiques sur leurs plateformes, cessera de s’appliquer à compter du 3 avril prochain, autant dire demain. Face à l’urgence, la proposition de résolution européenne telle que Mme la rapporteure souhaite l’amender assure le meilleur équilibre qui soit pour protéger les plus vulnérables. Agissons, protégeons nos enfants, votons en faveur de ce texte.
Mme Colette Capdevielle, rapporteure. L'enfance est notre avenir. Merci d’avoir rappelé ce que disait Simone Veil. Vous faites état d'une tribune. Je ne partage pas tout ce qui y est dit mais c'est vrai que nous devons garantir un équilibre : protéger les données des internautes et les libertés individuelles tout en protégeant les enfants. Il faut donc donner les moyens aux plateformes de pouvoir assurer le travail nécessaire de détection. Espérons que cette proposition de résolution européenne poussera l'Union européenne à l’action. Il est temps de protéger l’enfance de manière pérenne, sans se cacher derrière le prétexte de la protection des libertés individuelles.
Mme Isabelle Rauch (HOR). Cette proposition de résolution européenne soulève la question de notre adaptation aux profondes transformations du paysage médiatique à l'ère du numérique, des plateformes et de l'internationalisation des contenus. Ceux qui connaissent mes engagements pour le droit des femmes, l'enfance et la jeunesse, ainsi que mes positions en matière de numérique, ne seront pas surpris. Je soutiens pleinement et co-signe cette proposition de résolution européenne qui vise à mieux protéger nos enfants sur les réseaux sociaux et dans leur vie numérique.
Le cadre actuel ne suffit plus. Chaque jour, des images insupportables circulent. Elles nous touchent déjà. Nous, en tant que femmes, en tant qu'adultes en général. Et c'est encore pire quand on sait que des enfants y sont aussi confrontés. Chaque jour, des mineurs sont exposés, harcelés, manipulés et, pendant ce temps, les réseaux pédocriminels ne connaissent pas de frontières. Notre réponse doit être à la même échelle. Elle doit être européenne.
La souveraineté numérique dont nous parlons souvent n'existe que si elle est construite entre États européens pour peser face aux réseaux cybercriminels, mais aussi face aux plateformes qui permettent la circulation de ces contenus. C'est tout le sens de mon engagement, notamment au sein des travaux parlementaires sur le numérique et la protection des mineurs via la commission d'enquête sur TikTok.
Nous n'avons plus le luxe d'attendre. Les jeunes ne peuvent plus être les cobayes de la dérégulation numérique. En tant que députée attachée à la souveraineté européenne, je suis aussi convaincue que nous devons cesser de dépendre d'organismes extra-européens pour la détection et le signalement des contenus pédopornographiques.
Je soutiens la création d'un centre européen de prévention et de lutte contre les abus sexuels sur enfants, pour mutualiser notre expertise, nos moyens et nos technologies. C'est une question d'efficacité, de souveraineté, mais aussi de dignité.
Dans le même temps, je suis toujours attentive à maintenir un équilibre : protéger nos enfants sans sacrifier nos libertés. Et c'est bien l'esprit de ce texte : protéger sans surveiller, responsabiliser, sans restreindre, agir efficacement sans céder à la facilité du tout technologique.
Soyons clairs, il ne s'agit pas d'empêcher le développement du numérique ni l'innovation : je suis convaincue que la technologie peut être une alliée à condition de mieux maîtriser l'intelligence artificielle, de soutenir la recherche, la détection et de renforcer la prévention et l'éducation aux usages en ligne.
Si nous parlons aujourd'hui spécifiquement de protection des enfants, pensons aussi aux femmes, aux adolescents, aux familles entières. Tous ont droit à un environnement numérique plus sûr. Ce combat pour la protection de l'enfance est en réalité un combat pour une société qui se respecte et respecte les droits de chacun.
Dans cet esprit, le groupe Horizon et indépendants votera en faveur de cette proposition de résolution européenne.
Mme Colette Capdevielle, rapporteure. Merci beaucoup pour vos propos. Vous insistez sur l’importance d’une réponse européenne pour vraiment pouvoir lutter contre les réseaux pédocriminels. Vous dites aussi que l’on n’a plus le luxe d'attendre. Je vous rejoins complètement sur l'équilibre à trouver entre la protection de l’enfance et la protection des libertés. À cet égard, la technologie doit devenir une alliée au service d’un monde numérique plus sûr.
M. Laurent Mazaury (LIOT). À chaque démantèlement de réseau, à chaque arrestation, à chaque condamnation pour pédocriminalité, nous constatons l'ampleur de ce phénomène qu'internet a permis à la fois de développer et de diversifier dans l'horreur.
En 2023, plus de 100 millions d'images et de vidéos à caractère sexuel impliquant des enfants ont été détectées en ligne. L’Union européenne n'est bien entendu pas épargnée et la condamnation de Bohlem Bouchiba en 2024, qui payait des femmes pour violer en streaming des centaines de petites filles âgées entre cinq et dix ans aux Philippines nous l'a clairement démontré.
Aujourd'hui les pédocriminels profitent de la vulnérabilité sociale et économique de personnes à l'autre bout du monde pour commettre des crimes atroces depuis leur téléphone ou leur ordinateur.
Pourtant, les réseaux sociaux et plateformes de messagerie privée ne luttent pas assez contre les contenus pédocriminels.
En mai dernier, un réseau pédocriminel qui échangeait sur Telegram a été démantelé. Pour le commissaire Quentin Bevan, chef du pôle opérationnel de l’Office central de lutte contre les violences faites aux mineurs (Ofmin), non seulement Telegram reste la plateforme privilégiée des pédocriminels, mais elle remplit à peine le minimum de ses obligations légales.
Sur ce sujet, j'ai d'ailleurs eu la surprise hier, comme beaucoup d'entre vous, de recevoir un message directement de Telegram – véritable ingérence étrangère – dénonçant une prétendue atteinte au droit à la vie privée par le vote du règlement dit « chat control », fustigeant le soutien de ce règlement par la France.
Comment peut-on supporter un tel message de la part de la plateforme créée par un sulfureux personnage lui-même sous le coup d'une procédure d'enquête, justement pour absence de modération et de coopération avec les forces de l'ordre pour des infractions qui pourraient le rendre complice de trafic de stupéfiants, de pédocriminalité et d'escroquerie ?
Il s'agit pour nous de répondre à une seule priorité claire et simple : protéger nos enfants.
Un autre exemple concernant cette fois-ci Instagram. Comme vous l'indiquez dans votre exposé des motifs, Mᵐᵉ la rapporteure, l’algorithme de ce réseau favorise automatiquement et sans contrôle des activités pédocriminelles.
Il est donc nécessaire d'intervenir à la fois vis-à-vis des plateformes mais également contre les réseaux pédocriminels eux-mêmes.
Il est urgent d'agir pour qu'un texte européen puisse enfin aboutir alors que certains pays sont réticents. Encore une fois, nous parlons ici de nos enfants.
Dans cette perspective, je voterai bien entendu cette proposition de résolution européenne.
Mme Colette Capdevielle, rapporteure. Merci beaucoup pour tout ce que vous venez de dire.
S'agissant des enfants des Philippines, la situation est terrible. Ce serait près d’un enfant ou adolescent sur quatre qui serait abusé sexuellement. Les cyber-pédocriminels peuvent acheter à la demande des viols parfois filmés en direct. C'est absolument effrayant.
Quand je dis qu'il faut protéger les enfants, il faut protéger tous les enfants : les enfants sont parfois auteurs, mais ils sont de toute façon toujours victimes parce que ce sont des enfants. Je crois qu'il faut bien garder cette ligne de conduite.
Je pense que dans le cadre de ce texte, nous avons trouvé un équilibre. Personne ne peut se satisfaire d'imaginer que des cyber-pédocriminels puissent continuer de commettre leurs infractions – parmi les plus graves du Code pénal – en toute impunité.
M. le président Pieyre-Alexandre Anglade. Nous en passons à l’examen de la proposition de résolution européenne
Amendement n° 6 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Dans un souci d’exhaustivité, cet amendement, inséré après l’alinéa 23, vise à compléter le dispositif parallèlement aux stratégies déjà énoncées – la nouvelle stratégie européenne pour un internet mieux adapté aux enfants et la stratégie en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants.
L’amendement n° 6 est adopté.
Amendement n° 7 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Il en va de même que pour le précédent, c'est un amendement de réécriture qui vise à mettre en évidence que si la protection des mineurs doit être donc une priorité absolue, elle ne peut se construire au détriment des libertés fondamentales ni à conduire à la mise en place d'un dispositif de surveillance de masse. Cela devrait permettre de rassurer ceux qui expriment des craintes à cet égard.
À défaut d'une solution technologique pleinement satisfaisante à ce jour et qui permettrait de concilier la détection automatique au respect de la vie privée, cet amendement vise à pérenniser la dérogation actuelle autorisant les signalements volontaires des plateformes en renforçant les obligations de mise en place de moyens, à hauteur de la menace.
L’amendement n° 7 est adopté.
Amendement n° 8 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Cet amendement est une insertion d'alinéa dont l’objectif est de faire pression sur l’Union européenne et d’alerter sur l'urgence à débloquer, au niveau européen, un texte contraignant pour prévenir et combattre les abus sexuels commis sur les enfants. Encore une fois, la date du 3 avril 2026 devrait nous alerter.
L’amendement n° 8 est adopté.
Amendement n° 9 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Dans le même esprit que le précédent, cet amendement vise à rappeler le contexte de blocage du dialogue institutionnel actuel. Depuis 3 ans, cela empêche le début des trilogues - entre la Commission, le Conseil et le Parlement - nécessaires à l’adoption d’un cadre légal.
L’amendement n° 9 est adopté.
Amendement n° 10 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Toujours dans le même esprit que les deux précédents, cet amendement a pour but de présenter le délai extrêmement restreint dans lequel les négociations devront se tenir : une période de 4 mois seulement. Nous considérons qu'il fallait souligner cette urgence.
L’amendement n° 10 est adopté.
Amendement n° 11 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Dans le même esprit que les trois précédents, cet amendement permet de constater le contexte d'urgence dans lequel le vote de cette résolution s'inscrit.
L’amendement n° 11 est adopté.
Amendement n° 12 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Cet amendement de réécriture vise à proposer un compromis, avec la plus grande diligence, en s'alignant sur la position du Parlement européen, pour dépasser l'impasse dans laquelle se trouvent les dialogues avec la Commission. L'urgence absolue est la date butoir du 3 avril 2026.
Évidemment, l'amendement n'exclut pas la reprise des discussions pour les années à venir sur la base de nouveaux éléments techniques.
L’amendement n° 12 est adopté.
Amendement n° 13 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Cet amendement vise à rappeler la position du Parlement européen de novembre 2023. Il avait indiqué son opposition à toute surveillance de masse tout en soutenant la mise en place d'une stratégie plus ambitieuse pour protéger les enfants, en ligne comme hors ligne.
L’amendement n° 13 est adopté.
Amendements n° 14 de la rapporteure et n° 4 de M. Alexandre Sabatou (discussion commune)
Mme Colette Capdevielle, rapporteure. Cet amendement vise à annuler la demande d’élargissement des compétences du parquet européen car un préjudice financier minimum de 10 millions d’euros porté à l’UE conditionne sa compétence. Malheureusement, dans ces cas, le parquet européen ne peut pas être compétent. Cela devra faire l'objet de nos réflexions ultérieures.
M. Alexandre Sabatou (RN). La lutte contre la cyberpédocriminalité exige une coopération européenne renforcée. Mais celle-ci doit s'exercer dans le respect du cadre institutionnel existant et de la souveraineté pénale des États membres. Le présent amendement rappelle que les outils actuels de coopération judiciaire et policière, notamment Europol et son centre européen de lutte contre la cybercriminalité (EC3) offre déjà un cadre efficace pour coordonner les enquêtes transfrontalières, partager le renseignement criminel et appuyer les autorités nationales.
Madame la rapporteure, nous n'avons pas une vision franco-française. Nous défendons la souveraineté française, mais nous acceptons de travailler en bonne intelligence avec nos voisins européens pour lutter contre ce sujet. Il nous semble, au Rassemblement national, que l'Union est déjà une machine à gaz et donc qu'il ne faudrait pas en rajouter.
Mme Colette Capdevielle, rapporteure. Sur l’amendement n° 4, c’est un avis défavorable. J'ai modifié le texte : j'ai exclu, pour les raisons que je viens d'expliquer, la question de l'élargissement des compétences du parquet européen.
Le centre évoqué ne s'occupe que de cybercriminalité et Europol ne s’occupe pas de cyberpédocriminalité. Or, l’objectif de ce nouveau centre est de se consacrer uniquement à ce champ.
L’amendement n° 14 est adopté.
En conséquence, l’amendement n° 4 tombe.
Amendement n° 15 de la rapporteure.
Mme Colette Capdevielle, rapporteure. Cet amendement de réécriture vise à actualiser le texte de la proposition pour y faire apparaître le respect du droit de la vie privée comme une nécessité légitime dès le début du dispositif. Cela devrait rassurer mes collègues du Rassemblement national.
L’amendement n° 15 est adopté.
Amendements n° 20 de M. Alexandre Sabatou et n° 16 de la rapporteure (discussion commune).
M. Alexandre Sabatou (RN). J'aimerais revenir sur le chat control, car comment peut-on défendre que l'Union européenne utilise une IA pour scanner nos conversations privées ?
Le projet du chat control permettrait à une autorité européenne de contraindre les messageries à installer des technologies de balayage sur nos propres appareils avant même l'envoi de nos messages. Email, photos, fichiers, tout deviendrait potentiellement accessible. Ce serait un basculement historique où chaque citoyen deviendrait un suspect. Nous passerions d'un contrôle judiciaire ciblé à une surveillance automatisée et permanente. Autrement dit, on remplacerait la mise sur écoute d'un individu suspect par l'installation de micros dans tous les foyers d'Europe. Et ceux qu'on prétend traquer trouveront aussitôt d'autres moyens de communication.
Au-delà de ce principe, les experts tirent également le signal d'alarme. Car pour scanner des conversations chiffrées, il faudrait introduire des back doors qui rendraient tous les systèmes vulnérables. Et ces brèches seraient ensuite exploitables, non seulement par les autorités, mais aussi par des États hostiles et des cybercriminels. Nous disposons déjà d'un système, d'un arsenal juridique pour signaler, retirer, poursuivre avec l'autorisation d'un juge de façon ciblée.
L'urgence n'est pas de scanner des milliards de messages privés, mais, comme vous l'avez dit précédemment, Madame la rapporteure, c'est de donner à nos services les moyens humains et techniques d'enquêter efficacement pour renforcer la coopération internationale et de protéger réellement les victimes.
Je rappelle, ce projet de chat control n'est pas une politique de protection, c'est une dérive de surveillance qui, s'il était adopté, signerait la mort de la vie privée et de la liberté d'expression en Europe.
Mme Yaël Ménaché (RN). Nous partageons tous sur ces bancs la même préoccupation : protéger nos enfants des dérives d’internet et lutter contre la cyberpédocriminalité. Toutefois, cette PPRE présente plusieurs incohérences. La lutte contre la cyberpédocriminalité ne peut pas devenir un prétexte à l’instauration d’une société de surveillance généralisée. Les fautes commises par une minorité ne peuvent suffire à l’édification d’une société de défiance. L’Assemblée nationale a voté la loi du 7 juillet 2023 visant à instaurer une majorité numérique et à la lutter contre la haine en ligne, texte soutenu par la majorité. Cette loi avait justement pour objet d’encadrer l’usage des réseaux sociaux par les mineurs, d’imposer des obligations de vérification d'âge et de renforcer la protection parentale. Pourtant plus d’un an après sa promulgation, aucun décret d’application n’a été publié ! Avant de multiplier les PPRE ne devrions-nous pas plutôt nous assurer de la bonne application de nos lois ? Par ailleurs, nous nous opposons à l’extension des compétences du parquet européen à la lutte contre la cyberpédocriminalité. Rappelons que le règlement (UE) 2017/1939 instaure un parquet européen dont les compétences se limitent aux infractions portant atteinte aux intérêts financiers de l’Union européenne. Aussi, élargir ses compétences à des crimes de droit commun tel que la pédocriminalité impliquerait une révision des traités, ce qui porterait atteinte à la souveraineté pénale des États membres. Europol dispose déjà d'un centre spécialisé capable d'assurer la coopération entre la police et les magistrats sans que cela ne nécessite de modifier l'équilibre institutionnel européen.
En outre, il importe d’interroger la responsabilité parentale. En effet, lorsqu’un enfant est victime de cyberpédocriminalité, il ne suffit pas seulement d’interroger la responsabilité des plateformes, mais également d’interroger la vigilance des parents ainsi que celle de l’encadrement familial. Renforcer la prévention, c'est en premier lieu redonner aux parents le devoir de protéger leurs enfants dans l'espace numérique.
Toutefois, nous voterons ce texte : le sujet est bien trop important pour ne pas prendre en compte chaque initiative parlementaire. Néanmoins, nous restons sans illusion quant à son efficacité.
Mme Colette Capdevielle, rapporteure. Concernant l’instauration d’une surveillance généralisée, vous êtes la seule, à mon sens, à l’avoir vue dans cette proposition de résolution européenne. Nous avons, justement, pris le soin tant dans la rédaction de la PPRE que dans celle des amendements de préserver la question de la protection des données et des libertés individuelles. Il n’est aucunement question de mettre en place une surveillance, comme vous le dites, généralisée. Nous avons des lois, un arsenal législatif, mais qui s’avère insuffisant lorsque l’on se réfère à l’intelligence artificielle, ce qui nécessite d’aller plus loin.
Concernant le caractère transfrontière du phénomène de la cyberpédocriminalité, une coopération européenne est nécessaire notamment pour nos magistrats. Il est donc nécessaire de leur donner des outils pour pouvoir contrôler, interpeller et poursuivre les auteurs de ces infractions. Aussi, nous ne pouvons pas, je sais que vous appartenez au groupe Rassemblement national, raisonner sur ce sujet dans un cadre uniquement franco-français. Je vous demande d’ouvrir un peu les yeux et les oreilles, pour comprendre qu’aucune lutte ne peut être efficace si elle ne se fait pas au niveau européen. Cela ne porte en aucun cas atteinte, soyez tranquilles, à la souveraineté pénale française ni à celle des autres États membres.
Concernant la responsabilité parentale, sérieusement, Madame, regardez les chiffres ! Pensez-vous sérieusement qu'un parent peut rester 24 heures sur 24 derrière son enfant pour assurer ce contrôle parental ? Vous savez bien que les parents ne passent pas l’entièreté de leur journée avec leur enfant ! Nous sommes donc d’accord sur la nécessité de la prévention, de l’éducation et d’une responsabilité collective.
Sérieusement, vous savez très bien que la véritable responsabilité se trouve en premier lieu chez ceux qui produisent ces contenus pédocriminels. Ensuite, il importe de rappeler, la responsabilité des plateformes, Madame, avant de rappeler la responsabilité parentale.
Mme Ayda Hadizadeh (SOC). Je souhaite partager mon étonnement : les chiffres s’avèrent vertigineux. Les faits ne peuvent plus être qualifiés de divers tant ils sont sordides et nombreux. Et les coûts sont désormais connus. Et pourtant, rien ne se passe, ou si peu. Il n’y a pas de véritable prise de conscience collective et surtout une absence de prise de conscience politique. Grâce aux femmes, et notamment aux associations féminines, nous avons eu le mouvement « Me Too », qui a fait prendre conscience tant à la société qu’au monde politique qu’il ne pouvait plus en être comme avant. Et pourtant, pour les enfants, il en est toujours ainsi. Sans vouloir entrer dans la surenchère victimaire, la catégorie de personnes subissant le plus de violence, ce ne sont ni les femmes, ni les personnes noires ou racisées, ni les personnes LGBTQIA+, mais les enfants, et ce, à grande échelle et depuis toujours. Tant que collectivement nous ne nous pencherons par sur ce fait, la violence perdurera. Les pédocriminels dont on parle ne sont pas des monstres, ils ne sont pas monstrueux en eux-mêmes, mais ils le sont devenus parce qu’eux-mêmes ont été abusés dans l’enfance. Un enfant violenté, acceptez de le regarder en face, tous les faits divers le montrent, un enfant violenté deviendra soit violent, soit retournera la violence contre lui. Ce sont des faits.
D’après vous certains enfants naîtraient monstrueux, seraient monstrueux, par essence ? C’est tout à fait délirant ! Les sauvageons n'existent pas. Les sauvageons sont le fruit de l’éducation ou plus précisément du manque d'éducation de leurs parents. Sur ce point, je vous rejoins : il existe une responsabilité des parents.
Il y a des parents défaillants, il y a des parents maltraitants. Mais si on veut y mettre un terme, c'est à nous d'agir, en tant qu’hommes et femmes politiques ! Or la politique de protection de l'enfance est un champ de ruines !
Nous ne pouvons pas ne pas être d'accord là-dessus ! Nous avons un ministre en charge de la Francophonie. Où se trouve le ministre d’État en charge de la protection de l'enfance ? C'est un scandale !
Cette absence devrait tous nous alerter, et pas uniquement les membres siégeant sur les bancs des oppositions. La majorité devrait demander à avoir un ministre d’État, chargé de la protection de l’enfance. Vous devriez joindre votre voix à la nôtre !
Je ne suis pas au pouvoir, mais si j’y étais, je le demanderais ce ministère d’État !
Je vous remercie, Madame la rapporteure, de porter une telle résolution que nous saluons et soutenons. Il nous faut protéger les enfants sans sacrifier les libertés, car l’essence même de la loi, c’est la protection et la liberté. Nous devons pérenniser la détection volontaire, renforcer les moyens humains et financiers et créer le centre européen de prévention et de lutte contre les abus sexuels sur les enfants que vous préconisez. Nous nous y prenons tard, aussi est-il grand temps de le mettre en œuvre !
Mme Colette Capdevielle, rapporteure. Ma chère collègue, depuis le début de votre mandat, vous vous êtes toujours fait la défenseure des enfants.
Vous appelez à un « Me Too de l'enfance », et vous avez raison. Vous appelez également à un ministère d’État pour protéger les droits de l'enfant. Au moment-même où je me posais la question de la poursuite de ce travail, je m’interrogeais sur la pertinence d’aller voir le ministre du numérique ou de l’Intérieur ou de la Justice.
En fait, je me posais exactement la même question que vous. Il existe un ministre des Droits des femmes, mais aucun ministère des droits des enfants, preuve s’il en est qu’on les a oubliés, alors, qu’effectivement, ils sont les premières victimes. Je vous remercie pour la qualité du témoignage de votre intervention.
M. Arthur Delaporte (SOC). Poser ce sujet à l’échelle européenne nous incite à penser les effets du numérique à l’échelle globale. En effet, l’exploitation des enfants en France peut se traduire par de l’exploitation sexuelle d’enfants à l'autre bout du monde. On occulte bien trop souvent ces systèmes d'interdépendance, en ne se préoccupant que de la situation des enfants français. Or, ce sont les enfants du monde entier qui sont concernés.
J’ajouterai à vos propositions, une réflexion qui m’est propre. L’un des constats de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs, c’est qu’en l’absence de modération des plateformes ne respectant pas leurs obligations à l'égard du Digital Service Act (DSA), il est nécessaire de prendre des sanctions, tant l'ampleur des phénomènes constatés est évidente. Je dirais juste qu'il faut un mécanisme de pollueur-payeur.
Qu’en pensez-vous ? Cela permettrait notamment de financer la mise en place de signaleurs de confiance indépendants des plateformes pour mieux procéder aux demandes de retrait de contenu.
Mme Colette Capdevielle, rapporteure. Votre travail lors de la commission d'enquête sur les effets psychologiques de TikTok sur les mineurs était remarquable. Vos propositions, dont celle-ci, sont extrêmement intéressantes. Je partage votre point de vue : ceux qui sont à l'origine de ces exactions, qui en tirent des profits extraordinaires en facilitant la diffusion d'images pédopornographiques, doivent effectivement payer la facture. Je vous remercie également d’avoir rappelé que cette question concerne tous les enfants du monde, et que lorsque l’on parle de protection de l’enfance, cela ne peut pas s’arrêter à l’hexagone.
Mme Colette Capdevielle, rapporteure. C’est un avis vraiment défavorable. Je suis quand même un peu surprise parce que, d’un côté, vous semblez vous inquiéter de la cyberpédocriminalité, et puis vous proposez finalement la suppression de la partie du texte qui est sûrement la plus importante, celle qui vise justement à se doter de tous les moyens de lutter contre elle. Je finis par douter de la sincérité initiale de votre propos, puisque vous voulez supprimer du texte ce qui, finalement, est le plus important.
Nous ne pouvons pas nier la responsabilité des plateformes : ce sont elles qui doivent mettre en place la stratégie de modération adaptée pour défendre les droits fondamentaux de nos enfants. Je suis donc un peu étonnée par votre manière de voir les choses.
Je proposerai donc avec l’amendement n° 16 de compléter le texte de la résolution à l’aune des dernières actualités du Conseil de l’Union européenne, notamment le nouveau report du vote avant-hier, après la décision de la présidence danoise de le reprogrammer encore en décembre, alors qu’il devait avoir lieu le 14 octobre. Nous n’avons donc que quatre mois entre l’éventuel déclenchement des trilogues et l’expiration du délai. Je souhaite donc porter cet amendement pour compléter le texte initial.
M. Alexandre Sabatou (RN). Je ne comprends pas, parce qu’il me semble quand même que nous partageons le constat : vous le dites depuis toute à l’heure dans vos amendements, vous essayez de nous rassurer sur cet aspect-là, puis vous faites un raccourci honteux — excusez-moi — en disant que nous ne voulons pas lutter contre la cyberpédocriminalité.
Je suis ingénieur de formation, je sais que la technique n’intéresse pas beaucoup de monde ici, je le regrette, mais c’est mon devoir d’alerter : des experts nous expliquent qu’un dispositif de ce type crée des failles de sécurité qui permettent la surveillance de masse. À un moment, c’est un système orwellien qui est en train de se mettre en place.
J’aimerais ajouter quelque chose : on ne va jamais, même avec l’IA, contrôler des milliards et des milliards de fichiers de conversation. Et, comme je vous l’ai dit, les cyberpédocriminels vont trouver des solutions alternatives extrêmement facilement, avec des VPN ou je ne sais quoi. Donc, encore une fois, on sort le bazooka alors qu’il faudrait quelque chose de beaucoup plus ciblé et qui n’atteigne pas la liberté de chacun.
L’amendement n° 20 n’est pas adopté.
L’amendement n° 16 de la rapporteure est adopté.
Amendement n° 17 de la rapporteure
Mme Colette Capdevielle, rapporteure. C’est également un amendement de réécriture, pour rappeler que le compromis figurant dans la position du Parlement européen de novembre 2023 avait clairement indiqué son opposition à toute surveillance de masse et sa volonté de protéger le chiffrement de bout en bout, tout en appelant au développement d’une stratégie plus efficace pour protéger les enfants en ligne. L’enjeu est double : protéger les enfants dans un environnement numérique en pleine mutation, tout en garantissant les droits fondamentaux — respect de la vie privée et protection des données.
L’amendement n° 17 est adopté.
Amendement n° 2 de M. Alexandre Sabatou
Mme Yaël Ménaché (RN). La multiplication des affaires de pédocriminalité en ligne appelle à renforcer non seulement la répression des auteurs, mais aussi la prévention des situations de vulnérabilité dans lesquelles se trouvent les enfants.
Le présent amendement vise à instaurer une évaluation systématique parentale lorsqu’un mineur est victime d’un acte de pédocriminalité en ligne. Il s’agit d’analyser les circonstances ayant conduit à la vulnérabilité de l’enfant, afin de renforcer la prévention. Cette démarche ne tend pas à culpabiliser les parents, mais bien à favoriser une prévention active et responsable, en s’assurant que les mineurs bénéficient d’un environnement familial responsable.
Elle permet également aux autorités judiciaires et aux acteurs du numérique d’éviter que des situations de négligence ne conduisent à de nouveaux drames. En plaçant la vigilance parentale au cœur de la protection des enfants, cet amendement rappelle que la prévention des crimes pédocriminels commence dans le foyer.
Mme Colette Capdevielle, rapporteure. C’est un avis défavorable. Mais vous ne comprenez pas l’ampleur du phénomène et vous venez de dire : « c’est sûrement la faute des parents, il faut les responsabiliser ».
Nous sommes tous d’accord ici pour signaler l’ampleur d’un phénomène de masse. Et vous, ce que vous répondez, c’est que la priorité, c’est de responsabiliser et punir les parents, parce que, bien évidemment, ce serait leur faute. Franchement, j’ai lu votre amendement et je me suis dit qu’il reflète une idéologie rétrograde. Vous êtes restés au XIXᵉ siècle. Tous nos enfants, Madame, sont en danger, réellement. Et vous pensez que la priorité, c’est d’aller punir ? Mais c’est exactement une enquête sur la responsabilité des parents ! Vous savez quel est le travail du juge des enfants aujourd’hui ? Vous vous rendez compte de ce que vous dites ? Mais vous êtes complètement à côté de la plaque !
Mme Yaël Ménaché (RN). Non, moi je ne suis pas à côté de la plaque, Madame. Vous n’avez pas compris l’ampleur du phénomène.
M. Alexandre Sabatou (RN). Écoutez, Madame la rapporteure, on peut éviter de rentrer dans des caricatures grotesques. On parle de responsabilité des parents ; et là, l’enquête vise à déterminer s’il y a des frères, des sœurs… C’est la responsabilité des parents de protéger leurs enfants pour qu’ils ne se fassent pas agresser ou violer, peu importe.
Mais, dans le cas cyber, est-ce normal qu’un enfant de dix ans ait accès à un smartphone et à Internet pour discuter avec des inconnus ? Personnellement, je trouve cela anormal. C’est une proposition : nous sommes d’accord pour estimer que c’est un fléau, mais, à un moment, il faut responsabiliser. Les parents doivent s’occuper de leurs enfants ; c’est quand même la base.
M. François Ruffin (EcoS). Ce que vous décrivez là, Madame la rapporteure, c’est une industrie : une industrie en ligne, une industrie numérique, une industrie qui est en train de se débrouiller face à ce monstre organisé. On laisse des parents isolés se débrouiller en face-à-face avec ça, et vous dites « on les responsabilise ». Mais la vérité, c’est qu’on les culpabilise. Là où vous nous dites qu’il y a des enfants victimes, la victime demande d’abord la protection de la loi contre cela. Les parents sont des co-victimes. N’importe quel parent qui sait que son enfant regarde ça, ou qu’il y a des images de son enfant sur les réseaux sociaux, se sent victime lui aussi. On ne doit pas croire que c’est facile pour un parent d’adolescent - et je sais que ça ne l’est pas pour moi – de savoir ce qu’il fait avec un smartphone. Ce que vous devriez demander, c’est l’appui de la loi pour lutter contre ce phénomène de masse.
M. François Ruffin (EcoS). Moi-même je sais que ce n’est pas facile, comme parent d’adolescents, je ne sais pas toujours ce qu’ils font avec leur téléphone portable. Il n’est pas vrai que nous soyons constamment derrière eux, et il est normal d’avoir des inquiétudes. Ce qui est demandé, c’est que la loi puisse les appuyer pour lutter contre ce phénomène de masse.
Mme Ayda Hadizadeh (SOC). Merci, Monsieur le président. Je vais essayer de vous faire comprendre, par un parallèle, à quel point la situation actuelle n’est pas à la hauteur. Nous faisons face à une épidémie d’obésité chez les enfants. Ce sont les parents qui achètent et cuisinent pour les enfants. Faut-il en conclure que les enfants obèses c’est de la faute des parents ? Faut-il les punir ? Jusqu’où faut-il aller ? L’essence même de la loi, c’est de mettre la force et la protection au service de ceux qui sont en danger. Oui, certains parents exploitent l’image de leurs enfants sur Internet et les prostituent : cela existe, c’est une minorité, et ils doivent être condamnés. Mais la grande majorité des parents sont démunis. Les criminaliser ne sert à rien. Même les pointer du doigt ne sert à rien. Ce que ces parents demandent, c’est que la loi soit de leur côté. Je porterai, avec un collègue du groupe Horizons, une proposition de loi transpartisane visant à interdire les smartphones débridés tels qu’on les connaît aujourd’hui pour les enfants de moins de 15 ans. Ce n’est pas pour pénaliser les parents, mais pour leur permettre de dire à leurs enfants : « Tu vois, c’est interdit par la loi, je ne t’en achèterai pas. » Aujourd’hui, il n’existe pas d’alternative. La loi doit créer des repères pour que les parents puissent bien éduquer leurs enfants. La majorité d’entre eux veulent bien faire. Mon rôle, comme mère, n’est pas de fliquer mes enfants : je veux pouvoir les laisser jouer dans la rue sans craindre qu’ils soient en danger. Nous devons choisir dans quelle société nous voulons vivre. Dans une société où, même tard le soir, lorsqu’ils n’ont pas école le lendemain, on peut les laisser jouer dehors sans craindre qu’ils se fassent enlever par un pédophile. C’est dans cette société-là que nous voulons vivre. La loi doit protéger, pas culpabiliser. Mettons la force publique du côté des parents bienveillants.
M. Jocelyn Dessigny (RN). Chers collègues, je pense qu’il y a beaucoup de caricatures qui sont faites sur un sujet qui est éminemment important et qui devrait tous nous rassembler. Mme la députée, vous venez de nous expliquer qu’on est à côté du bon sujet. Mme la rapporteure, vous nous invectivez depuis tout à l’heure en disant qu’on est à côté de la plaque ; je ne vois pas pourquoi on ne pourrait pas, d’un côté, lutter contre l’industrie – que certains dénoncent et que nous dénonçons tous – sur la pédocriminalité, et de l’autre, on ne pourrait pas également prendre le problème sur le terrain, au plus proche du foyer, là où l’enfant a eu accès en premier à ces contacts, à ces images pédopornographiques. Je ne vois pas en quoi l’un s’oppose à l’autre. Nous, on ne veut pas opposer l’un à l’autre. On ne dit pas : il ne faut pas lutter contre l’industrie de la pédopornographie. On dit simplement que, là où l’enfant a été en premier lieu mis en contact avec des pédocriminels, il faut analyser la situation quand elle est connue pour éviter que ses frères, ses sœurs et d’autres enfants puissent être également, eux-mêmes, dans cette situation-là. Il y a deux ans, on a voté une loi concernant l’interdiction d’accès des enfants mineurs à certains sites. Pourquoi elle n’est toujours pas appliquée ? Vous nous dites qu’il faudrait qu’il y ait un ministère de la protection de l’enfance. Mais quand les socialistes étaient au gouvernement, vous ne l’avez pas fait non plus. Vous siégez à côté de François Hollande à l’Assemblée ; pourtant, il a été Président de la République, et il ne l’a pas fait. Je veux dire : à un moment, il faut arrêter de se cacher et nous dire « il faudrait faire ci, il faudrait faire ça ». Quand vous avez été aux commandes, vous ne l’avez pas fait. Si nos enfants ne sont pas protégés aujourd’hui, c’est un peu aussi de votre responsabilité.
Mme Colette Capdevielle, rapporteure. On est tous d’accord pour dire qu’il y a une criminalité massive qui échappe au cadre pénal. C’est-à-dire qu’aujourd’hui, on a des criminels, des délinquants, qui commettent des infractions et qu’on n’arrive pas à poursuivre. Ça, c’est une réalité. C’est une criminalité de masse. On a, à côté de ça – et c’est une réalité incontournable, vous ne pouvez pas dire le contraire – entre cinq, six et sept écrans dans chaque famille. Nos foyers, sont multi-équipés d’écrans et les enfants y ont accès. Ça, c’est aussi une réalité. J’ai, par ailleurs, d’autres chiffres : deux jeunes sur trois – ça fait 68 % – des enfants – les vôtres, les miens – ont subi un préjudice sexuel en ligne avant leurs 18 ans. C’est la réalité des chiffres en France. Quatre jeunes sur cinq – ça fait 79 % – ont reçu du contenu sexuellement explicite en ligne, sur leur téléphone mobile. C’est-à-dire que si un enfant va faire une recherche sur Van Gogh, il peut tomber sur un endroit pas possible en Hollande. Et vous, vous dites : il va falloir faire une enquête. Alors, on ne sait pas qui va faire l’enquête : la gendarmerie ? la police ? On ne sait pas. Moi, j’aurais préféré que vous déposiez des amendements pour responsabiliser ceux qui font de l’argent là-dessus, c’est-à-dire les plateformes en ligne. Vous, vous préférez culpabiliser les parents, et vous préférez envoyer un signal à la société qui est dramatique. Parce que, bien sûr que les parents veulent protéger les enfants. Tous les parents veulent protéger leurs enfants. Mais aujourd’hui, comme vous et comme moi, ils sont dépassés par ce phénomène et ils font appel à nous pour les aider et pour les accompagner, non ? Je vous redis ce que je vous ai dit tout à l’heure : je trouve vraiment cet amendement inadapté, et je vous demande vraiment de le retirer. Et je donne, autrement, bien sûr, un avis défavorable.
L’amendement n° 2 n’est pas adopté.
Amendements n° 3 de M. Alexandre Sabatou et n° 18 de la Rapporteure (discussion commune).
M. le président Pieyre-Alexandre Anglade. Nous avons maintenant deux amendements en discussion commune, en commençant par l’amendement n° 3 de M. Alexandre Sabatou.
Mme Sylvie Josserand (RN). Je vais défendre cet amendement de rédaction. Il vise à remplacer le mot « exige » par le mot « invite à ». Puisque l’article 34-1 de notre Constitution autorise notre Assemblée à présenter une résolution, il convient de rappeler qu’une résolution est un acte par lequel l’Assemblée exprime un avis. Elle ne peut donc pas imposer quoi que ce soit au gouvernement ; elle peut seulement l’inviter à agir.
Mme Colette Capdevielle, rapporteure. Vous avez raison chère collègue. Mais je vous propose de retirer votre amendement puisque mon amendement n° 18 a le même objet et vise justement à remplacer le mot « exige » par le mot « sollicite », qui me paraît correspondre mieux. Sinon avis défavorable.
L’amendement n° 3 n’est pas adopté.
L’amendement n° 18 est adopté.
Amendement n° 1 de M. Alexandre Sabatou
Mme Yaël Ménaché (RN). Cet amendement vise à remplacer le mot « famille » par le mot « parents ». Et ce n’est pas seulement, comme on l’a déjà expliqué, une question de champ lexical ; c’est surtout, comme vous l’avez souligné Mme la rapporteure, que les parents sont souvent dépassés par toutes ces technologies. L’objectif, c’est de faire de la prévention justement parce qu’ils sont dépassés, et qu’il faut aider les parents. On ne peut pas laisser un enfant devant un écran en permanence sans savoir où il va, ce qu’il fait et avec qui il échange. Il convient donc de responsabiliser les parents et de mener un vrai travail de prévention. Évidemment, il faut, en parallèle, poursuivre toutes ces plateformes — il n’est pas question de ne pas le faire, bien sûr qu’il faut les poursuivre — mais, parallèlement, ce que nous souhaitons, c’est renforcer la prévention, pour que les parents puissent justement surveiller et exercer un contrôle sur ces écrans et ces plateformes, aujourd’hui totalement ouvertes à tout et à tous, malgré la loi que nous avions votée en 2023, qui — je le rappelle — n’a toujours pas été appliquée.
Mme Colette Capdevielle, rapporteure. Avis défavorable. Il vaut mieux conserver un cadre plus large, le mot « famille » étant plus englobant.
Mme Sophie Taillé-Polian (EcoS). Simplement pour redire ce que certains de mes collègues ont déjà exprimé : nous ne voudrions pas que, dans ce texte, l’État – et plus largement la puissance publique, au niveau européen – se dédouane de ses responsabilités. Or, ces responsabilités consistent précisément à réguler les plateformes pour combattre ce qui s’y développe, notamment la cyberpédocriminalité. Il faut que la puissance publique assume pleinement son rôle. Tout ce qui consiste à dire « cela relève de la sphère familiale » revient, en réalité, à autoriser l’État à se défausser de ses devoirs.
Nous le savons : nos téléphones, les multiples écrans présents dans tous les foyers de notre pays, ne peuvent pas être maîtrisés en permanence. Pourquoi ? Parce qu’ils sont conçus pour ne pas l’être. Les plateformes sont faites pour créer de l’addiction, pour que l’on ait envie d’y aller et d’y retourner. Elles sont pensées pour capter l’attention et attirer nos enfants. C’est donc bien elles qu’il faut empêcher, réguler, entraver dans leurs démarches commerciales, qui laissent ensuite tout échapper. La responsabilité première incombe à la puissance publique. Il ne faut pas chercher à la décharger de cette responsabilité en la reportant sur les familles ou les parents.
M. Alexandre Sabatou (RN). Chers collègues, encore une fois, il ne s’agit pas de remettre en cause la nécessité d’intervenir auprès des plateformes. Mais on peut agir des deux côtés. Si l’on aide les parents à comprendre les phénomènes pour mieux protéger leurs enfants, il y aura moins de victimes. Dans ce cas, on agit à la fois sur la protection et sur la sanction : on protège les enfants, puis on poursuit les plateformes. Aujourd’hui, il y a d’ailleurs des parents qui maîtrisent mieux le numérique, ce qui n’était pas le cas quand j’étais plus jeune. Alors, un petit coup de main ne ferait pas de mal. Cela permettrait, encore une fois, d’intervenir des deux côtés afin de réduire le nombre de victimes parmi les enfants.
L’amendement n° 1 n’est pas adopté.
Amendement n° 19 de la Rapporteure
Mme Colette Capdevielle, rapporteure. Cet amendement vise à souligner que le premier obstacle à la lutte contre les abus sexuels sur les mineurs réside dans l’insuffisance des moyens humains et matériels alloués aux services compétents, notamment à l’OFMIN, aujourd’hui confronté à une véritable saturation. Ils n’y arrivent plus : ils ne peuvent pas traiter tous les signalements. Le volume est considérable. Ils sont totalement submergés par le nombre de signalements qu’ils reçoivent, notamment de la part des plateformes, mais aussi du centre américain de référence. Cet amendement vise donc à demander la mise en place de moyens humains et financiers supplémentaires, afin de soutenir et de protéger nos enquêteurs. Lors de leur audition, ils nous ont fait part de la grande difficulté qu’ils éprouvent à constater qu’ils ne parviennent plus à faire face à la charge de travail. Cette situation est extrêmement éprouvante sur le plan professionnel, et ils nous ont adressé un véritable appel à l’aide pour obtenir les moyens nécessaires à l’accomplissement de leur mission.
L’amendement n° 19 est adopté.
Amendement n° 5 de M. Alexandre Sabatou
M. Alexandre Sabatou. Comme certains collègues l’ont rappelé précédemment, la loi n° 2023-566 du 7 juillet 2023 a instauré une majorité numérique et renforcé la régulation des plateformes en ligne afin de mieux protéger les mineurs et de lutter contre la haine sur Internet. Cependant, nous avons constaté qu’aucun décret d’application n’avait été publié plus d’un an après son adoption, rendant ce texte inopérant dans les faits. Cet amendement vise donc à rappeler au gouvernement ses obligations réglementaires pour garantir la pleine mise en œuvre de cette loi, qui constitue un instrument central de prévention contre l’exposition des enfants aux contenus illicites et aux dérives du numérique. Et, avant d’élaborer une nouvelle résolution européenne, il serait souhaitable de commencer par appliquer les textes nationaux déjà votés. Madame la Rapporteure, un avis défavorable serait difficile à comprendre, car cette proposition va clairement dans le bon sens.
Mme Colette Capdevielle, rapporteure. Avis défavorable même s’il porte sur un point quelque peu hors sujet. Encore une fois, vous utilisez vos amendements pour vous en prendre, une fois de plus, à votre éternel cheval de bataille : l’Union européenne. Vous revenez systématiquement sur le terrain national, en négligeant la question essentielle de la sécurité juridique et du risque de contentieux qui pèse sur la France en cas de non-conformité. C’est pourquoi, en définitive, mon avis est défavorable.
Mme Constance Le Grip. Très clairement, et vous le savez, puisque vous l’avez vous-même mentionné dans votre exposé des motifs, la France, la représentation nationale ainsi que l’exécutif étaient en attente de la publication, par la Commission européenne, de lignes directrices permettant d’établir la compatibilité ou la conformité d’une législation nationale en la matière — notamment sur la majorité numérique — avec le droit européen en vigueur. Ces lignes directrices n’ont été publiées qu’à la fin de l’été. Elles permettent désormais de considérer qu’une législation nationale peut pleinement s’inscrire dans le cadre juridique européen, et qu’il est donc tout à fait possible de mettre en place, si on le souhaite, des dispositifs nationaux dans ce domaine. Je ne doute pas que la nouvelle ministre chargée du numérique sera très attentive à ce point et que les décrets d’application seront rapidement pris, puisqu’il est désormais clairement établi que nous pouvons disposer d’une législation nationale parfaitement compatible avec le cadre juridique européen, cadre que nous entendons, bien sûr, maintenir.
M. François Ruffin. Pour ma part, je ne vois pas comment m’opposer à la publication de décrets, dès lors qu’une loi a été votée sur la majorité numérique. Je souhaite d’ailleurs établir un lien entre les deux textes que nous avons examinés cet après-midi. Le premier, relatif à l’accord entre l’Union européenne et les États-Unis, soulève en effet de manière centrale la question du numérique. Les États-Unis exercent, pour l’essentiel, une pression sur l’Union européenne, et sur la France en particulier, afin que nous ne régulions pas les plateformes numériques, que nous laissions les GAFAM intervenir dans de nombreux domaines. C’est exactement ce que fait aujourd’hui le Rassemblement national lorsqu’il invoque la liberté d’expression pour s’opposer à toute régulation. Or, cette invocation est un véritable cheval de Troie. Je parle en connaissance de cause : je suis journaliste, je sais ce que représente la liberté d’expression. Mais je mesure aussi à quel point cet argument peut servir à laisser les grandes plateformes s’arroger une influence considérable, voire une puissance politique, dans nos pays. Face à cela, nous avons un devoir : celui de réguler – de réguler au maximum, d’interdire lorsque c’est nécessaire, de prohiber certains comportements – et de ne pas avoir de scrupules à agir dans l’espace numérique comme nous le faisons dans le monde réel. Cette réflexion remonte à la fin des années 1990, lorsque Bill Clinton avait porté une idée simple : ce qui est interdit dans la vie doit l’être aussi en ligne. À cette époque, un courant libéral-libertarien s’est constitué pour s’y opposer et a fini par abroger ce principe. Depuis lors, la vie en ligne s’est profondément détachée de la vie réelle. Nous devons désormais tout faire pour rapprocher ces deux sphères. Dans la vie ordinaire, on ne s’injurie pas, on ne se diffame pas – et, quand cela se produit, cela relève du droit. Pourtant, dans la vie en ligne, ces comportements sont permanents. Il est donc essentiel de parvenir à une convergence entre les législations qui s’appliquent dans la vie réelle et celles qui régissent l’espace numérique.
M. Laurent Mazaury. Dans la vie ordinaire, on n’est pas anonyme non plus.
M. le président Pieyre-Alexandre Anglade. Je mets donc au vote l’amendement n° 5, qui a reçu un avis défavorable de la rapporteure.
L’amendement n° 5 est rejeté.
L’article unique est adopté.
La proposition de résolution européenne ainsi modifiée, est adoptée.
Mme Colette Capdevielle, rapporteure. Je voudrais simplement, en quelques mots, remercier l’ensemble de mes collègues pour l’unanimité dont ce texte a fait l’objet. C’est un texte extrêmement important, et je tiens à saluer la qualité de vos travaux ainsi que celle de nos échanges, qui sont absolument indispensables.
PROPOSITION DE RÉSOLUTION EUROPÉENNE INITIALE
Article unique
L’Assemblée nationale,
Vu l’article 88‑4 de la Constitution,
Vu l’article 151‑5 du Règlement de l’Assemblée nationale,
Vu le traité sur l’Union européenne, notamment ses articles 2, 3 et 6,
Vu le traité sur le fonctionnement de l’Union européenne, et notamment ses articles 2, 4, 16, 86, 88 et 114,
Vu les articles 3, 7, 8, 24 et 52 de la Charte des droits fondamentaux de l’Union européenne,
Vu la Convention européenne de sauvegarde des droits de l’Homme et des libertés fondamentales, notamment ses articles 8 et 10,
Vu le Protocole additionnel n° 12 à la Convention européenne de sauvegarde des droits de l’Homme et des libertés fondamentales,
Vu la Convention des Nations unies relative aux droits de l’enfant du 20 novembre 1989,
Vu l’observation générale n° 25 (2021) du Comité des droits de l’enfant des Nations Unies sur les droits de l’enfant en relation avec l’environnement numérique,
Vu la Convention du Conseil de l’Europe pour la protection des enfants contre l’exploitation et les abus sexuels du 25 octobre 2007,
Vu la Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel du 28 janvier 1981 et son protocole additionnel du 8novembre 2001,
Vu la Convention internationale des droits de l’enfant,
Vu la directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques,
Vu la directive 2011/92/UE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants, ainsi que la pédopornographie,
Vu la directive 2012/29/UE du Parlement européen et du Conseil du 25 octobre 2012 établissant des normes minimales concernant les droits, le soutien et la protection des victimes de la criminalité,
Vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel,
Vu la directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales,
Vu le règlement (UE) 2017/1939 du Conseil du 12 octobre 2017 mettant en œuvre une coopération renforcée dans le domaine de la mise en place du Parquet européen,
Vu le règlement (UE) 2022/868,
Vu le règlement (UE) 2022/2065,
Vu la proposition de règlement du Parlement européen et du Conseil du 10 janvier 2017 concernant le respect de la vie privée et la protection des données à caractère personnel dans les communications électroniques,
Vu la stratégie de l’Union européenne en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants du 24 juillet 2020,
Vu la communication de la Commission européenne du 26 janvier 2022 établissant une déclaration européenne sur les droits et principes numériques pour la décennie numérique,
Vu le règlement (UE) 2021/1232 du Parlement européen et du Conseil du 14 juillet 2021 relatif à une dérogation temporaire à certaines dispositions de la directive 2002/58/CE en ce qui concerne l’utilisation de technologies par les fournisseurs de services de communications interpersonnelles non fondés sur la numérotation pour le traitement de données à caractère personnel aux fins de la lutte contre les abus sexuels commis contre des enfants en ligne,
Vu la directive 2011/93/UE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants ainsi que la pédopornographie, et remplaçant la décision‑cadre 2004/68/JAI du Conseil,
Vu la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants,
Vu l’avis conjoint n° 04/2022 du Comité européen de la protection des données et du Contrôleur européen de la protection des données, en date du 28 juillet 2022, sur la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants,
Vu la résolution européenne n° 77 du 20 mars 2023 du Sénat sur la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants,
Vu la résolution européenne n° 1395 du 15 juin 2023 de l’Assemblée nationale sur la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles pour prévenir et combattre les abus sexuels sur les enfants,
Vu la loi n° 2022‑300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à Internet,
Vu le rapport d’information n° 529 du Sénat sur les politiques publiques de prévention, de détection, d’organisation des signalements et de répression des infractions sexuelles susceptibles d’être commises par des personnes en contact avec des mineurs,
Vu la résolution européenne n° 70 du Sénat du 14 janvier 2022 sur la proposition de règlement relatif à un marché intérieur des services numériques,
Vu la nouvelle stratégie européenne pour un Internet mieux adapté aux enfants du 11 mai 2022,
Considérant que la prolifération massive de contenus pédopornographiques en ligne constitue une menace croissante pour la sécurité des enfants en Europe ;
Considérant les nombreux travaux de la société civile et des organisations non gouvernementales de protection des victimes ;
Considérant que les dispositifs juridiques actuels, reposant largement sur la coopération volontaire des plateformes et sur des régimes dérogatoires temporaires, se révèlent insuffisants et inefficaces à long terme ;
Considérant que l’Europe ne peut plus externaliser la sécurité de ses enfants à un organisme étranger ;
Considérant que seule une réponse européenne structurée, souveraine et technologiquement à la hauteur peut garantir une détection rapide, une répression efficace et une protection durable des mineurs ;
1. Salue la proposition de règlement de la Commission européenne visant à imposer aux plateformes la détection et le signalement obligatoires des contenus pédopornographiques, dans un cadre juridique contraignant et harmonisé à l’échelle de l’Union européenne ;
2. Salue les dernières initiatives du Parlement européen, notamment l’augmentation des peines pour les crimes sexuels contre les enfants, la suppression des délais de prescription pour certaines infractions et la création de nouveaux délits liés à l’utilisation criminelle de l’intelligence artificielle ;
3. Souligne l’urgence politique que constitue la lutte contre la cyberpédocriminalité, près de cinq ans après que la protection de l’enfance a été proclamée grande cause nationale en 2020, sans avancées structurelles suffisantes ;
4. Accueille favorablement le constat d’une nécessaire souveraineté numérique européenne, et la fin de la dépendance vis‑à‑vis des normes extra‑européennes pour la régulation des contenus pédopornographiques ;
5. Appelle à la création d’un Centre européen de prévention et de lutte contre les abus sexuels sur enfants (CEPL), disposant de moyens financiers, techniques et humains suffisants, et œuvrant en lien avec les autorités judiciaires et la société civile ;
6. Appelle à ce que les compétences du Parquet européen soient élargies à la lutte contre la cyberpédocriminalité, notamment en raison de la structuration transnationale des réseaux criminels impliqués, de l’utilisation de plateformes en ligne à but lucratif et de l’ampleur des flux financiers illicites générés par la diffusion de contenus pédopornographiques, afin de garantir une réponse pénale coordonnée et efficace à l’échelle de l’Union ;
7. Souhaite que les outils de détection et de modération déployés par les plateformes fassent l’objet d’une supervision indépendante et transparente, garantissant le respect des droits fondamentaux, notamment la vie privée, la proportionnalité et un contrôle juridictionnel effectif ;
8. Exhorte le Conseil de l’Union européenne à relancer les négociations actuellement bloquées sur le règlement en discussion, afin de déboucher sur un compromis ambitieux et d’entreprendre la nécessaire harmonisation de la législation sur le territoire européen ;
9. Demande au Gouvernement de défendre au sein du Conseil de l’Union européenne un règlement pleinement contraignant, afin de garantir la coopération obligatoire des plateformes et d’éviter tout dispositif reposant sur le volontariat ;
10. Invite à clarifier les modalités de coopération entre les instances européennes, les autorités publiques nationales, les plateformes et les associations spécialisées, et ce, dans le respect de la protection des données ;
11. Demande un encadrement juridique spécifique de l’usage de l’intelligence artificielle dans la création, la diffusion et la détection de contenus pédopornographiques, afin de prévenir les détournements technologiques et d’y répondre ;
12. Exige le déploiement de campagnes de prévention, d’information et d’éducation numérique à destination des mineurs, des familles et des professionnels, aux niveaux européen et national ;
13. Appelle à une refondation de la gouvernance numérique européenne sur des bases démocratiques, sociales et souveraines, plaçant la protection de l’enfance, la justice et les libertés fondamentales au cœur du projet européen.
AMENDEMENTS EXAMINÉS PAR LA COMMISSION
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 6 |
|
présenté par |
|
Mme Colette CAPDEVIELLE |
----------
ARTICLE UNIQUE
Après l’alinéa 23, insérer un alinéa ainsi rédigé :
« Vu la stratégie de l’Union européenne sur les droits de l’enfant du 24 mars 2021, »
EXPOSÉ SOMMAIRE
Cet amendement vise à compléter le dispositif dans un souci d’exhaustivité, en parallèle des deux autres stratégies déjà énoncées (la nouvelle stratégie européenne pour un Internet mieux adapté aux enfants du 11 mai 2022 et la stratégie de l’Union européenne en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants du 24 juillet 2020).
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 7 |
|
présenté par |
|
Mme Colette CAPDEVIELLE |
----------
ARTICLE UNIQUE
Remplacer l’alinéa 37 par un alinéa ainsi rédigé :
« Considérant qu’en l’absence de solution technique garantissant le respect effectif du droit à la vie privée, pérenniser le dispositif dérogatoire actuel de détection volontaire est une nécessité, devant être assortie de la mise en place de moyens humains et financiers efficaces et proportionnés par les plateformes. »
EXPOSE SOMMAIRE
Cet amendement de réécriture vise à mettre en évidence le fait que, si la protection des mineurs doit demeurer une priorité absolue, elle ne peut se construire au détriment des libertés fondamentales ni conduire à la mise en place d’un dispositif de surveillance de masse. À défaut d’une solution technologique pleinement satisfaisante qui permettrait de concilier détection automatique et respect de la vie privée, il convient de pérenniser la dérogation actuelle autorisant les signalements volontaires des plateformes, tout en renforçant considérablement leurs obligations de mise en place de moyens à la hauteur de la menace.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 8 |
|
présenté par |
|
Mme Colette CAPDEVIELLE |
----------
ARTICLE UNIQUE
Après l’alinéa 38, insérer l’alinéa ainsi rédigé :
« Considérant que le règlement 2021/1232 dérogeant à la directive 2022/58/CE cessera de s’appliquer le 3 avril 2026 et qu’il en résultera que les fournisseurs de services ne pourront plus détecter et signaler volontairement les abus sexuels en ligne commis sur des enfants ainsi que supprimer le matériel pédopornographique ; »
EXPOSÉ SOMMAIRE
Cet alinéa vise à actualiser le dispositif du texte afin d’alerter sur l’urgence de débloquer au niveau européen un texte contraignant pour prévenir et combattre les abus sexuels commis contre les enfants en ligne ; la dernière prorogation du règlement dérogatoire à la directive e-privacy (2021), qui autorise la détection volontaire des contenus pédopornographiques par les plateformes, prenant fin le 3 avril 2026.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 9 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
Après l’alinéa 38, insérer l’alinéa ainsi rédigé :
« Considérant la décision du Conseil de l’Union européenne de surseoir à l’examen du projet de règlement du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants en raison de divergences persistantes entre les États membres ; »
EXPOSÉ SOMMAIRE
Cet amendement vise à rappeler le contexte de blocage du dialogue institutionnel depuis plus de trois ans, empêchant le début des trilogues entre la Commission européenne, le Conseil de l’Union européenne et le Parlement européen, pour adopter un cadre légal pérenne garantissant la protection des droits fondamentaux des enfants face aux pédocriminels à l’ère numérique.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 10 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
Après l’alinéa 38, insérer l’alinéa ainsi rédigé :
« Considérant que le Conseil de l’Union européenne n’étudiera la nouvelle version du projet de règlement du 11 mai 2022 qu’au mois de décembre 2025 et que le cadre légal actuel prévu par le règlement 2021/2032 disparaîtra le 3 avril 2026 ; »
EXPOSÉ SOMMAIRE
L’objectif de cet amendement est de présenter le délai extrêmement restreint dans lequel les négociations devront désormais se tenir, à savoir une période de quatre mois seulement après l’examen du texte par le Conseil de l’Union européenne en décembre, pour faire aboutir les trilogues sur un consensus avant l’expiration du règlement 2021/2032 en avril 2026.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 11 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
Après l’alinéa 38, insérer l’alinéa ainsi rédigé :
« Considérant l’urgente nécessité de maintenir les effets du règlement 2021/2032 à travers un véhicule législatif pérenne de façon à protéger les enfants des abus sexuels ; »
EXPOSÉ SOMMAIRE
Cet amendement s’inscrit dans la lignée des trois précédents, en constatant le contexte d’urgence absolue dans lequel l’examen de cette proposition de résolution européenne s’inscrit.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 12 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
Remplacer l’alinéa 40, par un alinéa ainsi rédigé :
« 1. Salue l’initiative de la Commission européenne de pérenniser un cadre juridique permettant de lutter contre les abus et l’exploitation sexuels des mineurs en respect de l’engagement pris dans le cadre de la stratégie de l’Union européenne sur les droits de l’enfant du 24 mars 2021, »
EXPOSÉ SOMMAIRE
Cet amendement de réécriture vise à proposer un compromis en s’alignant sur la position du Parlement européen et à dépasser l’impasse dans laquelle se trouvent les dialogues avec la plus grande diligence. L’urgence absolue que constitue la date butoir du 3 avril 2026 (expiration du règlement dérogatoire à la directive e-privacy sur lequel reposent les signalements volontaires) étant prioritaire. Cet amendement n’entend cependant pas exclure la reprise de discussions ces prochaines années sur la base de nouveaux éléments techniques laissant présager de réelles garantis de proportionnalité.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 13 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
Après l’alinéa 41, insérer un alinéa ainsi rédigé :
« 3. Salue la position du Parlement européen de novembre 2023 sur une nouvelle réglementation permanente destinée à prévenir et à lutter contre les abus sexuels commis contre les enfants en ligne, »
EXPOSE SOMMAIRE
L’objectif de cet amendement est de rappeler à nouveau la position du Parlement européen de novembre 2023. Il avait alors indiqué son opposition à toute surveillance de masse tout en soutenant la mise en place d’une stratégie plus ambitieuse pour protéger les enfants en ligne comme hors ligne.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 14 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
À l’alinéa 45, supprimer les mots « Appelle à ce que les compétences du Parquet européen soient élargies à la lutte contre la cyberpédocriminalité, notamment en raison de la structuration transnationale des réseaux criminels impliqués, de l’utilisation de plateformes en ligne à but lucratif et de l’ampleur des flux financiers illicites générés par la diffusion de contenus pédopornographiques, afin de garantir une réponse pénale coordonnée et efficace à l’échelle de l’Union ; »
EXPOSÉ SOMMAIRE
Cet amendement de suppression vise à annuler la demande d’élargissement des compétences du Parquet européen, car la preuve d’un préjudice financier d’un minimum de 10 millions d’euros porté à l’Union européenne, conditionnant la compétence du Parquet européen dans un domaine, ne peut ici pas être apportée.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 4 |
|
présenté par |
|
Alexandre Sabatou et plusieurs de ses collègues |
----------
ARTICLE UNIQUE
Remplacer l’alinéa 45 par l’alinéa suivant :
« Souligne que la lutte contre la cyberpédocriminalité doit s’appuyer sur les mécanismes existants de coopération judiciaire et policière, notamment Europol et son Centre européen de lutte contre la cybercriminalité (EC3), sans qu’il soit nécessaire d’étendre les compétences du Parquet européen, dont le champ d’action, limité aux infractions portant atteinte aux intérêts financiers de l’Union, ne saurait être élargi sans révision des traités ni atteinte à la souveraineté pénale des États membres. »
EXPOSÉ SOMMAIRE
La lutte contre la cyberpédocriminalité exige une coopération européenne renforcée, mais celle-ci doit s’exercer dans le respect du cadre institutionnel existant et de la souveraineté pénale des États membres.
Le présent amendement rappelle que les outils actuels de coopération judiciaire et policière, notamment Europol et son Centre européen de lutte contre la cybercriminalité (EC3), offrent déjà un cadre efficace pour coordonner les enquêtes transfrontalières, partager le renseignement criminel et appuyer les autorités nationales.
L’extension des compétences du Parquet européen (EPPO) à la lutte contre la pédocriminalité en ligne ne relève ni de son mandat initial, limité aux infractions portant atteinte aux intérêts financiers de l’Union, ni de la logique des traités actuels. Une telle évolution supposerait une révision des traités européens, mécanisme législatif particulièrement long et complexe, peu compatible avec l’urgence que commande la protection des enfants.
Il apparaît dès lors plus efficace et plus réaliste de s’appuyer sur un organisme existant, disposant déjà de l’expertise et des moyens nécessaires, plutôt que d’engager un processus institutionnel incertain qui retarderait toute action concrète.
Tel est le sens du présent amendement.
Cet amendement est tombé.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 15 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
À l’alinéa 46, après les mots « déployés par les plateformes » :
EXPOSÉ SOMMAIRE
Cet amendement de réécriture vise actualiser le texte de la proposition pour y faire apparaître le respect du droit à la vie privée comme une nécessité légitime dès le début du dispositif.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 20 |
|
|
|
|
|
présenté par |
|
M. Alexandre Sabatou |
----------
ARTICLE UNIQUE
Supprimer l’alinéa 47.
EXPOSÉ SOMMAIRE
Amendement de suppression.
Cet amendement n’a pas été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 16 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
L’alinéa 47 est ainsi rédigé : "8. Exhorte le Conseil à relancer les négociations actuellement bloquées sur le règlement en discussion afin d'aboutir à un vote au Conseil d'ici fin décembre 2025 et de parvenir à un compromis ambitieux avant la date d'expiration du règlement, le 3 avril 2026, de sorte que la nécessaire harmonisation de la législation européenne puisse être engagée."
EXPOSE SOMMAIRE
L’objectif de cet amendement est de compléter le texte de la résolution à l’aune des dernières actualités au Conseil de l’Union européenne, notamment le nouveau report du vote après décision de la présidence danoise de le reprogrammer en décembre alors qu’il devait avoir lieu le 14 octobre. Il n’y aura donc que quatre mois entre l’éventuel déclenchement des trilogues et l’expiration du règlement dérogatoire permettant le signalement volontaire pour les plateformes le 3 avril 2026.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 17 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
À l’alinéa 48 :
remplacer les mots « pleinement contraignant » par le mot « ambitieux »
EXPOSE SOMMAIRE
L’objectif de cet amendement de réécriture est de rappeler le compromis figurant dans la position du Parlement européen de novembre 2023. Il avait en effet clairement indiqué son opposition à toute surveillance de masse, et sa volonté de protéger le cryptage de bout en bout, tout en soutenant le développement d’une stratégie plus efficace pour protéger les enfants en ligne. L’enjeu est double : protéger les enfants dans un environnement numérique en pleine mutation, tout en garantissant les droits fondamentaux au respect de la vie privée et à la protection des données.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 2 |
|
présenté par |
|
Alexandre Sabatou et plusieurs de ses collègues |
----------
ARTICLE UNIQUE
Après l’alinéa 50, insérer l’alinéa suivant :
« Propose qu’une enquête systématique sur la responsabilité des parents soit ouverte lorsqu’un enfant est victime d’un acte de pédocriminalité en ligne, afin d’évaluer les conditions d’encadrement et de vigilance exercées dans le cadre familial. »
EXPOSÉ SOMMAIRE
La multiplication des affaires de pédocriminalité en ligne appelle à renforcer non seulement la répression des auteurs, mais aussi la prévention des situations de vulnérabilité dans lesquelles se trouvent les enfants.
Le présent amendement vise à instaurer une évaluation systématique de la responsabilité parentale lorsqu’un mineur est victime d’un acte de pédocriminalité en ligne. Il s’agit d’analyser les circonstances ayant conduit à la vulnérabilité de l’enfant, afin de renforcer la prévention.
Cette démarche ne tend pas à culpabiliser les parents, mais à favoriser une prévention active et responsable, en s’assurant que les mineurs bénéficient d’un environnement familial responsable. Elle permet également d’améliorer la coordination entre les services de protection de l’enfance, les autorités judiciaires et les acteurs du numérique, pour éviter que des situations de négligence ne conduisent à de nouveaux drames.
En plaçant la vigilance parentale au cœur de la protection des enfants, cet amendement rappelle que la prévention des crimes pédocriminels commence dans le foyer.
Cet amendement n’a pas été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 3 |
|
présenté par |
|
Alexandre SABATOU et plusieurs de ses collègues. |
----------
ARTICLE UNIQUE
À l’alinéa 51 :
Le mot « exige » est remplacé par le mot « invite au ».
EXPOSÉ SOMMAIRE
Le présent amendement de rédaction vise à remplacer le mot « exige » par les mots « invite à » afin d’assurer la conformité du texte avec les dispositions de l’article 34-1 de la Constitution, qui encadre le droit de résolution des assemblées parlementaires.
Cet amendement n’a pas été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 18 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
A l’alinéa 51 :
Au début de la phrase, le mot « exige » est remplacé par le mot « sollicite ».
EXPOSE SOMMAIRE
Cet amendement rédactionnel vise à remplacer le verbe « exiger » par un verbe plus approprié.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 1 |
|
présenté par |
|
Alexandre Sabatou et plusieurs de ses collègues |
----------
ARTICLE UNIQUE
À l’alinéa 51 :
Le mot « familles » est remplacé par le mot « parents ».,
EXPOSÉ SOMMAIRE
La lutte contre la cyberpédocriminalité exige une mobilisation de tous : des institutions européennes, des États, mais aussi des familles. Pourtant, il serait illusoire de croire que la puissance publique peut, seule, prémunir les enfants contre les dangers du monde numérique. L’éducation, la vigilance et la prévention commencent d’abord au sein du foyer.
Trop souvent, la société délègue à l’État ou aux plateformes privées un rôle qui revient d’abord aux adultes qui élèvent et éduquent leurs enfants. En ce sens, le remplacement du mot « familles » par « parents » dans le douzième alinéa n’est pas un simple ajustement lexical. Il marque la reconnaissance explicite de la responsabilité première des parents dans la protection et l’accompagnement numérique des mineurs.
Les statistiques alarmantes sur la prolifération des contenus pédopornographiques en ligne, les manipulations sur les réseaux sociaux et l’exposition précoce des enfants à des contenus inappropriés démontrent que l’encadrement parental est un pilier fondamental. Il ne s’agit pas de culpabiliser, mais de rappeler que la protection des mineurs repose avant tout sur la vigilance et l’autorité bienveillante des parents.
À l’heure où l’Union européenne discute de la création d’un cadre commun de lutte contre les abus sexuels en ligne, il est nécessaire que cette politique ne se limite pas à des outils technologiques ou répressifs. Elle doit aussi promouvoir la responsabilisation des adultes, l’éducation à l’usage du numérique et la réaffirmation de l’autorité parentale, trop souvent affaiblie.
Par cet amendement, nous souhaitons que le texte reconnaisse explicitement que la première ligne de défense des enfants, avant même la loi, demeure celle des parents, et non celle d’une bureaucratie déconnectée ou des algorithmes modérateurs des multinationales du numérique.
Cet amendement n’a pas été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 19 |
|
présenté par |
|
Mme Colette Capdevielle |
----------
ARTICLE UNIQUE
Après l’alinéa 51, insérer un alinéa ainsi rédigé :
« 13. Demande la mise en place de dispositifs de soutien par des moyens humains et financiers supplémentaires afin d’aider et de protéger les enquêteurs des pays membres de l’Union européenne, contraints, dans le cadre de leur mission, de devoir visionner des milliers de contenus par jour à défaut de la mise en place d’une solution d’appui technologique à la hauteur de leurs besoins ; »
EXPOSE SOMMAIRE
Cet amendement vise à souligner que le premier obstacle à la lutte contre les abus sexuels sur mineurs est l’insuffisance des moyens humains et matériels alloués aux services compétents. L’Office central de lutte contre les violences faites aux mineurs (OFMIN), tout comme ses homologues européens, est confronté à une saturation totale : les signalements s’accumulent sans pouvoir être traités à temps. Chaque jour, près de 800 signalements issus du NCMEC (centre américain de référence) arrivent en France. Une part considérable n’est jamais exploitée, faute de personnels formés, d’outils adaptés et de coordination judiciaire suffisante. Dans certaines unités, les dossiers accusent plus d’un an de retard. Cette situation crée un taux de judiciarisation dérisoire : les infractions sont détectées, mais non instruites ; les auteurs sont identifiés, mais rarement poursuivis. Autrement dit, sans réforme des moyens, un règlement européen plus ambitieux risquerait d’aggraver la fracture entre détection et action. L’amendement permet de mettre en lumière les risques psychosociaux qui pèsent sur les enquêteurs confrontés à un volume considérable de contenus chaque jour.
Cet amendement a été adopté.
COMMISSION DES AFFAIRES EUROPÉENNES
15 OCTOBRE 2025
proposition de résolution européenne relative à la coopération européenne dans la lutte contre la cyberpédocriminalité pour la défense des droits des enfants à l’ère numérique (n° 1775),
|
|
AMENDEMENT |
No 5 |
|
présenté par |
|
Alexandre Sabatou et plusieurs de ses collègues |
----------
ARTICLE UNIQUE
Après l’alinéa 52, insérer l’alinéa suivant :
« Demande au Gouvernement de prendre, dans les plus brefs délais, les décrets d’application nécessaires à la mise en œuvre de la loi n° 2023-566 du 7 juillet 2023 visant à instaurer une majorité numérique et à lutter contre la haine en ligne, afin de garantir l’effectivité des mesures de protection des mineurs dans l’espace numérique. »
EXPOSÉ SOMMAIRE
La loi n° 2023-566 du 7 juillet 2023 a instauré une majorité numérique et renforcé la régulation des plateformes en ligne pour protéger les mineurs et lutter contre la haine sur internet. Cependant, aucun décret d’application n’a été publié plus d’un an après son adoption, rendant ce texte inopérant dans les faits.
Cet amendement vise à rappeler au Gouvernement ses obligations réglementaires et à garantir la pleine mise en œuvre de cette loi, qui constitue un instrument central de prévention contre l’exposition des enfants aux contenus illicites et aux dérives numériques.
Avant d’élaborer de nouvelles résolutions européennes, il importe que les textes nationaux existants soient effectivement appliqués, dans le respect de la souveraineté législative de la France et de la continuité de l’action publique.
Malheureusement, les décrets attendus sont : je cite :
Des « Mesure liée à une décision de la Commission européenne considérant le dispositif législatif lui ayant été notifié comme conforme au droit de l'Union européenne ».
Ce n’est pas moi qui le dis mais le site de l’Assemblée Nationale.
Nous avons tellement perdu notre souveraineté que nous devons attendre le bon vouloir de Bruxelles pour éditer nos propres décrets d’application. Ce qui me rend dubitatif sur l’efficacité du texte que nous examinons.
Cet amendement n’a pas été adopté.
PROPOSITION DE RÉSOLUTION ADOPTÉE PAR LA COMMISSION
L’Assemblée nationale,
Vu l’article 88‑4 de la Constitution,
Vu l’article 151‑5 du Règlement de l’Assemblée nationale,
Vu le traité sur l’Union européenne, notamment ses articles 2, 3 et 6,
Vu le traité sur le fonctionnement de l’Union européenne, et notamment ses articles 2, 4, 16, 86, 88 et 114,
Vu les articles 3, 7, 8, 24 et 52 de la Charte des droits fondamentaux de l’Union européenne,
Vu la Convention européenne de sauvegarde des droits de l’Homme et des libertés fondamentales, notamment ses articles 8 et 10,
Vu le Protocole additionnel n° 12 à la Convention européenne de sauvegarde des droits de l’Homme et des libertés fondamentales,
Vu la Convention des Nations unies relative aux droits de l’enfant du 20 novembre 1989,
Vu l’observation générale n° 25 (2021) du Comité des droits de l’enfant des Nations Unies sur les droits de l’enfant en relation avec l’environnement numérique,
Vu la Convention du Conseil de l’Europe pour la protection des enfants contre l’exploitation et les abus sexuels du 25 octobre 2007,
Vu la Convention du Conseil de l’Europe pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel du 28 janvier 1981 et son protocole additionnel du 8novembre 2001,
Vu la Convention internationale des droits de l’enfant,
Vu la directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques,
Vu la directive 2011/92/UE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants, ainsi que la pédopornographie,
Vu la directive 2012/29/UE du Parlement européen et du Conseil du 25 octobre 2012 établissant des normes minimales concernant les droits, le soutien et la protection des victimes de la criminalité,
Vu le règlement (UE) 2016/679 du Parlement européen et du Conseil du 27 avril 2016 relatif à la protection des personnes physiques à l’égard du traitement des données à caractère personnel,
Vu la directive (UE) 2016/680 du Parlement européen et du Conseil du 27 avril 2016 relative à la protection des données à caractère personnel par les autorités compétentes à des fins de prévention et de détection des infractions pénales,
Vu le règlement (UE) 2017/1939 du Conseil du 12 octobre 2017 mettant en œuvre une coopération renforcée dans le domaine de la mise en place du Parquet européen,
Vu le règlement (UE) 2022/868,
Vu le règlement (UE) 2022/2065,
Vu la proposition de règlement du Parlement européen et du Conseil du 10 janvier 2017 concernant le respect de la vie privée et la protection des données à caractère personnel dans les communications électroniques,
Vu la stratégie de l’Union européenne en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants du 24 juillet 2020,
Vu la stratégie de l’Union européenne sur les droits de l’enfant du 24 mars 2021,
Vu la communication de la Commission européenne du 26 janvier 2022 établissant une déclaration européenne sur les droits et principes numériques pour la décennie numérique,
Vu le règlement (UE) 2021/1232 du Parlement européen et du Conseil du 14 juillet 2021 relatif à une dérogation temporaire à certaines dispositions de la directive 2002/58/CE en ce qui concerne l’utilisation de technologies par les fournisseurs de services de communications interpersonnelles non fondés sur la numérotation pour le traitement de données à caractère personnel aux fins de la lutte contre les abus sexuels commis contre des enfants en ligne,
Vu la directive 2011/93/UE du Parlement européen et du Conseil du 13 décembre 2011 relative à la lutte contre les abus sexuels et l’exploitation sexuelle des enfants ainsi que la pédopornographie, et remplaçant la décision‑cadre 2004/68/JAI du Conseil,
Vu la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants,
Vu l’avis conjoint n° 04/2022 du Comité européen de la protection des données et du Contrôleur européen de la protection des données, en date du 28 juillet 2022, sur la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants,
Vu la résolution européenne n° 77 du 20 mars 2023 du Sénat sur la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants,
Vu la résolution européenne n° 1395 du 15 juin 2023 de l’Assemblée nationale sur la proposition de règlement du Parlement européen et du Conseil du 11 mai 2022 établissant des règles pour prévenir et combattre les abus sexuels sur les enfants,
Vu la loi n° 2022‑300 du 2 mars 2022 visant à renforcer le contrôle parental sur les moyens d’accès à Internet,
Vu le rapport d’information n° 529 du Sénat sur les politiques publiques de prévention, de détection, d’organisation des signalements et de répression des infractions sexuelles susceptibles d’être commises par des personnes en contact avec des mineurs,
Vu la résolution européenne n° 70 du Sénat du 14 janvier 2022 sur la proposition de règlement relatif à un marché intérieur des services numériques,
Vu la nouvelle stratégie européenne pour un Internet mieux adapté aux enfants du 11 mai 2022,
Considérant que la prolifération massive de contenus pédopornographiques en ligne constitue une menace croissante pour la sécurité des enfants en Europe ;
Considérant les nombreux travaux de la société civile et des organisations non gouvernementales de protection des victimes ;
Considérant qu’en l’absence de solution technique garantissant le respect effectif du droit à la vie privée, pérenniser le dispositif dérogatoire actuel de détection volontaire est une nécessité, devant être assortie de la mise en place de moyens humains et financiers efficaces et proportionnés par les plateformes;
Considérant que l’Europe ne peut plus externaliser la sécurité de ses enfants à un organisme étranger ;
Considérant que le règlement 2021/1232 dérogeant à la directive 2022/58/Ce cessera de s’appliquer le 3 avril 2026 et qu’il en résultera que les fournisseurs de services ne pourront plus détecter et signaler volontairement les abus sexuels en ligne commis sur des enfants ainsi que supprimer le matériel pédopornographique ;
Considérant la décision du Conseil de l’Union européenne de surseoir à l’examen du projet de règlement du 11 mai 2022 établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants en raison de divergences persistantes entre les États membres ;
Considérant que le Conseil de l’Union européenne n’étudiera la nouvelle version du projet de règlement du 11 mai 2022 qu’au mois de décembre 2025 et que le cadre légal actuel prévu par le règlement 2021/2032 disparaîtra le 3 avril 2026 ;
Considérant l’urgente nécessité de maintenir les effets du règlement 2021/2032 à travers un véhicule législatif pérenne de façon à protéger les enfants des abus sexuels ;
Considérant que seule une réponse européenne structurée, souveraine et technologiquement à la hauteur peut garantir une détection rapide, une répression efficace et une protection durable des mineurs ;
1. Salue l’initiative de la Commission européenne de pérenniser un cadre juridique permettant de lutter contre les abus et l’exploitation sexuels des mineurs en respect de l’engagement pris dans le cadre de la stratégie de l’Union européenne sur les droits de l’enfant du 24 mars 2021,
2. Salue les dernières initiatives du Parlement européen, notamment l’augmentation des peines pour les crimes sexuels contre les enfants, la suppression des délais de prescription pour certaines infractions et la création de nouveaux délits liés à l’utilisation criminelle de l’intelligence artificielle ;
3. Salue la position du Parlement européen du 16 novembre 2023 sur une nouvelle réglementation permanente destinée à prévenir et à lutter contre les abus sexuels commis contre les enfants en ligne,
4. Souligne l’urgence politique que constitue la lutte contre la cyberpédocriminalité, près de cinq ans après que la protection de l’enfance a été proclamée grande cause nationale en 2020, sans avancées structurelles suffisantes ;
5. Accueille favorablement le constat d’une nécessaire souveraineté numérique européenne, et la fin de la dépendance vis‑à‑vis des normes extra‑européennes pour la régulation des contenus pédopornographiques ;
6. Appelle à la création d’un Centre européen de prévention et de lutte contre les abus sexuels sur enfants (CEPL), disposant de moyens financiers, techniques et humains suffisants, et œuvrant en lien avec les autorités judiciaires et la société civile ;
7. Souhaite que les outils de détection et de modération déployés par les plateformes garantissent le respect des droits fondamentaux, notamment la protection de la vie privée et celle des données personnelles;
8. Exhorte le Conseil à relancer les négociations actuellement bloquées sur le règlement en discussion afin d'aboutir à un vote au Conseil d'ici fin décembre 2025 et de parvenir à un compromis ambitieux avant la date d'expiration du règlement, le 3 avril 2026, de sorte que la nécessaire harmonisation de la législation européenne puisse être engagée;
9. Demande au Gouvernement de défendre au sein du Conseil de l’Union européenne un règlement ambitieux, afin de s’assurer que les plateformes mettent en place des moyens humains et financiers de détection suffisants au regard du volume de contenus concernés, sous peine de sanctions financières qui seraient définies dans le règlement ;
10. Invite à clarifier les modalités de coopération entre les instances européennes, les autorités publiques nationales, les plateformes et les associations spécialisées, et ce, dans le respect de la protection des données ;
11. Demande un encadrement juridique spécifique de l’usage de l’intelligence artificielle dans la création, la diffusion et la détection de contenus pédopornographiques, afin de prévenir les détournements technologiques et d’y répondre ;
12. Sollicite le déploiement de campagnes de prévention, d’information et d’éducation numérique à destination des mineurs, des familles et des professionnels, aux niveaux européen et national ;
13. Demande la mise en place de dispositifs de soutien par des moyens humains et financiers supplémentaires afin d’aider et de protéger les enquêteurs des pays membres de l’Union européenne, contraints, dans le cadre de leur mission, de devoir visionner des milliers de contenus par jour à défaut de la mise en place d’une solution d’appui technologique à la hauteur de leurs besoins ;
14. Appelle à une refondation de la gouvernance numérique européenne sur des bases démocratiques, sociales et souveraines, plaçant la protection de l’enfance, la justice et les libertés fondamentales au cœur du projet européen.
LISTE DES PERSONNES AUDITIONNÉES PAR LA RAPPORTEURE
- Mme Véronique Béchu, directrice de l’observatoire contre
le harcèlement et les violences numériques faites aux mineurs, ancienne Cheffe de l’Office Mineurs (OFMIN), membre expert de la commission indépendante sur l’inceste et les violences sexuelles faites aux enfants (CIIVISE) ;
- M. Nicolas de Maistre, préfet et chef du service Justice et affaires intérieures (JAI) ;
- Mme Marie Dugré, adjointe du chef du service Justice et affaires intérieures (JAI) ;
- M. Alexandre Nascioli, commissaire divisionnaire ;
- Mme Anne-Gaëlle Philbert, présidente de KorpMedia ;
- M. Florent Lefèvre, responsable recherche et développement
à KorpMedia ;
- M. Laurent Guy, procureur adjoint du parquet de Paris,
de permanence au parquet des mineurs de Paris ;
- Mme Lisa-Lou Wipf, vice-procureure, et cheffe du parquet
des mineurs de Paris ;
- Mme Johanna Brousse, vice-procureure, et cheffe de la section cybercriminalité au parquet de Paris.
([1]) ARCOM, Tendance audio-video 2025, 3 avril 2025.
([2]) OMS et International Society for Prevention of Child Abuse and Neglect, Guide sur la prévention de la maltraitance des enfants : intervenir et produire des données, 2006, p. 10.
([3]) CIIVISE, « Violences sexuelles faites aux enfants : « On vous croit » », p. 273.
([4]) Protect Children, ReDirection Survey Report, 2021, p. 16.
([5]) NCMEC, CyberTipline 2022 Report
([6]) Parents-influenceurs OPEN-POTLOC, février 2023
([7]) Phénomène désigné sous le nom de « sharenting », mot-valise formé de « share » (partager) et « parenting » (parentalité).
([8]) « L’IA générative, nouvelle arme de la pédocriminalité », Fondation pour l’enfance, octobre 2024, p. 6
([9]) « L’IA générative, nouvelle arme de la pédocriminalité », Fondation pour l’enfance, octobre 2024, p. 6.
([10]) Communication de la Commission européenne valant « Stratégie de l’Union européenne en faveur d’une lutte plus efficace contre les abus sexuels commis contre des enfants », 24 juillet 2020.
([11]) NCMEC, CyberTipline 2022 Report
([12]) « L’IA générative, nouvelle arme de la pédocriminalité », Fondation pour l’enfance, octobre 2024, p. 7.
([13]) « Les images pédocriminelles générées par IA circulent de plus en plus, et posent des difficultés inédites
aux enquêteurs », Le Monde, 23 juillet 2025.
[14] Child Abuse Material : Model Legislation and Global Review (ICMEC, 2021)
([15]) Le hachage, ou hashing en anglais, est une méthode de chiffrement qui transforme les enregistrements et les caractères de toute longueur en hachages fixes et compacts. Le hachage offre plus de sécurité que
le chiffrement, car les valeurs de hachage ne peuvent pas être reconverties en valeurs d’origine sans clé.
Le hachage est particulièrement important en ce qui concerne la gestion et la sécurité des bases de données, les données utilisateur, la gestion des mots de passe ainsi que l’authentification des accès.
Il existe également un hachage perceptuel qui est une déclinaison du hachage. Il s’agit dans ce cas
d’un algorithme qui produit une empreinte numérique particulièrement adaptée aux fichiers multimédias. L’intérêt est que le résultat est proche si les fichiers le sont, contrairement aux algorithmes précédents. Il est utilisé pour détecter les violations de droits d’auteurs sur des images, des articles, des fichiers audio, ou
en criminalistique numérique.
([16]) Il s’agit d’une obligation générale pour les fournisseurs de services internet de prévenir la diffusion
de matériel pédopornographique et la sollicitation de mineurs (« grooming ») avec à défaut des amendes conséquentes applicables. Le choix des moyens appartient au fournisseur pourvu que l’obligation de résultat soit respectée.
[17] Service chargés des technologies d’enquête au ministère de l’intérieur
[18] Mediapart, « Pédocriminalité : le ministère de l’intérieur retoque un logiciel révolutionnaire », 1er octobre 2025.