Compte rendu
Commission d’enquête
sur les effets psychologiques
de TikTok sur les mineurs
– Audition commune, ouverte à la presse, d’associations membres du Conseil français des associations pour les droits de l’enfant (COFRADE) : 2
• M. Arthur Melon, délégué général du COFRADE
• Mme Nathalie Hennequin, membre du Bureau national SNUASFP-FSU (Syndicat national unitaire des assistantes sociales de la Fonction Publique/Fédération Syndicale Unitaire)
• Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone
• Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale, CAMELEON Association France
• Mme Marie-Françoise Wittrant, Association AISPAS
– Audition, ouverte à la presse, de M. Cyril di Palma, délégué général de Génération numérique 18
– Audition, ouverte à la presse, de Mme Alejandra Mariscal Lopez, directrice de Point de Contact, et M. Yann Lescop, responsable projets et études 26
– Présences en réunion................................38
Jeudi
22 mai 2025
Séance de 9 heures 30
Compte rendu n° 14
session ordinaire de 2024-2025
Présidence de
M. Arthur Delaporte,
Président de la commission
— 1 —
La séance est ouverte à neuf heures trente-cinq.
La commission auditionne conjointement des associations membres du Conseil français des associations pour les droits de l’enfant (COFRADE) :
– M. Arthur Melon, délégué général du COFRADE,
– Mme Nathalie Hennequin, membre du Bureau national SNUASFP-FSU (Syndicat national unitaire des assistantes sociales de la Fonction Publique/Fédération Syndicale Unitaire),
– Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone
– Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale, CAMELEON Association France
– Mme Marie-Françoise Wittrant, Association AISPAS
M. le président Arthur Delaporte. Mes chers collègues, nous reprenons nos auditions avec une matinée consacrée aux associations de défense des droits de l’enfant et à leur sensibilisation.
Nous recevons le Conseil français des associations pour les droits de l’enfant (Cofrade) :
– M. Arthur Melon, délégué général du Cofrade,
– Mme Nathalie Hennequin, membre du Bureau national Syndicat national unitaire des assistantes sociales de la fonction publique/fédération syndicale unitaire (SNUASFP-FSU)
– Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone,
– Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France,
– et Mme Marie-Françoise Wittrant de l’association AISPAS.
Je tiens à rappeler que notre commission a lancé une consultation sur le site internet de l’Assemblée nationale. À ce jour, nous avons reçu près de 30 000 réponses, provenant pour moitié de lycéens. Nous remercions les lycéens, mais aussi les Français ayant pris le temps de répondre à cette enquête. Nous avons également reçu des témoignages par courriel à l’adresse suivante : commission.tiktok@assemblee-nationale.fr.
Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.
Avant de vous céder la parole, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Arthur Melon, Mme Nathalie Hennequin, Mme Anne-Charlotte Gros, Mme Socheata Sim et Mme Marie-Françoise Wittrant prêtent serment.)
M. Arthur Melon, délégué général du Cofrade. Le Cofrade, fondé en 1989 lors de la signature de la Convention internationale des droits de l’enfant, a pour mission de promouvoir cette convention et de veiller à son application réelle en France. Le Conseil regroupe actuellement 53 associations, fondations et syndicats, spécialisés dans divers domaines touchant aux droits de l’enfant. Nos champs d’action couvrent un large spectre, incluant le numérique, l’éducation, la santé, les droits des mineurs non accompagnés, l’accès à la culture et aux loisirs. Nous travaillons également sur des problématiques, telles que les violences, les mutilations sexuelles, ainsi que sur les questions de citoyenneté et de participation des enfants. Nos associations membres sont présentes sur l’ensemble du territoire national, y compris dans les départements et régions d’outre-mer.
Le Cofrade participe à l’évaluation quinquennale de l’application de la Convention internationale par notre État, menée par le Comité des droits de l’enfant de l’Organisation des Nations Unies (ONU). Nous organisons chaque année des consultations nationales, notamment des débats d’adolescents et des états généraux des droits de l’enfant, afin de recueillir les réflexions et recommandations des enfants et de les transmettre directement aux institutions. Je serai ravi de vous fournir ultérieurement des éclairages, issus de ces consultations, sur les questions liées au numérique.
En termes de plaidoyer, nous sommes membres du Haut-Conseil à la famille, à l’enfance et à l’âge, de la Commission nationale consultative des droits de l’homme, et nous collaborons régulièrement avec le Défenseur des droits. Au niveau européen, nous sommes membres de la Fédération Eurochild.
Récemment, nous avons travaillé sur des sujets, tels que les violences intrafamiliales, les droits des mineurs non accompagnés, l’exposition à la pornographie ou encore le droit au sommeil. Nous menons également une réflexion sur la place et le statut des enfants dans la société, avec des travaux sur l’infantisme, également appelé adultisme ou misopédie.
En outre, nous organisons aussi des mobilisations citoyennes et populaires, comme la marche pour l’enfance et la jeunesse, dont la deuxième édition se tiendra ce samedi dans trois villes en France.
Je tiens à déclarer que nous recevons un soutien financier sous forme de mécénat de la part de Google France.
Pour conclure, je souhaite souligner les trois principaux enjeux sur lesquels le Cofrade rencontre des difficultés dans la promotion des droits des enfants :
– la possibilité technique de mobiliser les enfants eux-mêmes et de faire entendre leur voix,
– le démantèlement des services publics, qui affecte la plupart des associations et entrave l’application effective des droits,
– et la baisse tendancielle très forte des financements, qui affecte l’ensemble de nos associations membres.
M. le président Arthur Delaporte. Ayant à cœur de recueillir la parole des premiers concernés, nous avions envisagé, avec Mme la rapporteure, d’organiser des visites dans des classes. Cependant, les contraintes de temps liées à l’échéance du 15 juin nous ont contraints à revoir ce projet. C’est notamment pour cette raison que nous avons souhaité vous inviter.
Nous prenons note de vos propos sur la question des financements. Je ne doute pas que, pour le prochain budget, Mme la rapporteure et moi-même déposerons des amendements communs pour essayer de renforcer les dotations des budgets pour vos associations.
Mme Nathalie Hennequin, membre du bureau national du SNUASFP-FSU. Le syndicat national des assistantes de service social de la fédération syndicale unitaire, que je représente, est la première organisation syndicale représentative des personnels du service social de l’éducation nationale. Je suis moi-même assistante de service social dans un collège des Yvelines.
Les réseaux sociaux ont profondément modifié notre manière de communiquer, de partager et d’interagir avec le monde qui nous entoure, et notamment avec le petit monde de chacun. S’ils ont certes facilité la communication pour les personnes timides ou isolées et élargi nos possibilités d’échanges à distance, les réseaux sociaux ont également introduit un écran interposé dans nos relations humaines, supprimant la dimension non verbale essentielle de la communication, qui fait aussi partie de l’échange et de la manière de se comprendre.
Ce qui a pu être bénéfique pour les adultes soulève des questions quant au développement de l’apprentissage de la communication lorsque cela devient le principal moyen d’échange de nos enfants, qui n’ont pas eu l’expérience, bonne et mauvaise, de communications de proximité avant de se lancer sur les réseaux sociaux. En tant qu’adultes, nous pourrions tous raconter des expériences difficiles de communication dématérialisée via les réseaux sociaux, certaines ayant même eu des conséquences graves. Aussi, il y a de quoi s’interroger sérieusement de leurs effets sur les enfants, qui n’ont pas autant d’expériences de la communication avec leurs pairs que les adultes, et s’inscrivent pourtant beaucoup plus tôt sur les réseaux sociaux que la génération précédente.
La communication est plus complexe que l’alignement de mots. Elle permet d’exprimer ses besoins et ses sentiments, de développer ses idées, de négocier et de convaincre, mais peut aussi être utilisée pour manipuler, blesser ou détruire. Le ton employé, la distance, les expressions faciales, le public qui entoure ou la confidentialité d’un échange font partie de l’apprentissage de la communication. Or, derrière un écran, il est impossible de voir autre chose que des mots et de voir ce que ces derniers font à celui ou celle qui les reçoit.
Protéger sa vie intime et privée tout en développant son réseau de connaissances, faire confiance pour construire des relations tout en ne restant pas naïf ou naïve sur les capacités malfaisantes de certains et certaines, communiquer de manière constructive, savoir où s’arrête la liberté de chacun, cela s’acquiert par l’éducation, le partage d’expériences et l’expérimentation personnelle, sur les réseaux sociaux ou non.
En attendant que les enfants soient capables d’évaluer les risques et de maîtriser les règles de savoir-vivre, il incombe aux adultes de poser un cadre protecteur adapté à l’autonomie de chaque enfant. Sans cela, le risque est grand de voir nos enfants se refermer sur eux-mêmes si l’expérience a été difficile. Pour cela, les enfants doivent être entourés d’adultes en capacité d’écoute pour les accompagner, notamment après des expériences traumatisantes. C’est ce que nous devons aux enfants et qui permettrait sûrement de restaurer un mode de communication moins agressif et destructeur que ce que l’on peut regretter actuellement entre enfants, mais aussi entre adultes.
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Je suis secrétaire générale de l’association Respect Zone. Notre organisation, qui lutte depuis plus de dix ans contre les violences en ligne, prône trois valeurs :
– le respect en ligne, notre objectif étant de faire d’internet un espace de respect,
– une liberté d’expression responsable,
– et la protection des mineurs et de la jeunesse.
Nos actions s’articulent autour de trois axes.
Premièrement, la sensibilisation et la prévention constituent notre priorité.
Deuxièmement, nous nous efforçons d’apporter une aide aux victimes en leur offrant un soutien juridique et en les orientant vers des professionnels, notamment des psychologues, lorsque cela s’avère nécessaire.
Troisièmement, dans le cadre de notre action de plaidoyer, nous sommes associés aux processus de régulation français et européens et formulons des propositions.
Nous constatons un usage massif des réseaux sociaux par les jeunes, couplé à un problème de vérification d’âge. Les jeunes sont mal accompagnés et méconnaissent leurs droits, notamment en matière de signalement. De plus, la récurrence de contenus toxiques est préoccupante.
Nous avons essayé de faire véritablement remonter des témoignages de jeunes afin de vous faire part de leurs ressentis et de leurs demandes, liées à un meilleur accompagnement, particulièrement dans l’exercice du droit de signalement.
Dans notre action de plaidoyer, nous défendons l’instauration d’un droit à la dignité numérique, renforcé pour les enfants. Ce droit transversal, applicable à l’ensemble du numérique, permettrait de mettre en place des mesures de renforcement de la protection, essentielles compte tenu du développement cérébral encore incomplet des mineurs. Nous devons impérativement agir collectivement en faveur de cette protection.
Concernant la majorité numérique à 15 ans, nous ne sommes pas favorables à une interdiction absolue, mais plutôt une autorisation parentale obligatoire associée à une vérification effective de l’âge.
Nous recommandons également la création de comptes spécifiques pour les mineurs, intégrant des garanties telles que des algorithmes neutralisés et la possibilité de réinitialiser.
Nous insistons évidemment sur l’importance de renforcer la sensibilisation et la formation, constatant un doublement de nos demandes d’intervention en milieu scolaire en seulement un an, ce qui nécessite davantage de financements.
Par ailleurs, nous plaidons pour une meilleure intégration des associations dans l’application des règles, notamment européennes. Par exemple, alors que seules deux associations sont signaleurs de confiance, d’autres organisations devraient disposer de couloirs prioritaires. Nous sollicitons également un accès facilité aux données de modération pour les associations.
Enfin, face à l’augmentation des demandes et à la couverture encore insuffisante des milieux scolaires et extrascolaires, nous soulignons l’urgence de flécher des fonds publics pour permettre aux associations de mener à bien leurs missions.
Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Je représente l’association CAMELEON, qui lutte contre les violences sexuelles faites aux mineurs aux Philippines et en France. Mon intervention se fonde sur des observations auprès de milliers d’enfants depuis 2019, lors d’animations de prévention en milieu scolaire, principalement en Île-de-France, et d’actions menées auprès des parents et des professionnels, ainsi que de sollicitations d’associations et d’expériences personnelles.
Concernant les risques liés aux réseaux sociaux, particulièrement TikTok, nous constatons une forme de déconnexion et de déformation du réel. Ces plateformes constituent à la fois un produit de consommation rapide — particulièrement avec le format ultra-court et addictif de TikTok — et un espace d’interactions sociales.
Cette déconnexion se manifeste d’abord par rapport au corps. Les enfants, absorbés par les réseaux sociaux, en oublient parfois leurs besoins physiologiques élémentaires, comme la faim ou la nécessité d’aller aux toilettes.
Au niveau relationnel, la communication avec leurs pairs, leurs parents ou les adultes devient parfois compliquée en dehors des écrans, au point que certains préfèrent communiquer via les réseaux sociaux alors qu’ils se trouvent dans la même pièce.
Cette immersion restreint également leur univers, alors que les enfants explorent déjà moins la nature et l’espace public. Pour les jeunes, le tiers-lieu majoritaire, hors de la famille et de l’école, est internet, faute d’espace de rencontre et de socialisation sécurisé permettant le développement de l’estime de soi dans l’espace public.
Un phénomène inquiétant de désensibilisation des jeunes par rapport aux violences, y compris sexuelles, se développe, lié à la question de l’empathie. La répétition de contenus choquants entraîne une perte d’indignation et peut même susciter une recherche d’adrénaline à travers des contenus de plus en plus choquants, tels que des vidéos à caractère sexuel ou montrant des tortures. Cette banalisation se traduit dans leurs relations réelles, où certaines formes de violence sont minimisées ou considérées comme de simples défis. La période de l’adolescence étant marquée par le goût du risque et de la transgression, nous voyons la dangerosité des réseaux sociaux.
Ces plateformes créent un miroir déformant de la réalité, car le biais de confirmation y est amplifié. En cas de vulnérabilité, de mal-être — comme dans les cas d’anorexie ou de scarifications —, de communautarisme ou d’idées préconçues sur des sujets sensibles, comme la féminité ou encore la masculinité, ces contenus constituent une consommation facile qui donne une illusion de repères. Les réseaux sociaux permettent de devenir acteurs, avec des effets d’entraînement pouvant devenir toxiques, ces groupes pouvant renforcer des conduites à risques.
Le cyberharcèlement évolue constamment, avec l’apparition de nouveaux termes, comme le « pressing », et une tendance à aller toujours plus loin.
L’algorithme, en proposant toujours plus de contenus similaires, nous enferme dans une vision déformée du monde et de nous-mêmes.
Face à ces constats, nous formulons trois recommandations principales.
Premièrement, nous préconisons une régulation européenne plus restrictive envers les plateformes. Les simples incitations ne suffisent pas, il faut les contraindre. Deux textes en discussion à la Commission européenne et au Parlement européen, notamment sur la lutte contre l’exploitation sexuelle des mineurs en ligne, nous semblent essentiels pour obliger les plateformes à agir contre le grooming — aussi appelé pédopiégeage — et à rendre compte de leurs actions relatives à la détection et à la collaboration avec les autorités. La coopération avec la société civile nous semble également importante. L’Autorité de régulation de la communication audiovisuelle et numérique (Arcom) manque de moyens. La réserve numérique citoyenne constitue un sujet. Concernant les maraudes numériques, la société civile doit être alliée à ces plateformes et aux politiques.
Deuxièmement, nous insistons sur la nécessité d’un continuum entre les espaces en ligne et hors ligne et d’une présence éducative, permettant d’expliquer les interdictions et les régulations. Des professionnels doivent jouer le rôle de modérateurs ou veilleurs. Des dispositifs comme les promeneurs du net ou les maraudes numériques doivent permettre d’orienter les jeunes en difficulté vers des structures d’aide physiques, comme les maisons des adolescents. Dans les lieux de vie, comme les écoles, il est nécessaire d’informer davantage sur ces espaces de protection numérique.
Enfin, troisièmement, nous soulignons l’importance des enjeux de démocratie et de médiation numérique. La consultation citoyenne que vous avez lancée s’inscrit dans ce cadre. Au-delà de la législation, il est essentiel d’obtenir l’adhésion des populations, particulièrement des jeunes, ce qui implique de les comprendre et d’être à leur écoute. Alors que la loi n° 2019-721 du 10 juillet 2019 relative à l’interdiction des violences éducatives ordinaires est parfois vue comme une intrusion dans la vie privée des parents, il faut, pour ce sujet également, accompagner, écouter et informer les parents, notamment par de la médiation en petits groupes. Alors que des évolutions législatives ont eu lieu concernant le droit à l’image et le droit à la vie privée, nous voyons à quel point la mise en œuvre effective de ces recommandations est difficile, notamment pour les enfants influenceurs. Aller auprès des jeunes, des parents et des acteurs est donc nécessaire.
M. le président Arthur Delaporte. Mme Wittrant semble rencontrer un problème de connexion. Je cède donc la parole à Mme la rapporteure.
Mme Laure Miller, rapporteure. Monsieur Melon, j’aimerais entendre les paroles de jeunes que vous avez recueillies concernant leur vision des réseaux sociaux.
Plus largement, je souhaiterais que vous puissiez détailler les atteintes aux droits de l’enfant que vous pouvez constater.
Je partage votre avis sur la sensibilisation et l’éducation au numérique, qu’il faut absolument amplifier et pour lesquelles il existe un sujet de moyens. Néanmoins, dans le cas où nous parviendrions à sensibiliser chaque enfant, n’avez-vous pas le sentiment que nous nous battons contre des géants, qui auront toujours un train d’avance ? Devrions-nous nous poser la question d’un âge en dessous duquel, malgré une éducation et une sensibilisation très importantes, un enfant doit être préservé des réseaux sociaux ? Évidemment, il serait complexe de rendre une telle mesure applicable
M. Arthur Melon, délégué général du Cofrade. Je vais y répondre en m’appuyant sur les débats que nous avons conduits durant un an avec des adolescents, en 2019, sur la thématique du numérique, du droit à l’information et des réseaux sociaux.
Je commencerai par les aspects positifs que les adolescents attribuent aux réseaux sociaux.
Les jeunes soulignent que ces plateformes permettent de rompre une certaine solitude, bien que cette solution puisse être à double tranchant. Il est intéressant de noter que, derrière l’image des réseaux sociaux comme un espace éminemment collectif et relationnel, les adolescents peuvent ressentir une grande solitude. Certains mentionnent même les sites de rencontre comme moyen de combattre l’isolement, malgré les limites et les risques que cela comporte.
Les adolescents apprécient également la possibilité de maintenir le contact avec leur famille à l’étranger grâce à des communications gratuites via wifi. Ce point a été particulièrement soulevé par des mineurs étrangers non accompagnés.
Des jeunes reconnaissent aussi l’efficacité des réseaux sociaux pour une communication rapide et une mobilisation facile, citant en exemple les marches pour le climat ou l’engagement associatif.
Enfin, certains contenus sur les réseaux sociaux sont perçus comme ayant une valeur pédagogique, voire parascolaire. Des élèves utilisent des tutoriels ou des vidéos pour compenser des difficultés dans certaines matières. Ils regrettent que ces ressources soient principalement orientées vers les filières générales au détriment des filières professionnelles. Ils souhaiteraient que ces ressources pédagogiques en ligne puissent être mieux mises à profit dans le milieu scolaire.
Concernant les risques, les adolescents ont identifié plusieurs problématiques.
Ils pointent un danger d’uniformisation des pratiques et de standardisation, notamment en termes d’apparence vestimentaire et de maquillage. Les filles, en particulier, soulignent que cette standardisation des corps idéalisés engendre des complexes et peut donner lieu à des remarques et insultes sexistes de la part de garçons, alors qu’elles estiment que ces derniers ne sont pas la cible des mêmes commentaires. Je note que, lors de ces consultations, des garçons avaient déclaré qu’il était normal que les filles « assument les conséquences » de la divulgation de ce type de contenu. Nous voyons donc qu’un travail reste à faire sur les questions de harcèlement sexiste et sexuel.
Les enfants sont conscients des conséquences à long terme de leur présence en ligne. Ils rapportent des cas où des personnes se sont vu refuser des stages en raison de l’historique de leurs profils sur les réseaux sociaux.
Les jeunes soulignent également le caractère éphémère de la popularité en ligne, qui nécessite une création constante de contenu pour maintenir une audience.
Le harcèlement en ligne a été un sujet majeur de préoccupation, puisque ce thème a été le plus débattu.
Les adolescents ont aussi évoqué les dangers liés aux challenges en tout genre qui mettent en péril l’intégrité physique et morale des participants, voire qui mettent leur vie en danger.
L’usurpation d’identité et les risques d’arnaque, notamment par des individus se faisant passer pour des célébrités, ont également été mentionnés.
Les jeunes sont conscients des dangers liés aux biais de confirmation renforcés par les algorithmes des réseaux sociaux.
Enfin, les adolescents ont évoqué la prolifération de fake news et de propos extrémistes.
Face à ces défis, les adolescents sont sceptiques quant à l’efficacité d’interdire ou de limiter la diffusion de fausses informations, craignant des dérives en termes de contrôle et soulignant l’impossibilité technique d’une telle mesure. Comme l’exprime Lorenzo d’Issy-les-Moulineaux : « Les réseaux sociaux ne sont qu’une caisse de résonance de ce qui se passe dans la société, tout y est amplifié. C’est pour cela que les ateliers de sensibilisation doivent commencer dès le plus jeune âge. » Victoria de Nanterre affirme : « La sensibilisation aux réseaux sociaux est beaucoup trop tardive. Elle intervient alors que l’on a déjà des téléphones et que l’on est déjà sur les réseaux ». Les enfants consultés soulignent la nécessité d’une prévention plus précoce et plus intensive, non seulement pour les protéger de situations où ils pourraient être victimes, mais aussi pour prévenir des actes où ils pourraient être auteurs, notamment de violences ou de harcèlement.
Ils préconisent que des témoignages encouragent la parole des victimes et jugulent le sentiment de honte ou de culpabilité. Le recours à des influenceurs pour sensibiliser est également suggéré.
Les adolescents font le constat que les plateformes d’écoute et de conseil ne sont pas suffisamment connues. Les jeunes ne connaissent pas l’ensemble des numéros et ne comprennent pas la différence entre les différentes lignes d’écoute, tels que le 119 ou le 3020. Ainsi, ils souhaiteraient une clarification sur les numéros à appeler selon les différents contextes.
Concernant la prévention en milieu scolaire, les enfants souhaitent des tutoriels ou cours pratiques plutôt que des approches moralisatrices. Ils préconisent des ateliers concrets sur le paramétrage des comptes, la protection en ligne et le signalement de contenus. Nicolas, des Scouts et guides de France déclare ainsi : « il faut former les adultes à cette sensibilisation au numérique pour nous accompagner ».
Un point récurrent dans les consultations est la demande de sensibilisation et de formation des parents. Les enfants estiment que leurs parents sont souvent désemparés face aux enjeux du numérique, ce qui les empêche de se sentir vraiment protégés.
La compréhension des conditions générales d’utilisation, que personne ne lit, est également évoquée. Les adolescents suggèrent l’utilisation de pictogrammes ou de formats audio ou vidéo, pour rendre ces informations plus accessibles.
Enfin, la question de l’anonymat sur internet a été abordée, sans apporter de réponse particulière. Les enfants s’interrogent sur l’opportunité de limiter au maximum l’anonymat dans certains contextes pour décourager tout comportement ou tout propos qui n’aurait pas été assumé si l’identité de la personne avait été connue de tous.
Concernant les atteintes aux droits des enfants, plusieurs points sont à souligner.
Le droit à une information adaptée, reconnu par la Convention internationale des droits de l’enfant, est menacé, notamment par l’exposition à des contenus pornographiques.
Le droit à la vie privée est mis à mal par la divulgation d’informations personnelles sur les réseaux sociaux.
Le droit à la santé peut être compromis par la sédentarité et les potentiels effets négatifs sur le développement cognitif.
Le droit au sommeil, peu mis en avant, est également impacté alors qu’il s’agit d’un droit reconnu par la Convention internationale des droits de l’enfant.
Par ailleurs, concernant l’âge approprié pour accéder aux réseaux sociaux, les consultations menées cette année dans le cadre des états généraux des droits de l’enfant révèlent une attitude mesurée des jeunes. Contrairement aux idées reçues, ils ne revendiquent pas un abaissement systématique des limites d’âge. Les lycéens, en particulier, reconnaissent la nécessité d’un encadrement parental concernant l’accès aux réseaux sociaux, justifié par leur maturité encore insuffisante. Les adolescents les plus âgés, notamment au lycée, sont très favorables à un contrôle drastique de l’accès à internet pour les plus jeunes, au collège ou en primaire.
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Pour compléter ces observations, je souhaite partager les résultats d’une étude menée auprès d’une classe de sixième en région parisienne. Les chiffres sont alarmants : 83 % des élèves possèdent un smartphone, 90 % sont inscrits sur au moins un réseau social, et, fait particulièrement préoccupant, 80 % déclarent utiliser des comptes de majeurs.
Face à cette réalité, notre approche consiste à sensibiliser les jeunes au fonctionnement des réseaux sociaux, aux méthodes de protection en ligne et aux réactions appropriées face à des contenus violents.
Nous avons constaté que ces élèves sont souvent dans l’incompréhension face à l’apparition de contenus violents sans rapport avec leurs centres d’intérêt. Même s’ils déclarent que ces contenus ne les intéressent pas, nous avons l’impression que ces contenus reviennent tout de même. Ce problème de fonctionnalité doit être mis au clair.
Par ailleurs, les élèves ont le sentiment que les signalements sont inefficaces, car ils ne reçoivent pas de retour. Chez Respect Zone, nous insistons pour accompagner, valoriser, renforcer et sensibiliser sur le signalement et ses conséquences, quitte à demander aux plateformes de faire un retour sur le signalement.
Il est également crucial de prendre en compte l’accessibilité de certains réseaux sociaux via le net, sans qu’il soit nécessaire de se connecter. Certaines images sont accessibles sur les moteurs de recherche.
Enfin, nous plaidons pour la création de comptes spécifiquement conçus pour les mineurs, intégrant des fonctionnalités précises.
Mme Nathalie Hennequin, membre du bureau national SNUASFP-FSU. Nous sommes confrontés à des enjeux concernant le droit à la vie privée et surtout au droit à être protégé.
Il est essentiel de rappeler que les réseaux sociaux sont parfois utilisés comme vecteurs d’entrée dans la prostitution, ce qui constitue l’une des grandes inquiétudes des personnels des services sociaux de l’éducation nationale.
Un texte important vient d’être publié sur l’éducation à la vie affective, relationnelle et sexuelle (Evars). Si de nombreuses personnes ne retiennent que la partie liée à la sexualité, nous sommes, quant à nous, intéressés par la partie relative à la vie affective et relationnelle. Ce programme complet, qui s’étend de la maternelle au lycée, est ambitieux et abordera les communications sur les réseaux sociaux. Toutefois, la mise en place de ce programme nécessitera des moyens en personnels formés et en équipes pluriprofessionnelles comprenant des assistantes sociales, des psychologues, des infirmières et des médecins, essentiels à l’accompagnement des enfants, des enseignants et des parents. Notre mission d’assistante sociale comprend la prévention, mais aussi l’accompagnement des enfants ayant subi des traumatismes. Il est donc impératif d’insister sur le besoin de moyens supplémentaires pour la mise en place du programme Evars. Des créations de postes doivent permettre que l’école puisse être un lieu d’éducation à la vie affective, relationnelle et sexuelle, tout en protégeant et en accompagnant les enfants et les familles confrontés à des situations traumatisantes.
Concernant la restriction de l’usage des outils numériques, nous savons que des limites d’âge existent déjà. La question de la faisabilité technique reste ouverte et je laisse aux spécialistes le soin d’y répondre. Cependant, l’éducation est primordiale et il est crucial de rappeler aux parents qu’ils disposent, eux aussi, de moyens pour protéger leurs enfants. Les enfants, particulièrement les adolescents, sont très doués pour contourner les interdits. C’est pourquoi il est essentiel de leur expliquer les raisons de ces restrictions, de leur faire comprendre pourquoi nous cherchons à les protéger et pourquoi ils ne sont pas considérés comme majeurs avant un certain âge. Il est important de fixer un âge minimum pour accéder aux réseaux sociaux, même si nous ne parvenons pas à trouver une solution technique permettant de faire respecter cette restriction, car ce seuil nous permettra de rappeler cette règle aux jeunes et aux parents. Nous avons besoin de textes permettant d’expliquer aux élèves pourquoi ces règles sont mises en place pour les protéger.
Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Nous nous battons contre des géants qui, par leurs stratégies marketing et leurs discours, cherchent à convaincre les enfants et les parents que tout est sous contrôle dans le monde virtuel. Ils promettent un univers merveilleux, une fuite vers le métavers ou les lunettes connectées, où chacun pourrait contrôler ce qu’il voit ou ne voit pas. Face à cela, il est crucial d’opposer un discours alternatif, de sensibiliser davantage aux impacts psychologiques et médicaux de ces technologies sur les jeunes, mais aussi de faire basculer la norme. En effet, ces géants construisent les normes sociales et dictent ce qui est désirable. Nous constatons que les enfants qui sont bien cadrés et ne sont donc pas exposés à des contenus inadaptés à leur âge peuvent se retrouver exclus socialement à l’école. Il est impératif de faire basculer ces points de repère et ces normes.
L’instauration d’une majorité entre 13 et 15 ans pour l’utilisation des réseaux sociaux est essentielle, même si certains tenteront toujours de les contourner. L’important est que ces restrictions deviennent la norme pour la majorité, même s’il sera difficile de les contrôler sur le plan technique. Cette interdiction devra être rappelée dans les établissements scolaires, les espaces publics, chez les médecins et dans les lieux de protection maternelle et infantile (PMI).
Une prise de conscience a lieu concernant les mécanismes de manipulation utilisés par les plateformes. Développer un esprit critique est important pour les jeunes, mais aussi pour les parents, afin de comprendre comment ils peuvent être aliénés. Une résistance citoyenne peut permettre de contrer ces enjeux financiers, l’accumulation de données personnelles et l’impact sur le long terme. Au-delà des initiatives en matière d’éducation, la technologie doit être questionnée.
Nous sommes particulièrement vigilants et proactifs afin qu’une réglementation stricte, des moyens de détection, y compris dans les messageries privées, des sanctions appropriées et un accroissement des moyens permettent d’endiguer l’exploitation en ligne des mineurs.
Mme Laure Miller, rapporteure. Avez-vous constaté des problématiques spécifiques sur TikTok, notamment en ce qui concerne les contenus pornographiques ou la pédocriminalité ?
Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Nous constatons un paradoxe en matière d’hypersexualisation. TikTok peut entraîner un oubli de son corps, tout en conditionnant les utilisateurs à s’exposer davantage. Cette plateforme s’est fait connaître par des danses d’enfants qui s’exposaient, parfois en famille. Il faut souligner que les contenus sont souvent monétisés. Cette plateforme est effectivement un moyen d’entrer en contact avec des enfants. Concernant les contenus à caractère sexuel, on y trouve des contenus « érotisés » sous prétexte de divertissement. TikTok se distingue des autres réseaux sociaux par son niveau d’hypersexualisation et d’hyperviolence. Le format des vidéos très courtes favorise une consommation massive et une addiction encore plus prononcée que sur d’autres plateformes. De plus, nous notons qu’il peut exister un manque de transparence.
Mme Laure Miller, rapporteure. Madame Gros, vous évoquiez précédemment votre souhait de voir des comptes spécifiques pour mineurs. Dans un scénario idéal, comment envisageriez-vous la mise en place d’une telle fonctionnalité par TikTok ?
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Tout d’abord, il est impératif d’atténuer, voire de bannir, les publicités sponsorisées. Il faut également offrir la possibilité de réinitialiser l’algorithme. En outre, il est crucial de mieux accompagner le mineur en cas de signalement et de développer un algorithme plus neutre. Cette approche vise à rassurer les parents, souvent inquiets et insuffisamment sensibilisés.
La vérification de l’âge est un enjeu majeur, d’autant plus que certains jeunes nous ont confié que leurs parents leur demandaient de créer des comptes pour les plus de 18 ans afin d’éviter les risques liés à la pédophilie. Il est donc essentiel d’accompagner et de sensibiliser davantage les parents et les jeunes.
Concernant la proposition de fixer la majorité numérique à 15 ans, bien que potentiellement difficile à mettre en œuvre, elle fournirait un cadre juridique clair pour les éducateurs et le personnel encadrant, tout en offrant aux parents une base de discussion.
Pour renforcer la protection des mineurs, je préconise la mise en place de signalements prioritaires. Cette possibilité viserait à créer une bulle de protection autour du mineur.
De plus, il serait judicieux d’instaurer une signalétique numérique pour les contenus sensibles, par le biais des plateformes, des algorithmes ou des associations. Cette mesure permettrait aux mineurs de mieux identifier et d’éviter les contenus inappropriés. Il est primordial d’expliquer aux mineurs les raisons de ces restrictions.
M. le président Arthur Delaporte. Pourriez-vous nous donner des exemples concrets concernant vos pratiques de signalement sur TikTok et sur les autres réseaux sociaux ?
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Le problème que nous rencontrons est l’absence de retour à la suite des signalements effectués.
M. le président Arthur Delaporte. Recevez-vous au moins une notification indiquant que le contenu ne contrevient pas aux conditions générales d’utilisation ?
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Les témoignages des jeunes indiquent une absence de retours. Actuellement, seuls deux signaleurs de confiance sont reconnus dans le cadre des régulations européennes, en raison de leur financement. Nous aimerions également être signaleurs de confiance, mais cela nécessite un budget. Nous souhaiterions que les autres associations puissent disposer d’un couloir prioritaire auprès de ces signaleurs de confiance. De plus, il est crucial d’améliorer la visibilité et la possibilité du signalement pour les jeunes utilisateurs. Nous devons donc non seulement les accompagner dans cette démarche, mais aussi garantir un retour après le signalement pour éviter ce sentiment d’inutilité.
M. le président Arthur Delaporte. Avez-vous des exemples à nous communiquer ?
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Nous sommes confrontés à une absence de transparence. Où en sommes-nous des régulations européennes ? Un premier rapport de l’Arcom a été publié. Nous avons besoin d’obtenir des données sur la modération.
M. le président Arthur Delaporte. Cette question sera posée à TikTok.
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Un défi supplémentaire concerne la distinction entre contenus illicites et contenus sensibles. Il faut arbitrer entre la liberté d’expression et la promotion d’un mouvement pouvant heurter la sensibilité des enfants. Ces contenus sensibles ne sont donc pas nécessairement illégaux, mais sont problématiques pour les mineurs. Cette « zone grise » pose problème et nous manquons de données sur ce point.
Seules 25 plateformes sont actuellement concernées par les obligations de transparence renforcée du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA). Nous proposons d’étendre ces obligations aux plateformes intermédiaires, en introduisant un nouveau critère : toute plateforme comptant au moins 20 % d’utilisateurs mineurs devrait être soumise aux mêmes exigences que les grandes plateformes.
Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Les challenges problématiques peuvent impliquer des actes de torture envers les animaux ou de la simulation de violence envers des enfants. Le « challenge du zizi sexuel » est également préoccupant. Bien que ces contenus puissent être signalés, le processus est long et souvent sans retour. De plus, leur prolifération est difficile à endiguer, même lorsqu’un contenu est bloqué. Le signalement relève de la responsabilité des internautes. Il est impératif de développer des technologies plus avancées pour détecter automatiquement ces types de contenus. C’est pourquoi nous militons pour une législation plus proactive avec des outils plus performatifs, notamment sur les représentations de mineurs dans des postures sexualisées ou les propos faisant l’apologie de la pédocriminalité.
Mme Laure Miller, rapporteure. Quel est votre point de vue sur le DSA ? Bien que largement considéré comme une avancée incontestable, il semble que nous puissions aller encore plus loin. L’Arcom, que nous avons auditionnée récemment, est chargée de recueillir et transmettre les signalements à la Commission européenne, mais ce processus s’avère lent et nous pouvons avoir des doutes sur la finalité de ces signalements, pas toujours suivis d’effet. Malgré la suppression de certains contenus, la prolifération de contenus extrêmement problématiques persiste, souvent accessibles via des emojis spécifiques. Nous nous doutons bien que TikTok dispose des capacités technologiques pour éliminer ces contenus facilement. Comment percevez-vous l’évolution du droit européen sur ces questions ? Ne devrions-nous pas adopter une approche plus ferme afin de traiter ces problèmes plus rapidement ?
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Le règlement sur les services numériques (DSA) constitue une avancée majeure et suscite de grands espoirs. Les plateformes semblent jouer le jeu, comme en témoigne le premier rapport de l’Arcom. L’enjeu crucial réside désormais dans l’analyse des données que les plateformes sont tenues de rendre transparentes. Cette analyse nécessite l’intervention de scientifiques et des moyens financiers conséquents. Ce règlement marque une étape importante, notamment grâce à l’instauration de sanctions et à une réelle volonté politique.
La France a déjà mis en place certaines dispositions qui n’ont pas encore été adoptées au niveau européen, comme la peine de bannissement numérique des réseaux sociaux pour les utilisateurs ayant tenu des propos haineux. Nous sommes favorables au bannissement numérique temporaire, qui favorise une prise de conscience, plutôt qu’au recours à l’emprisonnement ou à la comparution immédiate. Nous souhaitons voir cette disposition française intégrée à la législation européenne, tout comme l’extension du champ d’application aux plateformes de taille intermédiaire.
Un aspect crucial, actuellement absent du règlement, concerne l’intelligence artificielle (IA). L’IA permet désormais de générer des deepfakes de personnes sans leur consentement, une problématique déjà abordée par la loi française et qu’il faudrait porter au niveau européen.
Concernant l’IA, nous préconisons une approche similaire à celle du DSA, en imposant aux entreprises d’IA générative un dispositif de signalement. L’utilisation croissante de l’IA par les mineurs soulève des inquiétudes quant à son caractère protecteur. Il est donc impératif de réguler ces entreprises par le biais d’audits et d’obligations de transparence.
Le DSA devrait donc être modifié, particulièrement pour renforcer le volet qui concerne les mineurs avec les mesures mentionnées. Nous vous transmettrons une documentation détaillée comprenant nos recommandations.
Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. La proposition de règlement du Parlement européen et du Conseil établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants européenne visant à lutter contre l’exploitation sexuelle des mineurs, qui autorise des dérogations à la directive sur la vie privée (directive 2002/58/CE du Parlement européen et du Conseil du 12 juillet 2002 concernant le traitement des données à caractère personnel et la protection de la vie privée dans le secteur des communications électroniques) pour améliorer la détection des contenus pédocriminels, est en cours jusqu’en avril 2026. L’adoption de ce règlement est complexe en raison des enjeux liés à la vie privée, à la protection et à la proportionnalité aux risques. Il est impératif d’aller plus loin pour contraindre les plateformes à être plus proactives, non seulement dans la détection, le signalement et le retrait des contenus, mais aussi dans la lutte contre les mécanismes de grooming et de pédopiégeage.
L’émergence de l’IA soulève de nouvelles inquiétudes, notamment avec l’apparition de chatbots entraînés pour reproduire les modes opératoires des pédocriminels, facilitant ainsi le piégeage des enfants. Ces questions doivent être prises en compte dès la conception de nouveaux services et les entreprises doivent pouvoir être sanctionnées et privées d’accès au niveau national, si ce n’est pas possible au niveau européen.
Nous plaidons pour un renforcement des contraintes, estimant que les mesures actuellement mises en place par les plateformes sont insuffisantes au regard des profits générés et de l’ampleur croissante du phénomène.
Nous préconisons la création d’un observatoire indépendant du traitement des signalements, international ou national, en lien avec des citoyens, pour restaurer la confiance dans les mécanismes de signalement, tant pour les jeunes que pour les adultes.
Nous savons que l’Office mineurs (Ofmin) reçoit 870 signalements de contenus pédocriminels par jour. Moins de 1 % de ces contenus donnent lieu à des investigations en raison de l’insuffisance des moyens. En outre, l’apparition de l’IA complique davantage la tâche des enquêteurs, rendant plus difficile la distinction entre les vrais faits pédocriminels et les contenus générés artificiellement.
Il existe un sentiment d’impunité. Bien que des lois existent pour sanctionner le harcèlement, leur application effective reste problématique. L’absence de sanctions visibles peut s’avérer contre-productive, donnant un sentiment d’impunité aux auteurs de ce type de faits et décourageant les victimes potentielles, alors que la loi devrait permettre de les protéger.
Mme Nathalie Hennequin, membre du bureau national SNUASFP-FSU. Alors que nous évoquons les risques de l’utilisation de l’IA et la possibilité d’instaurer un âge légal d’accès aux réseaux sociaux, je mets en garde sur l’usage des technologies numériques dans le cadre scolaire. S’il est demandé aux parents de fournir à leurs enfants un téléphone le plus basique possible, nous constatons paradoxalement que certains élèves d’écoles primaires disposent de tablettes. Il est essentiel de réfléchir collectivement à la façon dont nous pouvons mettre en garde contre l’exposition des enfants aux technologies numériques. Un texte sur l’IA passe ce matin au Conseil supérieur de l’éducation. Or, il a fallu fortement appeler à la vigilance quant à l’application d’un véritable cadre. Nous devons nous questionner collectivement sur les outils que nous mettons entre les mains de nos enfants. Les parents peuvent peiner à limiter l’usage des écrans lorsque leurs enfants reçoivent des tablettes fournies par les collectivités territoriales.
M. le président Arthur Delaporte. Il existe en effet une injonction paradoxale. Si nous n’accompagnons pas les jeunes dans leur usage du numérique et si nous n’utilisons pas les potentialités offertes par le numérique, nous craignons qu’ils ne soient pas en mesure de s’adapter à la vie active. En même temps, nous leur fournissons des outils pouvant faire l’objet d’usages détournés. Je suppose que les départements ne donnent pas des tablettes aux collégiens pour qu’ils visionnent des vidéos pornographiques. Des associations m’ont expliqué que les usages détournés adviennent assez facilement.
Mme Nathalie Hennequin, membre du bureau national SNUASFP-FSU. Il est crucial de rappeler la différence entre les adultes et les enfants dans l’approche du numérique. Mes enfants s’inquiètent d’être parents au vu de ce qu’ils ont eux-mêmes rencontré et se demandent comment ils pourront protéger leurs enfants. Nous ne nous posions pas du tout la question de la même manière.
Au sein de la FSU, nous rappelons que la priorité de l’éducation, notamment au sein de l’éducation nationale, est de développer les capacités de nos enfants. C’est pourquoi l’introduction de l’intelligence artificielle à l’école suscite des inquiétudes. Notre objectif est que nos enfants soient déjà en capacité de faire sans ces outils.
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Concernant le numérique à l’école, j’estime qu’un encadrement est nécessaire. Une tablette numérique mise entre les mains d’un collégien est en principe paramétrée pour que le jeune ne puisse pas consulter des sites problématiques. Il existe également une fermeture numérique à 20 heures.
Il est crucial d’accompagner l’usage du numérique. Dans cette optique, nous élaborons des chartes avec les établissements scolaires, en accompagnant sur les bonnes pratiques numériques. Une sensibilisation précoce, dès le CM2, à l’ensemble des enjeux numériques auxquels l’enfant sera confronté est nécessaire. Cependant, cela nécessite une réelle volonté politique. Nous constatons que, si l’usage des smartphones est déjà interdit à l’école, cette mesure n’est pas forcément appliquée.
Par ailleurs, l’ensemble des établissements est traité de la même façon. Or, le lien au numérique n’est pas uniforme selon les régions et les établissements. Il convient donc d’éviter les généralisations et d’adopter une approche au cas par cas, en accompagnant les établissements dans la gestion du numérique, désormais présent dans les cartables des collégiens et lycéens. Notre objectif est de promouvoir de bonnes pratiques, notamment au travers de chartes et de labels, pour célébrer ce qui se passe bien. L’usage numérique peut bien se passer, à condition de disposer de garde-fous.
Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Concernant les atteintes aux droits des enfants, il est fou de constater que des investissements massifs sont réalisés afin de ne pas être dépassés par le numérique, alors que des enfants ne disposent pas d’un toit correct, de nourriture en quantité suffisante et des ressources pour se soigner. Cette focalisation sur le numérique tend à masquer un certain nombre d’inégalités. Pour des enfants n’ayant pas les moyens de manger à leur faim, d’avoir accès à des loisirs ou de partir en vacances, le numérique, presque gratuit, représente un supermarché d’abondance mettant tout le monde sur un pied d’égalité. Ces univers virtuels leur donnent ainsi le sentiment d’être comme les autres et que tout est possible alors que le niveau d’affection reçu, l’éducation et les possibilités de réussite sociale ou scolaire divergent.
Comment permettre à ces enfants de bien vivre, de se déconnecter et de respirer ? Les enfants ont le droit de jouer et de s’ennuyer, sans être constamment sollicités par des contenus numériques. Ils ont également le droit d’être dans l’intériorité, faisant ainsi abstraction du regard des autres. Il faut encourager l’exploration du monde, pas uniquement à travers les écrans. Nous devons nous reconnecter à la réalité, aux relations humaines et nous extraire de cette course effrénée vers toujours plus de numérique, qui nous aliène et nous coupe de notre environnement.
Le rapport du Défenseur des droits souligne ces tristes inégalités : certains jeunes n’ont que le numérique pour rêver, s’évader, entrer en relation avec autrui ou avoir des commentaires positifs sur leur apparence ou leurs ambitions. Le défi est de recréer du positif dans la vie, en complémentarité et non en opposition avec ces outils numériques.
M. Thierry Perez (RN). Au regard de votre expérience et de vos travaux, quelle évolution constatez-vous quant à l’utilisation des réseaux sociaux, particulièrement par les mineurs ? Observez-vous une tendance à un usage de plus en plus précoce ? La prolifération de contenus néfastes ou négatifs s’accentue-t-elle ? En définitive, diriez-vous que la santé mentale des plus jeunes tend à se dégrader au fil des années en raison de cette dépendance aux réseaux sociaux ?
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Il est difficile de répondre à cette question, car nous ne disposons pas de chiffres particuliers. Il serait pertinent d’interroger l’Observatoire de la parentalité et de l’éducation numérique (Open) pour des données chiffrées.
Il me semble qu’alors que l’âge du premier smartphone était de 9 ans, il est actuellement de 10 ans, ce qui témoigne d’une première prise de conscience collective. Cette prise de conscience se reflète également dans les actions des pouvoirs publics, avec de nombreuses législations adoptées ces dernières années au niveau européen, et ce processus se poursuit.
Le défi actuel réside dans la puissance croissante des algorithmes et le développement de l’IA. Bien que les mesures de protection aient été renforcées concernant les termes et comportements illicites, une « zone grise » persiste, notamment pour les mineurs, en ce qui concerne les contenus sensibles, violents ou relevant de l’influence toxique. Le débat porte encore sur les contenus illégaux, mais aussi sur la protection des mineurs. Nous n’en avions pas véritablement conscience jusqu’à maintenant. Si une partie de la régulation européenne concerne les mineurs, elle nous semble insuffisamment développée.
J’ai le sentiment que la santé mentale des jeunes s’est dégradée ces dernières années. Le numérique joue forcément un rôle dans cette dégradation. Les actions du Parlement, les auditions et l’évolution des textes au niveau européen témoignent d’une prise de conscience collective. L’inquiétude d’un grand nombre de parents montre que tout le monde a envie d’améliorer la situation de nos mineurs et de renforcer leur protection.
Mme Socheata Sim, experte plaidoyer et ingénierie de l’action sociale de CAMELEON Association France. Des études nationales et internationales mettent en évidence une augmentation significative des atteintes numériques envers les mineurs ces dernières années, avec une hausse de 45 % depuis 2019.
Concernant les questions d’exploitation sexuelle des mineurs, la crise liée à la covid-19 a marqué un tournant, avec des enfants de plus en plus jeunes exposés aux écrans et une augmentation générale du temps passé devant ces derniers. Les faits de sextorsion sont passés de quelques dizaines en 2020 à plus de 12 000 cas l’année dernière.
Les adultes ne disposent pas toujours des codes, comme en témoigne l’augmentation des pratiques de sharenting. Les changements de pratiques concernent donc les jeunes, mais aussi les adultes. Cela pose la question du mimétisme des enfants par rapport aux adultes, pas toujours conscients des risques.
Un autre point préoccupant est l’exposition de plus en plus précoce des jeunes à la pornographie, voire à des contenus pédocriminels. En effet, des vidéos de viols d’enfant peuvent tourner sur les groupes de discussion dès le primaire. La désensibilisation qui en découle peut accroître la vulnérabilité des jeunes face aux violences sexuelles et générer un imaginaire pédocriminel. L’alarmante augmentation à laquelle nous assistons depuis une dizaine d’années mobilise de nombreux services d’enquête, tant au niveau d’Interpol qu’aux échelons européen et mondial. Il est à noter que plus de 62 % des contenus pédocriminels connus sont hébergés en Europe, la France étant elle-même un important consommateur et hébergeur de tels contenus. Il existe donc des enjeux nationaux sur ce sujet.
Enfin, un rapport de la Commission indépendante sur l’inceste et les violences sexuelles faites aux enfants (Ciivise) a estimé une augmentation de plus de 3 000 % des cas de grooming. Aujourd’hui, les prédateurs sont présents sur les réseaux sociaux, tout comme les mineurs, qui y sont présents de plus en plus jeunes.
M. le président Arthur Delaporte. Nous sommes ouverts à toute contribution complémentaire susceptible d’enrichir nos travaux, comme les chiffres et les références d’enquêtes évoqués.
Je tiens à vous remercier pour votre contribution et, plus largement, pour le travail que vous accomplissez.
Mme Anne-Charlotte Gros, secrétaire générale de Respect Zone. Je souhaite préciser que notre association est indépendante, sans aucune subordination à un quelconque groupe politique ou financier. Bien que nous puissions établir des partenariats avec des plateformes, c’est uniquement dans le cadre de la lutte contre la violence en ligne. Nous n’entretenons donc aucun lien de dépendance économique avec aucune plateforme.
Mme Nathalie Hennequin, membre du bureau national SNUASFP-FSU. Je vous remercie de vous pencher sur ce sujet.
M. le président Arthur Delaporte. Je vous remercie.
Puis la commission auditionne M. Cyril di Palma, délégué général de Génération numérique.
M. le président Arthur Delaporte. Mes chers collègues, nous reprenons avec l’audition de M. Cyril di Palma, délégué général de Génération numérique.
Je remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.
Avant de vous donner la parole, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(M. Cyril d Palma prête serment.)
M. Cyril di Palma, délégué général de Génération numérique. Concernant d’éventuels liens avec des acteurs du numérique, Génération numérique reçoit effectivement, depuis sa création, des fonds de diverses entreprises du secteur, en numéraire ou sous forme de coupons publicitaires pour offrir une plus grande visibilité à des campagnes en ligne. Ces entreprises sont Google, TikTok, Snapchat, X, Meta, mais nous travaillons aussi avec la Fondation SFR et Orange. Ces contributions, quelle qu’en soit la forme, ne changent en rien notre manière d’opérer : neutre commercialement, philosophiquement ou religieusement. Cette neutralité est notre vocation, mais également une obligation liée à notre agrément du ministère de l’éducation nationale. Son non-respect compromettrait le renouvellement de cet agrément et nous attirerions à juste titre les foudres des enseignants présents lors des séquences d’éducation animées par nos intervenants. Ainsi, il n’existe aucune influence sur la ligne éditoriale de Génération numérique.
M. le président Arthur Delaporte. Merci pour ces éléments.
M. Cyril di Palma, délégué général de Génération numérique. Génération numérique est une association loi 1901 à but non lucratif, fondée en septembre 2015. Elle est l’héritière d’une précédente structure que j’avais créée fin 2003 et qui a fonctionné jusqu’en 2015. Après une séparation avec mon ancien associé, nous avons reconstitué Génération numérique avec une grande partie de l’équipe précédente. Je m’exprimerai donc au nom de l’expérience acquise au cours de ces vingt-deux dernières années.
Notre vocation première est d’être un complément à l’éducation nationale et à l’éducation parentale en fournissant des conseils, des animations, de la prévention et de l’éducation, principalement en milieu scolaire. Nous menons des actions de terrain. Ainsi, dès 2004, nous avons lancé un tour de France des collèges, en partenariat avec le ministère de l’éducation nationale, pour sensibiliser les élèves aux enjeux et risques liés à leurs usages en ligne.
Aujourd’hui, Génération numérique compte une trentaine de salariés et 24 intervenants répartis sur l’ensemble du territoire national, intervenant quotidiennement dans les écoles, collèges et lycées, avec une base de partenaires d’environ 2 000 établissements scolaires différents. Chaque année, nous animons entre 6 000 et 6 500 séances d’éducation, touchant non seulement les élèves, mais aussi les parents et les éducateurs, qu’ils soient enseignants, infirmières ou éducateurs hors milieu scolaire. Au total, nos équipes rencontrent annuellement près de 300 000 personnes en présentiel.
Notre action, relative à la citoyenneté, répond à trois enjeux majeurs.
Le premier enjeu, historique et davantage demandé par les établissements, est le bon usage d’internet. Cela englobe le paramétrage sur les réseaux sociaux, la lutte contre le harcèlement, la compréhension des modèles économiques, notamment des jeux vidéo, et, plus généralement, le comportement en ligne.
Le deuxième enjeu, développé depuis 2009, est lié à l’égalité. Nous abordons les questions de représentations, de rapport au corps, aux normes de beauté et promouvons l’égalité entre les filles et les garçons.
Le troisième enjeu concerne la lutte contre la désinformation, le développement de l’esprit critique et l’éducation aux médias. Nous menons des actions, principalement en milieu scolaire, pour aider les élèves à muscler leur cerveau, à aiguiser leur esprit critique et à disposer d’outils techniques et intellectuels pour juger les contenus, notamment en ligne.
Notre approche se veut interactive. Très rapidement, nous avons adopté une méthode partant de la réalité numérique des jeunes. Nous explorons ainsi leurs usages, qu’il s’agisse autrefois des skyblog ou aujourd’hui de TikTok, pour identifier les comportements induits et les risques encourus.
Notre démarche s’inscrit également dans une logique républicaine. Nous rappelons systématiquement le cadre légal, crucial face au sentiment d’impunité parfois ressenti en ligne.
En outre, nous adoptons systématiquement une approche empathique pour déconstruire les idées préconçues sur la distinction entre comportements en ligne et hors ligne. Nous expliquons les conséquences des actes, présentons l’envers du décor et promouvons des alternatives aux géants du numérique.
Les difficultés rencontrées varient selon les sujets traités. La principale demande des établissements concerne la lutte contre le harcèlement et le bon usage des réseaux sociaux, à la fois malgré et grâce au programme de lutte contre le harcèlement à l’école, le programme Phare du ministère de l’éducation nationale. Ce focus est lié aux injonctions reçues par les établissements, mais aussi à la réalité du terrain, où ce fléau continue de faire des ravages, malgré de larges progrès. La difficulté est que notre association est parfois enfermée dans une aide aux établissements scolaires sur cette question des réseaux sociaux, alors que nous estimons que les enjeux sont bien plus larges.
Concernant l’égalité filles-garçons, nous rencontrons des difficultés de déploiement en milieu scolaire, notamment en raison des réticences de certains parents, qui voient d’un mauvais œil que nous puissions parler de corps et, éventuellement, de normes de beauté avec les élèves. Pour cette raison, notre module « Égalité, genres et stéréotypes 2.0 » n’est proposé qu’à partir de la classe de quatrième.
La difficulté relative au module consacré à la désinformation, à l’éducation aux médias et à l’esprit critique est sa durée, comprise entre six et huit heures.
Notre défi majeur, partagé vraisemblablement par les autres associations, réside dans la difficulté budgétaire quotidienne liée aux dotations publiques et privées. Nous sommes confrontés à une quête incessante de fonds, à tous les échelons administratifs : villes, communautés de communes, départements, régions, préfectures, instances européennes et ministères. La réduction des budgets publics nous contraint, pour assurer les demandes des établissements scolaires, à rechercher des financements privés.
L’absence de visibilité à long terme constitue un obstacle majeur. Nos budgets sont définis pour l’année civile en cours, et nous nous trouvons fréquemment dans la situation paradoxale de devoir déjà travailler sur les dotations 2026 alors que nous ne disposons pas encore des dotations 2025. Ce travail long et fastidieux est risqué. Par exemple, l’année dernière, notre dotation historique du secrétariat général du comité interministériel de prévention de la délinquance et de la radicalisation (SG-CIPDR) d’environ 100 000 euros par an a été drastiquement réduite à 30 000 euros en raison des investissements en vidéosurveillance pour les Jeux olympiques et paralympiques. Cette information ne nous est parvenue qu’au mois de juin, alors que nous avions déjà engagé les deux tiers de nos actions annuelles. Cette situation met en lumière la complexité de notre gestion et l’impossibilité de mobiliser les énergies là où elles seraient le plus nécessaires.
Concernant les difficultés rencontrées par nos différents publics, je distinguerai trois catégories : les mineurs, les adultes parents et les adultes éducateurs.
Pour les parents, nous constatons une progression de l’utilisation des logiciels d’aide à la parentalité, notamment depuis l’obligation faite aux fournisseurs d’accès internet de proposer un contrôle parental dans le cadre de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique. Cependant, la couverture nationale reste insuffisante et ces outils sont parfois perçus par les enfants et les adolescents comme de l’espionnage plutôt qu’un dispositif éducatif. Les parents tendent à appréhender la vie numérique de leurs enfants à travers le prisme de leur propre expérience, ce qui engendre une vision partielle et biaisée de la réalité numérique dans laquelle évoluent leurs enfants. Bien que des outils techniques soient développés, leur utilisation demeure limitée. Lorsqu’ils sont employés, on craint parfois une forme de déresponsabilisation parentale. Les parents doivent comprendre que l’environnement en ligne dans lequel évoluent les enfants s’apparente à une rue plus dangereuse que les rues de nos villes, car dépourvue des cadres légaux concernant la vente de substances interdites aux mineurs.
Les éducateurs et les professeurs rencontrent d’autres difficultés. Nous proposons aux établissements scolaires d’organiser une réunion à destination des professeurs, infirmières et personnels. Ces acteurs ont orienté ces sessions vers des questions d’ordre personnel et manifesté le besoin d’une culture numérique. L’objectif est de permettre aux professionnels de comprendre ce qu’est un challenge et sa viralité, afin de mieux appréhender ce qu’il se passe dans les couloirs. Au vu du renouvellement presque quotidien des challenges, leur curiosité est essentielle pour actualiser leurs connaissances.
M. le président Arthur Delaporte. Je vous remercie et vous invite à nous communiquer vos réponses écrites aux questions.
M. Cyril di Palma, délégué général de Génération numérique. Permettez-moi d’attirer votre attention sur une enquête comparative que nous avons menée. Dans le cadre de nos interventions en milieu scolaire, Génération numérique propose aux établissements un questionnaire en ligne anonyme destiné aux élèves. Ce sondage recueille des informations sur l’âge, le niveau scolaire et le sexe des participants. Bien que la participation ne soit pas systématique, nous parvenons à constituer une base de données d’environ 5 000 élèves âgés de 11 à 14 ans chaque année.
Le document que je vous ai remis présente une analyse comparative des pratiques numériques des 11-14 ans en 2020 et en 2025. Sur l’échantillon de 2025, qui comprend 5 944 jeunes, 2 573 déclarent posséder un compte TikTok. Nous avons isolé ce sous-groupe pour examiner si leurs réponses divergeaient de la moyenne générale.
Dans les pages que je vous ai fournies, vous trouverez une comparaison entre les données de 2020 et celles de 2025. La troisième colonne présente spécifiquement les résultats des répondants de 11 à 14 ans qui ont déclaré avoir un compte sur TikTok.
Mme Laure Miller, rapporteure. J’ai le sentiment que les parents ou les personnels de l’éducation nationale que nous rencontrons ont une connaissance générale des réseaux sociaux, mais méconnaissent la singularité de TikTok, sur laquelle il serait nécessaire de sensibiliser davantage. En effet, contrairement à d’autres plateformes, TikTok n’est pas principalement utilisé par les jeunes pour communiquer avec leur famille ou leurs amis, mais plutôt pour visionner un nombre infini de vidéos. L’algorithme de TikTok est singulier et peut rapidement enfermer les utilisateurs dans des contenus qu’ils n’ont pas nécessairement choisis. De plus, la modération sur TikTok n’est pas forcément à la hauteur.
Les données que vous nous avez fournies montrent que les jeunes eux-mêmes reconnaissent la présence de contenus problématiques sur la plateforme. Notamment, 41 % d’entre eux mentionnent la présence de contenus pornographiques et 47 % évoquent des images de bagarres ou de violence.
M. Cyril di Palma, délégué général de Génération numérique. Je me permets de rectifier ce point. Il ne s’agit pas des contenus présents sur TikTok, mais des réponses de la base de jeunes qui déclarent avoir un compte sur TikTok. Ainsi, leurs réponses ne concernent pas forcément TikTok.
Mme Laure Miller, rapporteure. Il n’en demeure pas moins que les faits nous démontrent qu’il y a beaucoup de contenus problématiques.
Faut-il sensibiliser davantage les parents et le personnel éducatif à cette réalité ? S’ils passaient du temps sur la plateforme pour observer ce à quoi les jeunes sont exposés, leur perception serait probablement très différente. Vous donniez l’image d’un enfant laissé seul dans la rue. Or, la situation est peut-être même pire. C’est comme si vous autorisiez des inconnus à entrer dans la chambre de vos enfants, croyant qu’ils y sont en sécurité. Ne devrions-nous pas approfondir cet aspect dans les efforts de sensibilisation ?
M. Cyril di Palma, délégué général de Génération numérique. Les résultats de notre enquête révèlent des disparités significatives entre les deux bases étudiées concernant le contrôle parental de l’accès à internet, la présence d’appareils numériques dans les chambres des enfants et l’utilisation nocturne des écrans. Les parents semblent moins vigilants avec les enfants possédant un compte TikTok. Cependant, il est difficile de définir ce qui est la cause et ce qui est la conséquence. Deux hypothèses se dégagent : soit la médiatisation de TikTok pousse certains parents à l’interdire, entraînant une utilisation secrète chez les enfants, soit l’existence d’un compte sur TikTok est corrélée à des comportements différents, plus cachés. Je recommande à la commission de lancer une étude scientifique, incluant des groupes de parole et une enquête quantitative, afin de disposer de données objectives sur lesquelles se baser.
Il est effectivement important d’informer les parents et les adultes en général. Néanmoins, nous devons éviter de nous focaliser uniquement sur TikTok au risque de négliger d’autres plateformes, qu’il s’agisse de réseaux sociaux, de plateformes de diffusion de vidéos ou de jeux en ligne, de Discord, de Twitch et des applications de messagerie comme Telegram, ayant peu ou pas de représentants en France. L’objectif est plutôt de fournir une information générale pour que les parents comprennent le monde numérique dans lequel évoluent les enfants, leur permettant ainsi de prendre des décisions éclairées concernant la navigation de leurs enfants.
Mme Laure Miller, rapporteure. Premièrement, quelle est votre opinion concernant l’âge minimal en dessous duquel un enfant ne devrait pas être laissé seul sur les réseaux sociaux, malgré toute la sensibilisation que nous pourrions faire ?
Deuxièmement, pourriez-vous nous donner votre avis sur l’état actuel de l’éducation numérique dans notre pays et proposer d’éventuelles pistes d’amélioration ?
M. Cyril di Palma, délégué général de Génération numérique. Concernant l’éducation numérique en France, nous constatons une évolution significative au cours des vingt dernières années. Des progrès majeurs ont été réalisés, notamment grâce au programme Phare du ministère de l’éducation nationale. Cet enjeu a été pris à bras-le-corps par différents ministères et secrétariats d’État. Génération numérique fait partie de l’Observatoire de la haine en ligne à l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), du collectif Educnum de la Commission nationale de l’informatique et des libertés (Cnil) et du label « P@rents, parlons numérique » du secrétariat d’État à la famille.
Cependant, le principal reproche que je formule concerne le manque de coordination. Les initiatives sont fragmentées. Par exemple, j’ai été auditionné successivement par la commission supérieure du numérique et des postes, au Sénat, puis par la délégation aux droits des enfants de l’Assemblée nationale, répétant les mêmes informations. Ces éléments illustrent le problème de communication et de coordination entre les instances.
La mise en œuvre des actions est également très fragmentée et dépendante de facteurs, tels que l’établissement scolaire, le maire, la préfecture, les enjeux ou les priorités immédiates. En dehors du ministère de l’éducation nationale, il manque un pilotage collectif.
Nous appelons de nos vœux une coordination. Il existe une multitude d’associations et d’acteurs, mais nous ne disposons pas d’une cartographie de leurs zones d’intervention géographique, des thèmes qu’ils abordent ou des populations qu’ils touchent. Cette absence de vue d’ensemble empêche d’assurer que tous les enfants, de Foix à Strasbourg, de Calais à Brest, en passant par Marseille, dans les villes comme dans les campagnes, aient les mêmes chances d’accéder à une éducation au numérique de qualité, au-delà de ce qui est prévu dans les programmes de l’éducation nationale.
Concernant l’âge minimal pour accéder aux réseaux sociaux, l’impact des contenus numériques sur les jeunes dépend en effet de leur nature et de la durée d’exposition. Je n’entrerai pas dans des considérations psychologiques, car les interventions de Mesdames Vanessa Lalo et Séverine Erhel, dont j’ai pris connaissance, sont pertinentes et en accord avec notre position. Il est évident que certains contenus, pratiques et temps d’utilisation peuvent être problématiques. Comme pour le reste, ces plateformes doivent être consommées avec modération. Il s’agit d’un équilibre, qui dépend des profils des enfants et des familles. Malheureusement, il est difficile d’établir une règle commune. Le docteur Serge Tisseron avait proposé la règle des 3-6-9-12, offrant ainsi des repères aux parents. Notre rôle, en tant que parents et éducateurs, est d’autonomiser nos enfants et de leur permettre de devenir des citoyens libres, éclairés et indépendants. Or, chacun évolue à son rythme. De plus, la construction des jeunes est fortement influencée par leurs activités en ligne.
La question de l’établissement d’un âge minimum pour laisser les jeunes baguenauder en ligne soulève celle du contrôle effectif de l’âge des utilisateurs. Nous avons réussi à faire fermer deux sites pornographiques, mais des dizaines de milliers d’autres subsistent. Cette problématique s’étend à toutes les plateformes, notamment les réseaux sociaux, pour faire en sorte que les mineurs ne puissent pas accéder à des contenus inappropriés ou créer des profils en mentant sur leur âge. Lorsqu’un enfant de dix ans déclare en avoir vingt, il perd toutes les protections prévues pour les mineurs et se voit exposé à des contenus et publicités destinés aux adultes. La majorité numérique fixée à 15 ans est plutôt pertinente. Le défi réside dans son application effective, en s’assurant que les enfants de moins de 15 ans ne puissent pas s’inscrire sans l’accord parental et que ceux déjà inscrits renseignent leur véritable âge. Ce point soulève des questions liées à la gestion des données publiques, à leur sécurité et au respect de la vie privée.
Mme Laure Miller, rapporteure. Pouvez-vous préciser votre position quant à l’instauration d’un âge minimal ?
M. Cyril di Palma, délégué général de Génération numérique. Nous sommes effectivement favorables à l’instauration d’un âge minimal pour l’inscription des jeunes sur les plateformes numériques. Nous n’avons jamais préconisé l’âge de 13 ans. Cette limite a été établie par les plateformes américaines en conformité avec leur législation nationale. Bien que l’âge de 13 ans puisse être considéré comme le minimum, il faut reconnaître qu’à cet âge, la maturité n’est pas encore pleinement développée, ce qui peut rendre certains contenus inadaptés.
Il ne faut pas oublier que les contenus présents sur internet sont majoritairement produits par des humains. En tant que créateurs de contenus, nous avons tous une responsabilité quant à ce que nous publions ou relayons par rapport au public mineur.
Mme Laure Miller, rapporteure. Je vous ai demandé de préciser, car j’ai tout d’abord été marquée par vos propos quant à la nécessité d’une consommation modérée. Même avec modération, l’exposition à des contenus pornographiques ou hypersexualisés reste problématique pour un enfant de 12 ou 14 ans. Or, ces contenus peuvent être trouvés assez rapidement. De plus, nous avons évoqué la semaine dernière avec des familles de victimes la facilité d’accès à des contenus faisant la promotion du suicide ou de l’automutilation. Certaines personnes auditionnées ont souligné que poser une règle pourrait aider les parents à faire entendre raison à leurs enfants. Quel est votre avis sur ce point ?
M. Cyril di Palma, délégué général de Génération numérique. Il est important de distinguer deux cas dans votre exemple. L’exposition des mineurs à la pornographie est interdite avant 18 ans. En revanche, la modération des contenus dits « gris », qui ne sont pas illégaux, s’avère plus complexe, car il n’existe pas de qualification légale précise interdisant leur accès avant un certain âge. C’est pourquoi j’insiste sur le fait que tous les contenus ne sont évidemment pas adaptés aux mineurs, et encore moins aux jeunes enfants. Dans certains cas, la loi existe et doit offrir un cadre de protection, comme pour l’exposition des mineurs à la pornographie. Cependant, la majorité des contenus ne tombent pas sous le coup de la loi, quelle qu’elle soit.
M. le président Arthur Delaporte. Je vous remercie pour votre intervention. Les données fournies contribuent à notre compréhension et nous permettent de disposer de l’approche la plus fine pour identifier si les problématiques sont spécifiques à TikTok.
En examinant votre échantillon de jeunes utilisateurs exposés à TikTok, nous constatons que les problématiques sont largement similaires, avec quelques exceptions significatives. Par exemple, l’exposition aux scènes de bagarre ou de violence est légèrement plus élevée pour les utilisateurs de TikTok, avec une différence de cinq points. Il en va de même pour l’exposition à la pornographie. Les jeunes n’utilisant pas cette plateforme sont deux fois moins exposés aux insultes liées à la religion, à l’apparence physique, ainsi qu’aux propos sexistes, homophobes ou racistes.
Par ailleurs, un point important est que les jeunes utilisateurs de TikTok se confient moins à des adultes, malgré leur exposition à des contenus plus choquants.
Votre questionnaire relève que les jeunes mentent sur leur âge, ont conscience qu’il est difficile de signaler des contenus et ont réussi à supprimer leur compte lorsqu’ils le souhaitaient.
Ces observations soulignent l’importance cruciale de l’éducation et de la sensibilisation aux enjeux du numérique. Le rôle d’organisations telles que Génération numérique s’avère essentiel et mérite d’être encouragé.
Vous ne disposez pas des moyens d’intervenir dans toutes les classes, ce qui pose la question d’une politique publique. Ne faudrait-il pas envisager la création d’une brigade numérique d’intervention dans les établissements ? La prise en charge des missions actuellement assurées par des associations relève peut-être de la responsabilité de l’éducation nationale.
M. Cyril di Palma, délégué général de Génération numérique. Lors de la création de notre première association, nous avions prévu de fermer en trois ans. Notre hypothèse était que la familiarisation du public avec les outils numériques rendrait notre valeur ajoutée obsolète. Au contraire, les sujets liés au numérique se sont développés, ainsi que les problèmes et questions qui les accompagnent.
Je note que la systématisation existe déjà à travers la certification Pix.
M. le président Arthur Delaporte. Constatez-vous néanmoins une augmentation continue des demandes d’intervention ?
M. Cyril di Palma, délégué général de Génération numérique. En effet. Concernant la certification Pix, il arrive que des élèves soient confrontés à cette plateforme d’évaluation des compétences numériques sans avoir bénéficié d’une formation préalable. Cette inégalité de traitement, bien que logique compte tenu de la machine qu’est l’éducation nationale et de son inertie, reste problématique, même si des améliorations sont sans doute en cours.
La contrainte que rencontreraient les associations, si elles devaient se massifier, est d’ordre financier. À l’époque de la proposition de loi devenue la loi n° 2020-766 du 24 juin 2020 visant à lutter contre les contenus haineux sur internet, j’avais estimé qu’une action touchant 800 000 jeunes nécessiterait un budget annuel de 20 à 25 millions d’euros.
Plutôt que parler d’éducation au numérique, je préfère évoquer une éducation à la citoyenneté, s’appliquant notamment dans le monde numérique. Les enjeux abordés comprennent une partie sur la haine, élaborée en collaboration avec la délégation interministérielle à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT (Dilcrah), mais aussi la laïcité, la discrimination religieuse ou encore l’homophobie. Cette diversité des sujets impose de faire des choix. J’avais autrefois rêvé d’une réforme du rythme scolaire qui aurait permis l’intervention d’acteurs associatifs sur des enjeux parascolaires variés — art, culture, laïcité, valeurs de la République et numérique — durant les après-midis. Un tel fonctionnement faciliterait la mise en place de nos actions.
M. le président Arthur Delaporte. Je vous remercie pour votre participation et vos travaux.
Enfin la commission auditionne Mme Alejandra Mariscal Lopez, directrice de Point de Contact, et M. Yann Lescop, responsable projets et études.
M. le président Arthur Delaporte. Mes chers collègues, nous reprenons avec l’audition de Mme Alejandra Mariscal Lopez, directrice de Point de Contact, et M. Yann Lescop, responsable projets et études.
Madame, monsieur, je vous remercie de prendre le temps de répondre à notre invitation.
Je vous remercie de nous déclarer tout intérêt public ou privé de nature à influencer vos déclarations.
Avant de vous donner la parole, je vous rappelle que l’article 6 de l’ordonnance du 17 novembre 1958 relative au fonctionnement des assemblées parlementaires impose aux personnes auditionnées par une commission d’enquête de prêter serment de dire la vérité, toute la vérité, rien que la vérité. Je vous invite donc à lever la main droite et à dire : « Je le jure ».
(Mme Alejandra Mariscal Lopez et M. Yann Lescop prêtent serment.)
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Point de Contact est une association qui relève de la loi de 1901, créée il y a 25 ans. Notre mission a considérablement évolué au fil du temps. Aujourd’hui, nous nous définissons comme une association luttant contre les cyberviolences et protégeant les droits humains dans l’espace numérique. Notre approche se veut holistique, avec pour mission principale le traitement des signalements.
Nous mettons à disposition de tout citoyen des outils de signalement permettant de porter à notre connaissance tout contenu illicite ou préjudiciable en ligne. Actuellement, nous mettons trois outils de signalement à disposition des internautes. Lors de la réception d’un signalement, nous procédons à son analyse et évaluons son caractère illicite au regard de la loi française. Si nous concluons à l’illégalité du contenu, nous collaborons avec les plateformes, les hébergeurs de contenus et les autorités compétentes pour obtenir son retrait et, le cas échéant, engager des poursuites judiciaires.
En complément de cette mission centrale, nous menons diverses actions dans les domaines de l’éducation, de la sensibilisation, du plaidoyer et de la recherche. Nous collectons des données non personnelles issues des signalements, ce qui nous permet d’établir des statistiques sur le nombre de contenus illicites reçus, de signalements traités et d’identifier les tendances par type d’infraction et par plateforme. Ces recherches sont cruciales pour analyser et suivre l’évolution des tendances au fil du temps.
Nous effectuons également une veille en ligne, adaptée aux circonstances. Par exemple, dans le cadre des Jeux olympiques et paralympiques de Paris 2024, nous avons lancé une campagne globale incluant une veille proactive sur les réseaux sociaux pour analyser les contenus haineux échangés.
Notre principale source de financement provient de la Commission européenne. Nous participons au programme national Safer Internet France, qui s’inscrit dans le programme européen Better Internet for Kids. Safer Internet France comprend trois lignes d’action : Internet sans crainte, un centre de sensibilisation produisant des ressources pour les parents, les enfants et les professionnels ; le 3018, une ligne d’écoute offrant un soutien psychologique ; et Point de Contact, la plateforme de signalement.
Notre association est membre du réseau INHOPE, composé de 54 associations et organisations dans 50 pays qui luttent contre l’exploitation sexuelle des mineurs en ligne, notamment en œuvrant pour le retrait de contenus pédocriminels. En tant que représentants français de ce réseau, nous recevons tous les signalements de contenus pédocriminels hébergés en France identifiés par le réseau. Nous agissons ensuite au niveau local en signalant ces contenus aux autorités compétentes, à Pharos et aux hébergeurs pour obtenir leur retrait. Le réseau INHOPE utilise une base commune appelée ICCAM, qui permet l’échange de signalements entre membres. Cette base est également mise à disposition d’Interpol pour l’identification des victimes et des criminels. Depuis sa création, elle a permis l’identification d’au moins 40 000 victimes et 20 000 pédocriminels.
Dans le cadre de ce réseau, nous participons à un projet permettant de mettre nos contenus à disposition du Centre de lutte contre les criminalités numériques (C3N), un service d’enquête de la gendarmerie nationale réalisant de l’identification des victimes et des pédocriminels, afin de contribuer directement à leurs enquêtes.
Pour vous donner une idée de l’ampleur de notre action, nous avons reçu plus de 42 000 signalements en 2024. Parmi ces signalements, 57 % étaient illicites, soit environ 24 000. En outre, 37 000 signalements concernaient une suspicion d’exploitation sexuelle de mineurs, dont 70 % (17 000 contenus) se sont avérés effectivement illicites et ont été transmis aux autorités compétentes. Il est à noter que 90 % des contenus qualifiés de pédocriminels concernaient des filles. Ces volumes sont très importants. Concernant le réseau INHOPE, nous avons reçu approximativement 12 000 signalements et leur en avons transmis environ 8 000.
Point de contact est signaleur professionnel de Pharos depuis 2010. Nous avons établi une convention professionnelle pour que nos signalements bénéficient d’un traitement prioritaire par leurs services. À chaque fois que nous déterminons qu’un signalement est illicite, nous le transmettons à Pharos, puis envoyons une notification d’information à l’hébergeur ou à la plateforme après un délai de trois à six heures.
Concernant notre gouvernance et notre financement, il est important de souligner que Point de contact a été fondé en 1998 par les principaux acteurs d’internet. L’objectif initial était de les aider à se conformer à leurs obligations en matière de retrait de contenu. Nous ouvrions des canaux de signalement permettant aux internautes de nous remonter les informations liées aux contenus illicites, que nous transmettions ensuite aux acteurs concernés par un canal dédié. Cette démarche a posé les bases du concept de signaleur de confiance.
Aujourd’hui, notre bureau rassemble de nombreux acteurs impliqués dans le numérique, organisés en différents collèges selon la terminologie du règlement (UE) 2022/2065 du Parlement européen et du Conseil du 19 octobre 2022 relatif à un marché unique des services numériques et modifiant la directive 2000/31/CE dit Digital service act (DSA).
Le collège des fournisseurs de services intermédiaires (FSI) inclut les grandes plateformes, telles que TikTok, Snapchat, Google, Meta et Yubo, ainsi que des plateformes de plus petite taille et des hébergeurs comme OVH Cloud.
Le collège d’entreprises technologiques (TEC) met à notre disposition des outils d’intelligence artificielle ou d’intelligence cognitive afin de nous aider dans la modération et le traitement des contenus.
Le collège des membres support regroupe des entreprises hors FSI et TEC.
Le collège de membres honoraires est composé d’experts en protection de l’enfance, terrorisme et numérique.
Enfin, le collège des membres observateurs inclut des autorités publiques, comme la gendarmerie nationale et la préfecture de police de Paris.
Cette organisation vise à ramener tout le monde autour de la table afin de mettre en place des moyens de collaboration dédiés et efficaces. Dans le but de respecter les critères d’indépendance demandés par l’Autorité de régulation de la communication audiovisuelle et numérique (Arcom), des garde-fous ont été mis en place, avec des mesures permettant que les acteurs du numérique n’aient aucune influence sur notre gouvernance ou notre traitement des contenus.
Cela ne signifie pas que les entreprises du numérique ne paient pas de cotisation, car nous pensons que tous les acteurs impliqués doivent participer au financement des signaleurs de confiance comme Point de Contact. Le montant de la cotisation, plafonné à 12 500 euros par an, est variable pour que chaque acteur puisse choisir son niveau de contribution en fonction du soutien qu’il souhaite apporter à Point de Contact et de ses moyens financiers.
Concernant notre rôle dans la régulation des espaces numériques, Point de Contact fait partie des sept organisations françaises reconnues comme signaleurs de confiance, sur un total de trente-deux au niveau de l’Union européenne, dont neuf spécialisées dans la protection de l’enfance. Notre mission s’inscrit dans ce contexte et nous prônons une régulation ambitieuse et protectrice.
Nous venons partager notre expertise de terrain, notre connaissance juridique en matière de régulation d’internet, ainsi que les leçons en matière de financement du secteur des signaleurs de confiance, qui absorbent une part significative des signalements de contenus illicites et préjudiciables.
Mme Laure Miller, rapporteure. Pourriez-vous nous dire quelle est la plateforme qui cotise le plus ?
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Google et Meta contribuent à hauteur de 12 500 euros. OVH Cloud, en tant qu’hébergeur, a choisi d’aller au-delà du montant maximal en versant 15 000 euros. TikTok et Snapchat financent notre association à hauteur de 8 500 euros, suivis par d’autres acteurs comme X à 5 500 euros.
Mme Laure Miller, rapporteure. Pourriez-vous nous expliquer le cheminement d’un signalement ? Recevez-vous des retours systématiques ? Les signalements sont-ils tous couronnés de succès ? Pouvez-vous faire une distinction entre les différents réseaux sociaux ? La politique de TikTok en matière de réponse aux signalements est-elle différente des autres plateformes ?
Vous avez évoqué le rôle de signaleur de confiance qui vous a été confié par l’Arcom. Pouvez-vous nous expliquer comment cette relation fonctionne au quotidien avec l’Arcom dans le cadre des signalements ?
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Notre process implique d’abord un signalement à Pharos, puis à l’hébergeur ou à la plateforme concernée. Nous attendons généralement un délai de 24 heures avant de vérifier si le contenu a été supprimé, dans le cadre de nos activités de monitoring. Bien que notre statut officiel de signaleur de confiance — au sens du DSA — soit récent, nous bénéficions depuis longtemps de ce statut auprès de la plupart des principales plateformes, parmi lesquelles TikTok.
Auparavant, nous envoyions les signalements à TikTok par email. Par la suite, l’entreprise a mis à notre disposition une plateforme spécifique nous permettant d’envoyer les signalements, mais aussi de suivre leur traitement, de vérifier la suppression effective des contenus et d’obtenir des explications en cas de non-suppression.
TikTok est un acteur assez réactif en matière de traitement des signalements, ce qui n’est pas toujours le cas pour d’autres plateformes. Les suites données sont très importantes pour nous, particulièrement en tant que signaleur de confiance. En effet, nous sommes tenus de publier un rapport de transparence détaillant les délais de retrait des contenus illicites par les plateformes. Si les plateformes ne nous permettent pas de vérifier ces informations de manière simple, notre travail s’en trouve considérablement alourdi. TikTok a toujours facilité le suivi du parcours d’un signalement jusqu’au retrait du contenu.
M. Yann Lescop, responsable projets et études. Je confirme les propos d’Alejandra.
Nous constatons une amélioration des délais, particulièrement depuis l’entrée en vigueur du DSA. La plateforme de signalement mentionnée par Alejandra a été mise à disposition en février 2024, coïncidant avec l’entrée en vigueur définitive du règlement sur les services numériques (DSA).
Nous constatons un bon taux de prise en compte de nos signalements, à quelques exceptions près. Par exemple, deux signalements sont restés sans réponse à ce jour. L’un d’eux concerne du harcèlement envers des personnes handicapées. Cependant, pour les autres cas, notamment liés au terrorisme, à l’extrémisme violent et à l’exploitation sexuelle, les réponses sont rapides. Pour les cinq derniers signalements traités, le délai de réponse varie entre une et cinq heures.
M. le président Arthur Delaporte. Vous mentionnez deux signalements restés sans réponse. Quel est l’objet du deuxième signalement ?
M. Yann Lescop, responsable projets et études. Je ne suis pas en mesure de répondre sur l’objet du deuxième signalement.
Un point regrettable à souligner est l’impossibilité de relancer la plateforme.
M. le président Arthur Delaporte. Nous avons été informés de la problématique liée à l’absence de procédure d’appel.
M. Yann Lescop, responsable projets et études. En effet, les deux points que je souhaiterais soulever sont l’absence de procédure d’appel et l’impossibilité de relancer un signalement. Une fois qu’un dossier est clôturé, nous ne disposons d’aucun bouton pour demander son réexamen ou pour relancer la plateforme, même après plusieurs semaines d’attente.
M. le président Arthur Delaporte. La procédure d’appel pourrait revêtir deux formes : soit un appel auprès de la plateforme, soit un appel auprès d’une instance annexe.
M. Yann Lescop, responsable projets et études. Les out-of-court disputes du DSA sont des organes indépendants chargés de la conciliation entre les plateformes et les utilisateurs.
M. le président Arthur Delaporte. Ces organes fonctionnent-ils ? Les avez-vous déjà utilisés ?
M. Yann Lescop, responsable projets et études. Nous ne travaillons pas avec ces organes. Je crois savoir qu’une dizaine ont déjà été désignés au niveau européen.
Par ailleurs, il est important de souligner que, parmi les signalements relatifs à TikTok que nous recevons, le contenu terroriste y est prédominant. Notre plateforme de signalement, qui fonctionne de manière réactive grâce à l’engagement de personnes adhérant à notre mission, n’offre pas une analyse macroscopique. Néanmoins, nous constatons une progression significative : de 14 signalements de contenus terroristes en 2023, nous sommes passés à 32 en 2024. TikTok se positionne ainsi comme la deuxième plateforme sur laquelle nous identifions le plus ce type de contenus. Ces contenus consistent principalement en la glamourisation, la glorification ou l’apologie d’actes terroristes ou de leurs auteurs.
M. le président Arthur Delaporte. Votre rapport d’activité met en lumière une problématique majeure liée à la prise en compte des discours haineux et à leur qualification juridique. Il semble que c’est dans ce domaine que vous rencontrez le plus faible taux de reconnaissance de contenus illicites par rapport au volume de signalements. Pourriez-vous nous éclairer sur cette situation ? Observez-vous des différences de traitement sur le retrait de ce type de contenus de la part de TikTok ?
M. Yann Lescop, responsable projets et études. La raison pour laquelle il existe une disproportion assez notable sur la question de la haine en ligne réside dans l’interprétation stricte que nous faisons de la loi sur la liberté de la presse. Nous sommes compétents sur trois infractions : l’incitation publique à la haine, l’injure haineuse et la diffamation haineuse, comme elles sont définies par la loi sur la liberté de la presse. Soucieux de ne pas être perçus comme des censeurs, nous sommes particulièrement vigilants quant à la préservation de la liberté d’expression. Notre équipe est composée de juristes, notamment spécialisés sur les questions de droits humains.
M. le président Arthur Delaporte. Ne pensez-vous pas qu’une évolution du cadre juridique serait nécessaire ? Cette situation soulève des interrogations, car nous sommes souvent confrontés à des utilisateurs qui signalent des contenus qu’ils perçoivent comme haineux, mais qui ne sont pas retirés, car jugés non problématiques d’un point de vue légal. Pourtant, une analyse approfondie révèle souvent que ces contenus sont effectivement problématiques, bien qu’ils se situent aux marges du droit. La loi devrait-elle évoluer pour apporter plus de clarté ?
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Nous recevons moins de signalements, car les citoyens pensent que cela ne sert à rien. D’autre part, on constate une certaine banalisation des propos haineux. Ces deux éléments dissuadent les utilisateurs d’effectuer un signalement à Point de Contact.
Nous remarquons une différence entre les signalements sur les plateformes et ceux adressés aux hébergeurs. Sur les plateformes, de nombreux internautes sont habitués à signaler directement les contenus illicites en utilisant les outils mis à disposition. Cependant, nous constatons que certains utilisateurs nous contactent après avoir signalé un contenu à la plateforme, lorsque celle-ci n’a pas pris de mesures. Cela montre que nous ne sommes pas toujours le premier recours pour les signalements sur les plateformes. La situation est différente pour les sites lambdas, où le processus de signalement est souvent plus complexe. De nombreux hébergeurs, particulièrement à l’étranger, ne mettent pas en place les canaux de signalement adéquats. Dans ces cas, les utilisateurs se tournent vers nous pour effectuer le travail de géolocalisation de l’hébergeur et trouver l’adresse abuse pour transmettre les signalements. Cette différence explique pourquoi nous recevons davantage de signalements concernant les forums et les sites lambdas que pour les contenus haineux en ligne.
Il faut également prendre en compte que les utilisateurs ne sont pas tous juristes et peuvent avoir des difficultés à identifier ce qui est illicite. Les contenus manifestement illicites, comme ceux impliquant des violences sexuelles ou des mineurs, sont plus facilement signalés. En revanche, la haine en ligne peut parfois sembler plus floue, ce qui peut freiner les signalements. C’est précisément pour cette raison que nous avons mené une campagne de sensibilisation pendant les Jeux olympiques et paralympiques afin d’inciter aux signalements et de promouvoir un comportement responsable en ligne. Nous avons insisté sur le fait que le signalement est un acte citoyen qui contribue à protéger les personnes vulnérables de l’exposition à certains types de contenus.
Il est important de distinguer les contenus effectivement illicites, qui entrent dans le cadre de la loi, de ceux qui peuvent être préjudiciables tout en pouvant parfois entrer tout de même dans le cadre des politiques internes des plateformes. La Commission européenne utilise cette approche pour lutter indirectement contre les risques systémiques, en incitant les plateformes à renforcer et clarifier leurs politiques internes pour les rendre plus protectrices. C’est par ce biais que la Commission cherche à traiter ces contenus moins clairs, plutôt qu’au travers de la loi.
Nous avons également observé, notamment depuis que certaines plateformes ont modifié leurs politiques de modération, que des contenus manifestement illicites car haineux restent en ligne sans être supprimés. C’est un véritable sujet, notamment lorsque ces contenus visent des groupes spécifiques.
M. le président Arthur Delaporte. C’est un sujet qui nous préoccupe grandement, de même que les utilisateurs.
Vous mentionnez un bon taux de retraits par rapport aux signalements. Cependant, nous entendons souvent que les signalements effectués par des utilisateurs lambdas n’aboutissent pas nécessairement au retrait des contenus.
M. Yann Lescop, responsable projets et études. La philosophie de Point de Contact est précisément de se présenter comme un pont entre la société civile et les plateformes. Je ne dirai pas que nous jouons un rôle de médiateur, car nous agissons pour procéder au retrait des contenus illicites. Nous sommes demandeurs de davantage de visibilité auprès de la population pour remédier à ces problématiques.
M. le président Arthur Delaporte. Il est souhaitable que vous soyez identifiés. Cependant, il est préoccupant que les utilisateurs doivent passer par vous, car, en tant qu’acteurs non identifiés, ils n’ont pas réussi à obtenir la suppression des contenus. Il me semble qu’une représentante de StopFisha indiquait que les signalements effectués avec son compte personnel sont ignorés, alors que, lorsqu’elle utilise le compte StopFisha, les mêmes contenus sont retirés. Quelle est la raison de cette différence de traitement ? Suppose-t-on que vous avez déjà effectué un travail de préidentification et d’analyse juridique ?
M. Yann Lescop, responsable projets et études. Je partage votre point de vue, et c’est précisément l’une des réflexions que nous souhaitons partager avec la commission d’enquête. Notre rôle se situe dans la modération ex post, c’est-à-dire une fois que les contenus sont publiés. Cependant, nous plaidons pour une approche plus proactive dans le retrait des contenus.
Dans cette optique, nous avons développé un outil appelé Disrupt, qui vise à prévenir la diffusion de contenus intimes sans consentement. Cet outil permet aux internautes qui craignent la diffusion de leurs contenus privés de nous contacter en amont. Nous transformons alors ces contenus en signatures numériques que nous intégrons à une base de données mise à disposition des plateformes. Ainsi, les plateformes peuvent reconnaître ces signaux et empêcher la mise en ligne de ces contenus, prévenant ainsi l’infraction avant même qu’elle ne se produise. Nous avons fait part de ces observations à la Commission européenne, en suggérant que cette base de données, reposant sur une démarche proactive, soit reconnue comme une bonne pratique. Malheureusement, nous constatons que les plateformes tardent à prendre les devants sur ces questions.
M. le président Arthur Delaporte. Quelles sont les plateformes qui utilisent Disrupt ?
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. À ce jour, aucune plateforme n’utilise encore cet outil, malgré nos sollicitations auprès des grandes plateformes membres de Point de Contact depuis décembre 2024. TikTok, qui fait partie des acteurs avec lesquels nous avons davantage avancé dans les discussions, nous a donné un avis favorable, mais nous attendons toujours depuis cinq mois. Il s’agit d’une question de volonté. Certaines plateformes invoquent un manque de moyens ou des collaborations existantes avec d’autres structures sur cette thématique. Or, Disrupt demeure le seul outil français et européen disponible.
Concernant les signalements citoyens, nous constatons clairement un sentiment d’impuissance chez les utilisateurs individuels qui se tournent vers nous. Le DSA visait à solliciter les signaleurs de confiance pour absorber un volume important de signalements, puis à utiliser ce volume à des fins de transparence. Néanmoins, s’ils analysent les données des signaleurs de confiance, les rapports de transparence ne mettront pas nécessairement en avant les données des citoyens. Nous estimons donc que les plateformes devraient intensifier leurs efforts non seulement envers les signaleurs de confiance, mais aussi envers les citoyens qui font valoir leurs droits.
M. le président Arthur Delaporte. Nous sommes d’accord avec vous.
Nous savons que les contenus terroristes et pédopornographiques sont globalement retirés efficacement. Cependant, je souhaiterais approfondir la question de cette zone grise plus vaste, englobant le harcèlement et la haine en ligne, notamment les contenus liés à l’origine, à la religion ou à la communauté LGBT. Pourriez-vous développer vos observations à ce sujet ? Y a-t-il des spécificités propres à TikTok ? Enfin, quelle est la place des mineurs dans ces contenus signalés ?
M. Yann Lescop, responsable projets et études. En matière de haine en ligne, ce n’est pas TikTok que nous identifierions comme étant plus problématique. D’autres plateformes ont connu une dégradation notable de leurs politiques de modération ces derniers mois. X et Meta, par exemple, nous ont posé de sérieuses difficultés en termes de retrait de contenus, ce qui n’est pas le cas avec TikTok. Il est important de noter que nous recevons moins de signalements de haine relatifs à TikTok. Je rappelle toutefois que les signalements proviennent d’internautes qui nous connaissent.
La problématique majeure concerne la frontière entre le légal et l’illégal. Par exemple, dans le cas de la tendance SkinnyTok, il n’est a priori pas illégal de faire l’apologie de la maigreur.
Cela soulève la question du rôle que nous entendons donner aux plateformes en ligne en termes d’accessibilité des contenus. Les récentes lignes directrices de la Commission européenne mentionnent, par exemple, le fait que les contenus signalés par des signaleurs de confiance puissent être automatiquement retirés de la vue des mineurs, sans attendre la décision finale de modération. Ces signaux nous semblent assez encourageants quant aux contenus auxquels les mineurs sont exposés via leur algorithme de recommandation. Nous estimons que notre statut privilégié pourrait être mis à profit dans ce cadre.
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Avant le DSA, chaque plateforme définissait librement sa politique interne, ce qui est toujours le cas aujourd’hui. Nous avons souvent constaté que nous pouvions faire retirer des contenus illicites, mais non manifestement illégaux, via les canaux de politique interne plutôt que par le biais du canal DSA.
Récemment, la Commission européenne a publié de nouvelles lignes directrices concernant l’article 28 du DSA. Ce document détaillé aide les plateformes à interpréter cet article et établit une série de principes, notamment la mise en place de politiques internes très précises. Les risques liés aux conduites addictives et aux tendances, comme SkinnyTok, faisant l’apologie de la maigreur y sont abordés. À travers ces lignes directrices, la Commission renforce cette protection, qui devient en quelque sorte une obligation puisqu’elle entre dans le cadre d’un article du DSA. Il existe donc l’article 28 sur la protection des mineurs, l’article 24 sur l’évaluation des risques systémiques et l’article 35 sur les mesures d’atténuation de ces risques, parmi lesquelles la collaboration avec les signaleurs de confiance. Selon l’article 28, lorsqu’un signaleur de confiance signale un contenu comme illicite, ce dernier doit être rendu inaccessible aux mineurs. Ces mesures sont très récentes.
Cette année, ce sera la première fois que les signaleurs de confiance et les réseaux sociaux publieront leurs rapports de transparence. Nous pourrons ainsi évaluer la mise en œuvre effective de ces mesures et l’application des lignes directrices entrant dans le cadre de l’article 28.
En conclusion, bien que le cadre soit désormais défini, nous attendons une responsabilité accrue des plateformes et une mise en œuvre efficace de tous ces moyens.
M. le président Arthur Delaporte. Souhaitez-vous ajouter des éléments ?
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. J’ai évoqué une veille proactive, dont nous avons transmis une synthèse à l’Arcom. Nous utilisons certains outils de veille proactive, dont l’un, mis en place par l’European Observatory of Online Hate (EOOH), permet de scanner les réseaux sociaux pour analyser ce qu’il se passe en ligne. Nous pouvons effectuer des recherches ciblées, comme celle sur SkinnyTok. Cet outil est actuellement en phase de test et certaines de ses fonctionnalités nécessitent des améliorations. Son efficacité est optimale pour le contenu textuel, donc sur X. En revanche, son efficacité est moindre sur TikTok, où le pourcentage d’identification des contenus est plus faible.
Nous avons lancé une recherche sur SkinnyTok, limitée aux contenus en langue française, via une veille automatique du 22 au 24 avril. L’outil a identifié 1 136 contenus liés à la tendance SkinnyTok, parmi lesquels 91 ont été qualifiés de toxiques. La répartition de ces contenus toxiques était la suivante : 66 % sur TikTok, 27 % sur X et 7 % sur YouTube. Cette veille a été réalisée à un moment où TikTok avait déjà mis en place certaines mesures, notamment l’affichage d’un avertissement signalant les contenus toxiques. Malgré cela, certains contenus toxiques restent en ligne. Cependant, le fait que nous n’ayons identifié que 1 136 contenus parmi tous les contenus pouvant exister sur TikTok suggère qu’un certain nettoyage avait déjà été effectué.
M. le président Arthur Delaporte. Avez-vous analysé la viralité, le nombre de likes et de vues de ces contenus ? La simple quantification du nombre de contenus ne nous renseigne pas sur leur portée.
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Ces données indiquent que l’outil a identifié peu de contenus toxiques. Néanmoins, certains contenus sont liés à la tendance SkinnyTok.
M. le président Arthur Delaporte. Avez-vous inclus dans votre analyse le nombre de vues par publication ?
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Nous ne disposons pas de ces données. Nous avons pu extraire certaines publications avec leur nombre de likes. Par exemple, j’ai identifié six publications ayant entre 60 et 150 likes.
M. le président Arthur Delaporte. Il semble que votre requête n’ait pas fait ressortir de publications avec des milliers de likes.
Concernant SkinnyTok, avez-vous signalé certains de ces contenus ? Si oui, quels types de contenus avez-vous signalés et ont-ils été retirés ?
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Pour SkinnyTok, notre action s’est principalement concentrée sur une activité de veille. Nous avons signalé certains contenus en infraction avec les politiques internes des plateformes. Cependant, comme je l’ai mentionné précédemment, de nombreux contenus ne correspondaient pas à ces critères et n’étaient pas illicites.
M. le président Arthur Delaporte. Avez-vous mené ce type d’études sur d’autres sujets ? Par exemple, vous mentionnez dans votre rapport la provocation au suicide. Avez-vous effectué des recherches sur ce thème ?
M. Yann Lescop, responsable projets et études. Nous sommes bêta-testeurs de cet outil depuis décembre dernier, ce qui est relativement récent. Nos analyses ont porté sur divers sujets, tels que le cyberharcèlement, les violences sexistes en ligne, avec des focus particuliers, comme l’élection de Miss France. Nous avons également effectué un suivi concernant la journaliste Salomé Saqué et la streameuse Ultia, qui a vécu une vague de haine à la suite d’un procès. Très récemment, nous nous sommes intéressés aux réseaux masculinistes et au manifeste potentiellement diffusé en ligne à la suite d’une attaque au couteau. Notre objectif est d’identifier la toxicité et de suivre les activités en ligne sur ces questions.
M. le président Arthur Delaporte. Quelles sont vos conclusions ?
M. Yann Lescop, responsable projets et études. Nos observations ont révélé que les profils féminins les plus présents en ligne subissaient le plus de cyberharcèlement. Par exemple, Miss France, dont la présence en ligne est limitée, a fait l’objet d’une vague de haine moins intense. Des personnalités comme Ultia, bien ancrée dans les habitudes numériques, sont confrontées à des contenus beaucoup plus violents et insultants, constitutifs de ce phénomène de cyberharcèlement.
M. le président Arthur Delaporte. Quelles sont vos observations sur le masculinisme ?
M. Yann Lescop, responsable projets et études. Concernant la récente attaque au couteau impliquant un étudiant ciblant apparemment explicitement de jeunes femmes, notre utilisation de l’outil visait à identifier le manifeste en ligne. À des fins de recherche, il est intéressant pour nous de disposer du matériel de l’extrémisme violent en ligne. J’ai lancé cette recherche hier, donc je n’ai pas encore de résultats à vous communiquer.
M. le président Arthur Delaporte. Nous sommes intéressés par tous les éléments que vous pourrez nous fournir sur ces analyses, notamment concernant la spécificité de TikTok.
M. Yann Lescop, responsable projets et études. Concernant la philosophie et la régulation des plateformes en général, nous avons beaucoup évoqué le DSA, qui constitue le cadre dans lequel nous opérons et qui nous fournit des mécanismes d’intervention. Cependant, il est important de souligner que la France a la possibilité d’aller au-delà des règlements de l’Union européenne. Cela a déjà été fait, il y a un an, avec l’adoption de la loi n° 2024-449 du 21 mai 2024 visant à sécuriser et à réguler l'espace numérique qui encadre les deepfakes et la diffusion de deepfakes à caractère sexuel. Des infractions ont été créées sur ce point.
Aujourd’hui, la question cruciale, tant au niveau international qu’en France, concerne la vérification de l’âge et la régulation de l’accès aux réseaux sociaux en fonction de l’âge des utilisateurs. Pour nous, le préalable essentiel est la mise en place de mécanismes de vérification d’âge bien implantés. Sans cela, même la création de réseaux sociaux spécifiques pour les enfants ne résoudrait pas les problèmes de fond, notamment en termes de protection contre les contenus inappropriés ou les risques de contact avec des pédocriminels.
Dans ce contexte, le rôle des signaleurs de confiance est primordial. Nous avons évoqué précédemment l’importance d’invisibiliser certains contenus dès leur signalement. Nous sommes prêts à prendre toute notre part dans ce projet.
Mme Alejandra Mariscal Lopez, directrice de Point de Contact. Nous n’avons pas assez évoqué les contenus qui ne sont manifestement pas illicites, mais qui sont vraiment préjudiciables et nocifs.
La diffusion non consensuelle de contenus intimes est un exemple. Nous sommes un peu seuls face à cette problématique. Si le contenu est explicite et implique un mineur, il est rapidement traité. Toutefois, lorsque le contenu implique un adulte, il existe un manque de dispositifs aux niveaux national, européen et international concernant le retrait de ces contenus. L’absence de caractère manifestement illicite empêche les autorités d’agir pour le retrait. Nous sommes confrontés à des situations où l’hébergeur peut refuser d’agir ou exiger une décision de justice, ce qui peut prendre des années pendant lesquelles la victime continue de subir les conséquences de cette atteinte.
Nous sommes donc favorables à une régulation plus stricte sur ce type de contenu. Certains pays ont déjà pris des initiatives en ce sens. Le Royaume-Uni, par exemple, a mis en place des obligations de détection proactive pour certains types de contenus. Aux États-Unis, le Congrès vient d’approuver le Take It Down Act, qui impose aux hébergeurs de retirer ces contenus dans un délai de 48 heures lorsqu’ils sont signalés par la victime ou une association d’aide aux victimes. Nous préconisons d’aller plus loin en renforçant les pouvoirs des signaleurs de confiance, ce qui permettrait d’obtenir des résultats plus concrets en matière de retrait de contenus et d’apporter un soutien plus efficace aux victimes.
M. Stéphane Vojetta (EPR). Avez-vous identifié des différences entre les plateformes concernant la modération des messageries privées, notamment par rapport à l’envoi non sollicité d’images à caractère intime ? C’est notamment dans ces messageries privées qu’ont tendance à se développer les phénomènes de harcèlement.
M. Yann Lescop, responsable projets et études. Tout d’abord, concernant les réseaux sociaux classiques, tels que TikTok, Instagram ou Snapchat, nous n’avons effectivement pas accès aux messageries privées, s’agissant de conversations entre deux utilisateurs. Notre réponse à cette problématique réside dans l’utilisation de Disrupt, une base de données accessible aux grandes plateformes permettant de bloquer la transmission de certains contenus, même dans les messageries privées, agissant ainsi au niveau des systèmes pour répondre à ce besoin.
Ensuite, pour les réseaux sociaux fonctionnant sur ce modèle, comme Telegram, nos analystes sont habilités à intégrer, via des liens d’invitation, des canaux effectuant de la diffusion non consentie de contenus intimes. Récemment, en collaboration avec l’association StopFisha, nous avons réussi à faire fermer un canal de 200 000 personnes qui exposait des personnes haïtiennes.
Enfin, il est important de noter que, depuis environ six mois, nous sommes reconnus comme signaleur de confiance auprès de Telegram, bien que l’application ne soit pas soumise à la régulation de la Commission européenne. Telegram n’est pas encore reconnu comme un grand réseau social, mais cela ne nous empêche pas d’avoir des moyens d’action, que nous tissons unilatéralement avec certaines entités.
M. le président Arthur Delaporte. Je vous remercie infiniment pour votre contribution, vos travaux, vos diverses recherches et les actions que vous menez quotidiennement.
La séance s’achève à douze heures cinquante.
Présents. – M. Arthur Delaporte, Mme Laure Miller, Mme Constance de Pélichy, M. Thierry Perez, M. Thierry Sother, M. Stéphane Vojetta